ILLA home page
  1. Hugging Face API

“Hugging Face is the Github of the Minding learning community”,目前已有数十万个事先训练的模型和10 000个数据集。 您可以免费访问其他行业专家共享的模型和数据集,或者在Hugging Face上安装您的模型。 您可以免费访问其他行业专家共享的模型和数据集,或者在Hugging Face上安装您的模型。

Hugging Face Library的一些模型实例包括:

  1. BERT (Bidirective Encoder Representations from Transformers): BERT is a transformer based model developed by Google for various NLP missions. 它在语言理解和机器翻译任务方面取得了最新成果。
  2. GPT (Generative Pre-training Transformers):GPT 是由OpenAI开发的另一个变压器模型。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。 它主要用于语文制作工作,例如翻译和文本摘要。
  3. RoBERTa (Robustified BERT):RoBERTa 是为了提高BERT在各种NLP 任务中的性能而开发的BERT模型的延伸。
  4. XLNet (eXtraumulary LanguageNet):XLNet 是谷歌开发的一个变压器模型,旨在提高变压器模型在语言理解任务中的性能。
  5. ALBERT (A Lite BERT): ALBERT is a version of the BERT model ,该模型是开发出来的,以便在保持NLP 任务良好性能的同时更有效率和更快地进行培训。

在ILLA Builder 中你可以做什么来处理Hugging Face

“Hugging Face is the Github of the Minding learning community”,目前已有数十万个事先训练的模型和10 000个数据集。 您可以免费访问其他行业专家共享的模型和数据集,或者在Hugging Face上安装您的模型。 您可以免费访问其他行业专家共享的模型和数据集,或者在Hugging Face上安装您的模型。 此外,如果你需要生产场景的解决办法,你可以使用 Hugging Facebook的引导端点,可以在 https://huggingface.co/docs/inference-endpoints/index部署和访问。

ILLA Builder 提供了数十个常用的前端组件, 允许您根据您的具体需要快速构建不同的前端接口。 同时,ILLA 提供与 Hugging Face 的连接,允许您快速连接到 API,发送请求并接收返回的数据。 连接API和前端组件, 您可以实现用户可以通过前端输入内容并提交到 API 的要求。 API 返回生成的内容以显示在前端。 同时,ILLA 提供与 Hugging Face 的连接,允许您快速连接到 API,发送请求并接收返回的数据。 连接API和前端组件, 您可以实现用户可以通过前端输入内容并提交到 API 的要求。 API 返回生成的内容以显示在前端。

配置Hugging Face API 资源

属性必填描述
名称必填定义将用于在 ILLA 中显示的资源名称
令牌必填用户访问或 API 令牌。 用户访问或 API 令牌。 用户访问或 API 令牌。 用户访问或 API 令牌。 您可以在 https://huggingface.co/settings/tokens获取。

配置动作

属性必填描述
模型 ID必填搜索模型: https://huggingface.co/models
参数类型必填您的端点的参数类型。 例如,如果您的端点需要输入文本,请选择用文本填写“输入”参数。 您的端点的参数类型。 例如,如果您的端点需要输入文本,请选择用文本填写“输入”参数。 您的端点的参数类型。 例如,如果您的端点需要输入文本,请选择用文本填写“输入”参数。 您的端点的参数类型。 例如,如果您的端点需要输入文本,请选择用文本填写“输入”参数。 您的端点的参数类型。 例如,如果您的端点需要输入文本,请选择用文本填写“输入”参数。 您的端点的参数类型。 例如,如果您的端点需要输入文本,请选择用文本填写“输入”参数。 如果您的端点需要JSON输入,请选择填写带有JSON或键值的“输入”参数。
参数必填输入您的参数。 输入您的参数。 输入您的参数。 输入您的参数。 输入您的参数。 输入您的参数。 输入您的参数。 输入您的参数。 输入您的参数。 输入您的参数。 使用 {{ componentName.value }} 来使用组件数据。

如何在ILLA构建器中使用Hugging Face

Usecase 1

步骤1:使用ILLA Builder上的组件构建UI

我们将在这里演示如何构建一个简单的文本,输入文本提示和输出文本答案的文本问题。

你需要两个文本组件标记为“输入原始文本”和“在这里输入问题”, 按钮组件被标为“运行”,文本区域组件被标为输出文本的“Anwer”。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。 以下图像是上文所述的一个例子。

hfapi

步骤2:创建Hugging Face资源并配置Action

点击Action列表中的+New,然后选择Hugging Face Inference API。

hfapi2

填写表单以连接到您的Hugging Face:

名称:在ILLA中显示的名称

令牌:在你的Hugging Face profile settings

hfapi3

在配置Action之前,请确认Hugging Face中的模型信息:

Hugging Face Model Page 中选择一个模型

我们使用 deepset/roberta-base-squad2 作为例子。 进入详情页面 > 点击Deploy按钮 > 点击Inference API 进入详情页面 > 点击Deploy按钮 > 点击Inference API 进入详情页面 > 点击Deploy按钮 > 点击Inference API 进入详情页面 > 点击Deploy按钮 > 点击Inference API 进入详情页面 > 点击Deploy按钮 > 点击Inference API 进入详情页面 > 点击Deploy按钮 > 点击Inference API 进入详情页面 > 点击Deploy按钮 > 点击Inference API 进入详情页面 > 点击Deploy按钮 > 点击Inference API 进入详情页面 > 点击Deploy按钮 > 点击Inference API 进入详情页面 > 点击Deploy按钮 > 点击Inference API

hfapi4

“inputs”后的参数是您应该在ILLA中填写的内容。

hfapi5

在ILLA Builder中,我们应该填写模型ID和参数。 以上面的模型为例,“inputs”是一个键值对,因此我们可以使用key-value或JSON填充它。

hfapi6

hfapi7

我们还支持文本输入和二进制输入,满足所有Hugging Face Inference API连接需求

步骤3:将Action连接到组件

为将用户的输入内容传递给API,您可以使用{{检索组件中输入的数据。 为将用户的输入内容传递给API,您可以使用{{检索组件中输入的数据。 为将用户的输入内容传递给API,您可以使用{{检索组件中输入的数据。 例如,输入2是输入问题的组件,输入1是输入上下文的组件。 我们可以用密钥填写questioncontext,然后填写{{ input.value }}值:

{
"question": {{input2.value}},
"context": {{input1.value}}
}

在将Action的输出数据显示在前端组件中之前,我们应该确认不同模型的输出放置在哪个字段。仍以“deepset/roberta-base-squad2”为例,结果如下: 仍然以deepset/roberta-base-squad2为例,结果如下:

hfapi8

因此,我们可以使用“{{textQuestion.data [0] .answer}}”(“textQuestion”是操作的名称)获取API返回的答案。

hfapi9

演示

hfapi10

hfapi11

Usecase 2

我们将在这里演示如何使用稳定传播模型Illa Cloud中的 Hugging Face API。

步骤1:构建一个前端界面

我们通过使用拖放方法来构建一个前端接口,放置重要的组件,如输入字段、 按钮、 图像等等。 在调整组件样式后,我们将获得以下完整的网页。 在调整组件样式后,我们将获得以下完整的网页。

hugging_layout

步骤2:创建资源和动作

我们通过使用 Hugging Face Inference API 来建立资源和行动来连接到稳定的传播模式。 可以使用两种模型:runwayml/stable-diffusion-v1-5stabilityai/stable-diffusion-2-1。 可以使用两种模型:runwayml/stable-diffusion-v1-5stabilityai/stable-diffusion-2-1。 可以使用两种模型:runwayml/stable-diffusion-v1-5stabilityai/stable-diffusion-2-1。 可以使用两种模型:runwayml/stable-diffusion-v1-5stabilityai/stable-diffusion-2-1。 可以使用两种模型:runwayml/stable-diffusion-v1-5stabilityai/stable-diffusion-2-1。 可以使用两种模型:runwayml/stable-diffusion-v1-5stabilityai/stable-diffusion-2-1。 可以使用两种模型:runwayml/stable-diffusion-v1-5stabilityai/stable-diffusion-2-1

为此目的选择”悬浮面包”。

action_list

为此资源提供一个名称并从Hugging Face 平台输入您的令牌。

hugging_config

在动作配置面板中,请输入Model ID和参数 在动作配置面板中,请输入Model ID和参数 在动作配置面板中,请输入Model ID和参数 在动作配置面板中,请输入Model ID和参数 我们将从无线电组1中检索选定的模型,所以在Model ID 中填写为{{radioGroup1.value}} 。 对于输入的输入,由于它是从输入字段中获取的,因此填写参数为 “{{input1.value}}”。 配置应显示在下面的图像中。 对于输入的输入,由于它是从输入字段中获取的,因此填写参数为 “{{input1.value}}”。 配置应显示在下面的图像中。 对于输入的输入,由于它是从输入字段中获取的,因此填写参数为 “{{input1.value}}”。 配置应显示在下面的图像中。 对于输入的输入,由于它是从输入字段中获取的,因此填写参数为 “{{input1.value}}”。 配置应显示在下面的图像中。

hugging_demo

我们试图在 input 组件中输入“一个mecha robt in a favela in expressionist style”,然后运行操作。 由此产生的执行情况如下。 从左侧面板,您可以观察可以调用的可用数据,包括base64binarydataURI

hugging_output

步骤3:在组件上显示数据

要显示从步骤2获得的图像,我们将图像组件的图像源修改为{{generateInput.fileData.dataURI}}。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。 这将使我们能够显示生成的图像。

hugging_display

步骤4:用组件运行操作

若要运行按键组件点击按钮组件时在步骤2中创建的动作,请将事件处理器添加到按钮组件中。

hugging_event_config

步骤5:测试

按照前四个步骤,您可以使用其他组件和数据源来完成其他任务并建立一个更全面的工具。 例如,您可以使用其他模型来帮助在本地存储或数据库中生成提示或存储提示。 让我们看看执行所有步骤的全部结果。 例如,您可以使用其他模型来帮助在本地存储或数据库中生成提示或存储提示。 让我们看看执行所有步骤的全部结果。

hugging_test

现在你可以与它一起玩! 尝试其他由Hugging 脸通过此 API 提供的尖端模型。 还有更多的事情要探索,如稳定的扩散动脉模型下载,培训艺术家风格,为现实的图像取样方法。 你可以做更多的事情!