Skip to main content
Open In ColabOpen on GitHub

管道人工智能

PipelineAI 允许您在云端大规模运行您的机器学习模型。它还提供对 多个大语言模型(LLM) 的API访问。

此笔记本介绍了如何将Langchain与PipelineAI一起使用。

PipelineAI 示例

此示例展示了 PipelineAI 如何与 LangChain 集成,由 PipelineAI 创建。

设置

使用 PipelineAI API(又称 Pipeline Cloud)需要安装 pipeline-ai 库。请使用 pip install pipeline-ai 安装 pipeline-ai

# Install the package
%pip install --upgrade --quiet pipeline-ai

示例

Imports

import os

from langchain_community.llms import PipelineAI
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import PromptTemplate

设置环境API密钥

请务必从 PipelineAI 获取您的 API 密钥。查看云快速入门指南。您将获得为期 30 天的免费试用,包含 10 小时的无服务器 GPU 计算时间,用于测试不同的模型。

os.environ["PIPELINE_API_KEY"] = "YOUR_API_KEY_HERE"

创建 PipelineAI 实例

创建 PipelineAI 实例时,您需要指定要使用的管道的 id 或标签,例如 pipeline_key = "public/gpt-j:base"。然后,您可以选择传递额外的特定于管道的关键字参数:

llm = PipelineAI(pipeline_key="YOUR_PIPELINE_KEY", pipeline_kwargs={...})

创建一个提示模板

我们将为问答创建一个提示模板。

template = """Question: {question}

Answer: Let's think step by step."""

prompt = PromptTemplate.from_template(template)

启动LLMChain

llm_chain = prompt | llm | StrOutputParser()

运行LLMChain

提供一个问题并运行LLMChain。

question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"

llm_chain.invoke(question)