Runpod
RunPod 提供 GPU 云基础设施,包括为部署和扩展 AI 模型而优化的无服务器终端节点。
本指南介绍如何使用langchain-runpod集成包将 LangChain 应用程序连接到 RunPod Serverless 上托管的模型。
该集成为标准语言模型 (LLM) 和聊天模型提供接口。
安装
安装专用合作伙伴包:
%pip install -qU langchain-runpod
设置
1. 在 RunPod 上部署端点
- 导航到您的 RunPod Serverless 控制台。
- 创建一个“新端点”,选择与您的模型和预期的输入/输出格式兼容的适当 GPU 和模板(例如,vLLM、TGI、text-generation-webui)(请参阅组件指南或包 README)。
- 配置设置并部署。
- 至关重要的是,在部署后复制 Endpoint ID。
2. 设置 API 凭证
集成需要您的 RunPod API 密钥和端点 ID。将它们设置为环境变量以实现安全访问:
import getpass
import os
os.environ["RUNPOD_API_KEY"] = getpass.getpass("Enter your RunPod API Key: ")
os.environ["RUNPOD_ENDPOINT_ID"] = input("Enter your RunPod Endpoint ID: ")
(可选)如果对 LLM 和 Chat 模型使用不同的终端节点,则可能需要将RUNPOD_CHAT_ENDPOINT_ID或在初始化时直接传递 ID。
组件
此软件包提供两个主要组件:
1. LLM
用于与标准文本完成模型交互。
详细使用方法请参阅 RunPod LLM 集成指南
from langchain_runpod import RunPod
# Example initialization (uses environment variables)
llm = RunPod(model_kwargs={"max_new_tokens": 100}) # Add generation params here
# Example Invocation
try:
response = llm.invoke("Write a short poem about the cloud.")
print(response)
except Exception as e:
print(
f"Error invoking LLM: {e}. Ensure endpoint ID and API key are correct and endpoint is active."
)
2. 聊天模型
用于与对话模型交互。
请参阅 RunPod Chat 模型集成指南,了解详细的使用和功能支持。
from langchain_core.messages import HumanMessage
from langchain_runpod import ChatRunPod
# Example initialization (uses environment variables)
chat = ChatRunPod(model_kwargs={"temperature": 0.8}) # Add generation params here
# Example Invocation
try:
response = chat.invoke(
[HumanMessage(content="Explain RunPod Serverless in one sentence.")]
)
print(response.content)
except Exception as e:
print(
f"Error invoking Chat Model: {e}. Ensure endpoint ID and API key are correct and endpoint is active."
)
API 参考:HumanMessage