Portkey
Portkey 是 AI 应用程序的控制面板。凭借其广受欢迎的 AI Gateway 和 Observability Suite,数百个团队交付了可靠、经济高效且快速的应用程序。
Langchain 的 LLMOps
Portkey 为 Langchain 带来了生产准备。使用 Portkey,您可以
- 通过统一的 API 连接到 150+ 模型,
- 查看所有请求的42+指标和日志,
- 启用语义缓存以减少延迟和成本,
- 对失败的请求实施自动重试和回退,
- 向请求添加自定义标签,以便更好地跟踪和分析等。
快速入门 - Portkey & Langchain
由于 Portkey 与 OpenAI 签名完全兼容,因此您可以通过ChatOpenAI接口。
- 将
base_url如PORTKEY_GATEWAY_URL - 加
default_headers使用 Portkey 所需的 headers,使用createHeadershelper 方法。
首先,请在此处注册以获取您的 Portkey API 密钥。(单击左下角的配置文件图标,然后单击“复制 API 密钥”)或在您自己的环境中部署开源 AI 网关。
接下来,安装 Portkey SDK
pip install -U portkey_ai
我们现在可以通过更新ChatOpenAILangchain 中的 model
from langchain_openai import ChatOpenAI
from portkey_ai import createHeaders, PORTKEY_GATEWAY_URL
PORTKEY_API_KEY = "..." # Not needed when hosting your own gateway
PROVIDER_API_KEY = "..." # Add the API key of the AI provider being used
portkey_headers = createHeaders(api_key=PORTKEY_API_KEY,provider="openai")
llm = ChatOpenAI(api_key=PROVIDER_API_KEY, base_url=PORTKEY_GATEWAY_URL, default_headers=portkey_headers)
llm.invoke("What is the meaning of life, universe and everything?")
请求通过 Portkey AI Gateway 路由到指定的provider.Portkey 还将开始记录您帐户中的所有请求,这使得调试变得非常简单。

通过 AI 网关使用 150+ 模型
当您能够使用上述代码片段与通过 AI 网关支持的 20+ 提供商的 150+ 模型连接时,AI 网关的强大功能就来了。
让我们修改上面的代码,以调用 Anthropic 的claude-3-opus-20240229型。
Portkey 支持虚拟密钥,这是一种在安全保险库中存储和管理 API 密钥的简单方法。让我们尝试使用 Virtual Key 进行 LLM 调用。您可以导航到 Portkey 中的 Virtual Keys 选项卡,然后为 Anthropic 创建一个新密钥。
这virtual_key参数设置正在使用的 AI 提供程序的身份验证和提供程序。在本例中,我们使用的是 Anthropic Virtual 密钥。
请注意,
api_key可以留空,因为不会使用该身份验证。
from langchain_openai import ChatOpenAI
from portkey_ai import createHeaders, PORTKEY_GATEWAY_URL
PORTKEY_API_KEY = "..."
VIRTUAL_KEY = "..." # Anthropic's virtual key we copied above
portkey_headers = createHeaders(api_key=PORTKEY_API_KEY,virtual_key=VIRTUAL_KEY)
llm = ChatOpenAI(api_key="X", base_url=PORTKEY_GATEWAY_URL, default_headers=portkey_headers, model="claude-3-opus-20240229")
llm.invoke("What is the meaning of life, universe and everything?")
Portkey AI 网关将对 Anthropic 的 API 请求进行身份验证,并以 OpenAI 格式返回响应供您使用。
AI 网关扩展了 Langchain 的ChatOpenAI类,使其成为调用任何提供程序和任何模型的单个接口。
高级路由 - 负载均衡、回退、重试
Portkey AI 网关通过配置优先的方法为 Langchain 带来了负载均衡、回退、实验和金丝雀测试等功能。
让我们举一个例子,我们可能希望在gpt-4和claude-opus50:50 来测试两个大型模型。此网关配置如下所示:
config = {
"strategy": {
"mode": "loadbalance"
},
"targets": [{
"virtual_key": "openai-25654", # OpenAI's virtual key
"override_params": {"model": "gpt4"},
"weight": 0.5
}, {
"virtual_key": "anthropic-25654", # Anthropic's virtual key
"override_params": {"model": "claude-3-opus-20240229"},
"weight": 0.5
}]
}
然后,我们可以在从 langchain 发出的请求中使用此配置。
portkey_headers = createHeaders(
api_key=PORTKEY_API_KEY,
config=config
)
llm = ChatOpenAI(api_key="X", base_url=PORTKEY_GATEWAY_URL, default_headers=portkey_headers)
llm.invoke("What is the meaning of life, universe and everything?")
调用 LLM 时,Portkey 会将请求分发到gpt-4和claude-3-opus-20240229以定义的权重的比率。
您可以在此处找到更多配置示例。
追踪链和代理
Portkey 的 Langchain 集成让您可以全面了解代理的运行情况。让我们以一个流行的代理工作流为例。
我们只需要修改ChatOpenAI类来使用 AI 网关,如上所述。
from langchain import hub
from langchain.agents import AgentExecutor, create_openai_tools_agent
from langchain_openai import ChatOpenAI
from langchain_core.tools import tool
from portkey_ai import PORTKEY_GATEWAY_URL, createHeaders
prompt = hub.pull("hwchase17/openai-tools-agent")
portkey_headers = createHeaders(
api_key=PORTKEY_API_KEY,
virtual_key=OPENAI_VIRTUAL_KEY,
trace_id="uuid-uuid-uuid-uuid"
)
@tool
def multiply(first_int: int, second_int: int) -> int:
"""Multiply two integers together."""
return first_int * second_int
@tool
def exponentiate(base: int, exponent: int) -> int:
"Exponentiate the base to the exponent power."
return base**exponent
tools = [multiply, exponentiate]
model = ChatOpenAI(api_key="X", base_url=PORTKEY_GATEWAY_URL, default_headers=portkey_headers, temperature=0)
# Construct the OpenAI Tools agent
agent = create_openai_tools_agent(model, tools, prompt)
# Create an agent executor by passing in the agent and tools
agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True)
agent_executor.invoke({
"input": "Take 3 to the fifth power and multiply that by thirty six, then square the result"
})
您可以在 Portkey 控制面板上查看请求的日志以及跟踪 ID:

其他文档可在此处获得:
- 可观测性 - https://portkey.ai/docs/product/observability-modern-monitoring-for-llms
- AI 网关 - https://portkey.ai/docs/product/ai-gateway-streamline-llm-integrations
- 提示库 - https://portkey.ai/docs/product/prompt-library
您可以在此处查看我们广受欢迎的开源 AI 网关 - https://github.com/portkey-ai/gateway
有关每个功能及其使用方法的详细信息,请参阅 Portkey 文档。如果您有任何问题或需要进一步的帮助,请在 Twitter 上与我们联系。或我们的支持电子邮件。