Skip to main content
在 GitHub 上打开

Helicone

本页介绍了如何在 LangChain 中使用 Helicone 生态系统。

什么是Helicone?

Helicone 是一个开源可观测性平台,可代理您的 OpenAI 流量,并为您提供有关您的支出、延迟和使用情况的关键见解。

Helicone 控制面板的屏幕截图显示了每天的平均请求数、响应时间、每个响应的令牌数、总成本以及一段时间内的请求图表。

快速开始

对于 LangChain 环境,您只需添加以下参数。

export OPENAI_API_BASE="https://oai.hconeai.com/v1"

现在前往 helicone.ai 创建您的帐户,并在我们的仪表板中添加您的 OpenAI API 密钥以查看您的日志。

用于在 Helicone 仪表板中输入和管理 OpenAI API 密钥的界面。

如何启用 Helicone 缓存

from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1"

llm = OpenAI(temperature=0.9, headers={"Helicone-Cache-Enabled": "true"})
text = "What is a helicone?"
print(llm.invoke(text))
API 参考:OpenAI

Helicone 缓存文档

如何使用 Helicone 自定义属性

from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1"

llm = OpenAI(temperature=0.9, headers={
"Helicone-Property-Session": "24",
"Helicone-Property-Conversation": "support_issue_2",
"Helicone-Property-App": "mobile",
})
text = "What is a helicone?"
print(llm.invoke(text))
API 参考:OpenAI

Helicone 属性文档