Skip to main content
Open In ColabOpen on GitHub

PromptLayer ChatOpenAI

这个示例展示了如何连接到PromptLayer以开始记录您的ChatOpenAI请求。

安装 PromptLayer

promptlayer 包是使用 PromptLayer 与 OpenAI 的必要包。请使用 pip 安装 promptlayer

pip install promptlayer

Imports

import os

from langchain_community.chat_models import PromptLayerChatOpenAI
from langchain_core.messages import HumanMessage

设置环境API密钥

您可以在导航栏中的设置齿轮图标处访问www.promptlayer.com创建PromptLayer API密钥。

将它设置为一个名为PROMPTLAYER_API_KEY的环境变量。

os.environ["PROMPTLAYER_API_KEY"] = "**********"

使用PromptLayerOpenAI大语言模型就像平常一样

您可以选择传递 pl_tags 来使用 PromptLayer 的标记功能跟踪您的请求。

chat = PromptLayerChatOpenAI(pl_tags=["langchain"])
chat([HumanMessage(content="I am a cat and I want")])
AIMessage(content='to take a nap in a cozy spot. I search around for a suitable place and finally settle on a soft cushion on the window sill. I curl up into a ball and close my eyes, relishing the warmth of the sun on my fur. As I drift off to sleep, I can hear the birds chirping outside and feel the gentle breeze blowing through the window. This is the life of a contented cat.', additional_kwargs={})

以下请求现在应该出现在您的中。

使用PromptLayer跟踪提示

如果您想使用任何PromptLayer跟踪功能,您需要在实例化PromptLayer LLM时传递参数return_pl_id以获取请求ID。

import promptlayer

chat = PromptLayerChatOpenAI(return_pl_id=True)
chat_results = chat.generate([[HumanMessage(content="I am a cat and I want")]])

for res in chat_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)

使用此功能可以在PromptLayer仪表板中跟踪模型的性能。如果您正在使用提示模板,还可以将模板附加到请求中。 总体而言,这为您提供了一个在PromptLayer仪表板中跟踪不同模板和模型性能的机会。