Skip to main content
Open In ColabOpen on GitHub

PromptLayerOpenAI

PromptLayer 是首个允许您跟踪、管理和共享 GPT 提示工程的平台。PromptLayer 充当您的代码与 OpenAI’s Python 库之间的中间件。

PromptLayer 会记录您的所有 OpenAI API 请求,让您能够在 PromptLayer 仪表板中搜索和查看请求历史。

此示例演示了如何连接到 PromptLayer 以开始记录您的 OpenAI 请求。

另一个例子在这里

安装 PromptLayer

promptlayer 包是使用 PromptLayer 与 OpenAI 的必要包。请使用 pip 安装 promptlayer

%pip install --upgrade --quiet  promptlayer

Imports

import os

import promptlayer
from langchain_community.llms import PromptLayerOpenAI

设置环境API密钥

您可以在导航栏中的设置齿轮图标处访问www.promptlayer.com创建PromptLayer API密钥。

将它设置为一个名为PROMPTLAYER_API_KEY的环境变量。

您还需要一个名为 OPENAI_API_KEY 的 OpenAI 密钥。

from getpass import getpass

PROMPTLAYER_API_KEY = getpass()
 ········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass

OPENAI_API_KEY = getpass()
 ········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY

使用PromptLayerOpenAI大语言模型就像平常一样

您可以选择传递 pl_tags 来使用 PromptLayer 的标记功能跟踪您的请求。

llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")

以下请求现在应该出现在您的中。

使用PromptLayer跟踪提示

如果您想使用任何PromptLayer跟踪功能,您需要在实例化PromptLayer LLM时传递参数return_pl_id以获取请求ID。

llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])

for res in llm_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)

使用此功能可以在PromptLayer仪表板中跟踪模型的性能。如果您正在使用提示模板,还可以将模板附加到请求中。 总体而言,这为您提供了一个在PromptLayer仪表板中跟踪不同模板和模型性能的机会。