Skip to main content
Open In Colab在 GitHub 上打开

提示层 OpenAI

PromptLayer是第一个允许您跟踪、管理和共享 GPT 提示工程的平台。PromptLayer在您的代码和OpenAI’spython 库。

PromptLayer记录所有OpenAI API请求,允许您在PromptLayer挡泥板。

此示例展示了如何连接到 PromptLayer 以开始记录您的 OpenAI 请求。

另一个例子在这里

安装 PromptLayer

promptlayerpackage 才能将 PromptLayer 与 OpenAI 一起使用。安装promptlayer使用 pip.

%pip install --upgrade --quiet  promptlayer

进口

import os

import promptlayer
from langchain_community.llms import PromptLayerOpenAI
API 参考:PromptLayerOpenAI

设置环境 API Key

您可以通过单击导航栏中的设置齿轮在 www.promptlayer.com 中创建 PromptLayer API 密钥。

将其设置为名为PROMPTLAYER_API_KEY.

您还需要一个名为OPENAI_API_KEY.

from getpass import getpass

PROMPTLAYER_API_KEY = getpass()
 ········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass

OPENAI_API_KEY = getpass()
 ········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY

像往常一样使用 PromptLayerOpenAI LLM

您可以选择传入pl_tags以使用 PromptLayer 的标记功能跟踪您的请求。

llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")

上述请求现在应该显示在您的 PromptLayer 控制面板上。

使用 PromptLayer Track

如果要使用任何 PromptLayer 跟踪功能,则需要传递参数return_pl_id实例化 PromptLayer LLM 以获取请求 ID。

llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])

for res in llm_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)

使用此功能,您可以在 PromptLayer 控制面板中跟踪模型的性能。如果您使用的是提示模板,则也可以将模板附加到请求。 总体而言,这使您有机会在 PromptLayer 仪表板中跟踪不同模板和模型的性能。