PromptLayerOpenAI
PromptLayer 是首个允许您跟踪、管理和共享 GPT 提示工程的平台。PromptLayer 充当您的代码与 OpenAI’s Python 库之间的中间件。
PromptLayer 会记录您的所有 OpenAI API 请求,让您能够在 PromptLayer 仪表板中搜索和查看请求历史。
此示例演示了如何连接到 PromptLayer 以开始记录您的 OpenAI 请求。
另一个例子在这里。
安装 PromptLayer
promptlayer 包是使用 PromptLayer 与 OpenAI 的必要包。请使用 pip 安装 promptlayer。
%pip install --upgrade --quiet promptlayer
Imports
import os
import promptlayer
from langchain_community.llms import PromptLayerOpenAI
API 参考:PromptLayerOpenAI
设置环境API密钥
您可以在导航栏中的设置齿轮图标处访问www.promptlayer.com创建PromptLayer API密钥。
将它设置为一个名为PROMPTLAYER_API_KEY的环境变量。
您还需要一个名为 OPENAI_API_KEY 的 OpenAI 密钥。
from getpass import getpass
PROMPTLAYER_API_KEY = getpass()
········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass
OPENAI_API_KEY = getpass()
········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY
使用PromptLayerOpenAI大语言模型就像平常一样
您可以选择传递 pl_tags 来使用 PromptLayer 的标记功能跟踪您的请求。
llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")
以下请求现在应该出现在您的
使用PromptLayer跟踪提示
如果您想使用任何PromptLayer跟踪功能,您需要在实例化PromptLayer LLM时传递参数return_pl_id以获取请求ID。
llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])
for res in llm_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)
使用此功能可以在PromptLayer仪表板中跟踪模型的性能。如果您正在使用提示模板,还可以将模板附加到请求中。 总体而言,这为您提供了一个在PromptLayer仪表板中跟踪不同模板和模型性能的机会。