使用聊天模型和提示模板构建一个简单的 LLM 应用程序
在本快速入门中,我们将向您展示如何使用 LangChain 构建简单的 LLM 应用程序。此应用程序会将文本从英语翻译成另一种语言。这是一个相对简单的 LLM 应用程序 - 它只是一个 LLM 调用加上一些提示。尽管如此,这仍然是开始使用 LangChain 的好方法 - 只需一些提示和 LLM 调用即可构建许多功能!
阅读本教程后,您将对以下内容有一个大致的了解:
让我们开始吧!
设置
Jupyter 笔记本
本教程和其他教程可能在 Jupyter 笔记本中运行最方便。在交互式环境中浏览指南是更好地了解它们的好方法。有关如何安装的说明,请参阅此处。
安装
要安装 LangChain,请运行:
- 果仁
- 康达
pip install langchain
conda install langchain -c conda-forge
有关更多详细信息,请参阅我们的安装指南。
LangSmith
您使用 LangChain 构建的许多应用程序将包含多个步骤,其中包含多次调用 LLM 调用。 随着这些应用程序变得越来越复杂,能够检查您的链条或代理内部到底发生了什么变得至关重要。 最好的方法是使用 LangSmith。
在上面的链接中注册后,请确保设置环境变量以开始记录跟踪:
export LANGSMITH_TRACING="true"
export LANGSMITH_API_KEY="..."
export LANGSMITH_PROJECT="default" # or any other project name
或者,如果在笔记本中,您可以通过以下方式设置它们:
import getpass
import os
try:
# load environment variables from .env file (requires `python-dotenv`)
from dotenv import load_dotenv
load_dotenv()
except ImportError:
pass
os.environ["LANGSMITH_TRACING"] = "true"
if "LANGSMITH_API_KEY" not in os.environ:
os.environ["LANGSMITH_API_KEY"] = getpass.getpass(
prompt="Enter your LangSmith API key (optional): "
)
if "LANGSMITH_PROJECT" not in os.environ:
os.environ["LANGSMITH_PROJECT"] = getpass.getpass(
prompt='Enter your LangSmith Project Name (default = "default"): '
)
if not os.environ.get("LANGSMITH_PROJECT"):
os.environ["LANGSMITH_PROJECT"] = "default"
if "OPENAI_API_KEY" not in os.environ:
os.environ["OPENAI_API_KEY"] = getpass.getpass(
prompt="Enter your OpenAI API key (required if using OpenAI): "
)
使用语言模型
首先,让我们学习如何单独使用语言模型。LangChain 支持许多不同的语言模型,您可以互换使用。有关开始使用特定模型的详细信息,请参阅支持的集成。
pip install -qU "langchain[openai]"
import getpass
import os
if not os.environ.get("OPENAI_API_KEY"):
os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")
from langchain.chat_models import init_chat_model
model = init_chat_model("gpt-4o-mini", model_provider="openai")
我们首先直接使用模型。ChatModel 是 LangChain Runnables 的实例,这意味着它们公开了用于与它们交互的标准接口。要简单地调用模型,我们可以将消息列表传递给.invoke方法。
from langchain_core.messages import HumanMessage, SystemMessage
messages = [
SystemMessage("Translate the following from English into Italian"),
HumanMessage("hi!"),
]
model.invoke(messages)
AIMessage(content='Ciao!', additional_kwargs={'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 3, 'prompt_tokens': 20, 'total_tokens': 23, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}, 'model_name': 'gpt-4o-mini-2024-07-18', 'system_fingerprint': 'fp_0705bf87c0', 'finish_reason': 'stop', 'logprobs': None}, id='run-32654a56-627c-40e1-a141-ad9350bbfd3e-0', usage_metadata={'input_tokens': 20, 'output_tokens': 3, 'total_tokens': 23, 'input_token_details': {'audio': 0, 'cache_read': 0}, 'output_token_details': {'audio': 0, 'reasoning': 0}})
如果我们启用了 LangSmith,我们可以看到此运行已记录到 LangSmith 中,并且可以看到 LangSmith 跟踪。LangSmith 跟踪报告令牌使用信息、延迟、标准模型参数(例如温度)和其他信息。
请注意,ChatModels 接收消息对象作为输入,并生成消息对象作为输出。除了文本内容之外,消息对象还传达会话角色并保存重要数据,例如工具调用和令牌使用计数。
LangChain 还支持通过字符串或 OpenAI 格式输入聊天模型。以下是等效的:
model.invoke("Hello")
model.invoke([{"role": "user", "content": "Hello"}])
model.invoke([HumanMessage("Hello")])
流
由于聊天模型是 Runnables,因此它们公开了一个标准接口,其中包括异步和流式调用模式。这允许我们从聊天模型中流式传输单个令牌:
for token in model.stream(messages):
print(token.content, end="|")
|C|iao|!||
您可以在本指南中找到有关流式聊天模型输出的更多详细信息。
提示模板
现在,我们将消息列表直接传递到语言模型中。此消息列表来自何处?通常,它是由用户输入和应用程序逻辑的组合构建的。此应用程序逻辑通常采用原始用户输入,并将其转换为准备传递给语言模型的消息列表。常见转换包括添加系统消息或使用用户输入设置模板格式。
提示模板是 LangChain 中的一个概念,旨在协助进行这种转换。它们接收原始用户输入并返回准备传递到语言模型的数据(提示)。
让我们在这里创建一个提示模板。它将接受两个用户变量:
language:要将文本翻译成的语言text:要翻译的文本
from langchain_core.prompts import ChatPromptTemplate
system_template = "Translate the following from English into {language}"
prompt_template = ChatPromptTemplate.from_messages(
[("system", system_template), ("user", "{text}")]
)
请注意,ChatPromptTemplate支持在单个模板中使用多个消息角色。我们将language参数添加到系统消息中,并且用户text添加到用户消息中。
此提示模板的输入是字典。我们可以单独使用这个提示模板,看看它自己做了什么
prompt = prompt_template.invoke({"language": "Italian", "text": "hi!"})
prompt
ChatPromptValue(messages=[SystemMessage(content='Translate the following from English into Italian', additional_kwargs={}, response_metadata={}), HumanMessage(content='hi!', additional_kwargs={}, response_metadata={})])
我们可以看到它返回了一个ChatPromptValue,该消息由两条消息组成。如果我们想直接访问消息,我们会这样做:
prompt.to_messages()
[SystemMessage(content='Translate the following from English into Italian', additional_kwargs={}, response_metadata={}),
HumanMessage(content='hi!', additional_kwargs={}, response_metadata={})]
最后,我们可以在格式化的提示符上调用 chat 模型:
response = model.invoke(prompt)
print(response.content)
Ciao!
如果我们看一下 LangSmith 跟踪,我们可以准确地看到聊天模型收到了什么提示,以及令牌使用信息、延迟、标准模型参数(如温度)和其他信息。
结论
就是这样!在本教程中,您学习了如何创建您的第一个简单 LLM 应用程序。您已经学习了如何使用语言模型、如何创建提示模板,以及如何在使用 LangSmith 创建的应用程序中实现出色的可观测性。
这只是触及了您想要学习成为熟练 AI 工程师的皮毛。幸运的是 - 我们还有很多其他资源!
要进一步了解 LangChain 的核心概念,我们提供了详细的概念指南。
如果您对这些概念有更具体的问题,请查看操作指南的以下部分:
LangSmith 文档: