Skip to main content
Open In ColabOpen on GitHub

ChatDeepSeek

这将帮助您开始使用DeepSeek托管的聊天模型。要查看所有ChatDeepSeek功能和配置的详细文档,请访问API参考

提示

DeepSeek的模型是开源的,可以在本地运行(例如,在Ollama中)或在其他推理提供商上运行(例如,在FireworksTogether中)。

概览

集成细节

Class本地序列化JS支持Package downloadsPackage 最新版本
ChatDeepSeeklangchain-deepseekbetaPyPI - DownloadsPyPI - Version

模型特性

工具调用结构化输出JSON 模式图像输入音频输入视频输入Token级流式传输原生异步Token 使用对数概率
注意

DeepSeek-R1,通过model="deepseek-reasoner"指定,不支持工具调用或结构化输出。这些功能由DeepSeek-V3(通过model="deepseek-chat"指定)支持

设置

要访问DeepSeek模型,您需要创建一个DeepSeek账户、获取API密钥,并安装langchain-deepseek集成包。

Credentials

请访问DeepSeek的API密钥页面注册并生成一个API密钥。完成这些步骤后,请设置DEEPSEEK_API_KEY环境变量:

import getpass
import os

if not os.getenv("DEEPSEEK_API_KEY"):
os.environ["DEEPSEEK_API_KEY"] = getpass.getpass("Enter your DeepSeek API key: ")

要启用对您的模型调用的自动跟踪,请设置您的LangSmith API密钥:

# os.environ["LANGSMITH_TRACING"] = "true"
# os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安装

The LangChain DeepSeek 整合存在于 langchain-deepseek 包中:

%pip install -qU langchain-deepseek

Instantiation

现在我们就可以实例化我们的模型对象并生成聊天完成内容:

from langchain_deepseek import ChatDeepSeek

llm = ChatDeepSeek(
model="deepseek-chat",
temperature=0,
max_tokens=None,
timeout=None,
max_retries=2,
# other params...
)
API 参考:ChatDeepSeek

Invocation

messages = [
(
"system",
"You are a helpful assistant that translates English to French. Translate the user sentence.",
),
("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg.content

链式调用

我们可以通过以下方式将模型与提示模板进行链接

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate(
[
(
"system",
"You are a helpful assistant that translates {input_language} to {output_language}.",
),
("human", "{input}"),
]
)

chain = prompt | llm
chain.invoke(
{
"input_language": "English",
"output_language": "German",
"input": "I love programming.",
}
)

API 参考

要详细了解所有ChatDeepSeek功能和配置,请参阅API 参考文档