QianfanChat端点
百度 AI Cloud 千帆平台是面向企业开发者的一站式大型模型开发和服务运营平台。千帆不仅提供包括文心一言(ERNIE-Bot)的模型和第三方开源模型,还提供各种 AI 开发工具和整套开发环境,方便客户轻松使用和开发大型模型应用。
基本上,这些模型分为以下类型:
- 嵌入
- 聊天
- 完成
在这个笔记本中,我们将主要介绍如何将 langchain 与 Qianfan 一起使用Chat相应
到包装langchain/chat_models在 langchain 中:
API 初始化
要使用基于百度千帆的 LLM 服务,您必须初始化以下参数:
您可以选择在环境变量中初始化 AK,SK 或 init 参数:
export QIANFAN_AK=XXX
export QIANFAN_SK=XXX
当前支持的型号:
- ERNIE-Bot-turbo(默认型号)
- ERNIE-机器人
- BLOOMZ-7B 系列
- Llama-2-7b-聊天
- 骆驼-2-13b-聊天
- 骆驼-2-70b-聊天
- 千帆-BLOOMZ-7B-压缩
- 千帆中国骆驼 2-7B
- ChatGLM2-6B-32K
- AquilaChat-7B
建立
"""For basic init and call"""
import os
from langchain_community.chat_models import QianfanChatEndpoint
from langchain_core.language_models.chat_models import HumanMessage
os.environ["QIANFAN_AK"] = "Your_api_key"
os.environ["QIANFAN_SK"] = "You_secret_Key"
API 参考:QianfanChatEndpoint | HumanMessage (人工消息)
用法
chat = QianfanChatEndpoint(streaming=True)
messages = [HumanMessage(content="Hello")]
chat.invoke(messages)
AIMessage(content='您好!请问您需要什么帮助?我将尽力回答您的问题。')
await chat.ainvoke(messages)
AIMessage(content='您好!有什么我可以帮助您的吗?')
chat.batch([messages])
[AIMessage(content='您好!有什么我可以帮助您的吗?')]
流
try:
for chunk in chat.stream(messages):
print(chunk.content, end="", flush=True)
except TypeError as e:
print("")
您好!有什么我可以帮助您的吗?
在千帆中使用不同的模型
默认模型为 ERNIE-Bot-turbo,如果您想基于 Ernie Bot 或第三方开源模型部署自己的模型,您可以按照以下步骤作:
- (可选,如果模型包含在默认模型中,请跳过它)在 千帆控制台 部署您的模型,获取您自己的自定义部署终端节点。
- 设置名为
endpoint在初始化中:
chatBot = QianfanChatEndpoint(
streaming=True,
model="ERNIE-Bot",
)
messages = [HumanMessage(content="Hello")]
chatBot.invoke(messages)
AIMessage(content='Hello,可以回答问题了,我会竭尽全力为您解答,请问有什么问题吗?')
模型参数:
目前,只有ERNIE-Bot和ERNIE-Bot-turbo支持模型参数,未来可能会支持更多模型。
- 温度
- top_p
- penalty_score
chat.invoke(
[HumanMessage(content="Hello")],
**{"top_p": 0.4, "temperature": 0.1, "penalty_score": 1},
)
AIMessage(content='您好!有什么我可以帮助您的吗?')