Skip to main content
Open In Colab在 GitHub 上打开

ChatOCIGenAI

此笔记本提供了 OCIGenAI 聊天模型入门的快速概述。有关所有 ChatOCIGenAI 功能和配置的详细文档,请参阅 API 参考

Oracle Cloud Infrastructure (OCI) 生成式 AI 是一项完全托管的服务,提供一组先进、可定制的大型语言模型 (LLM),这些模型涵盖广泛的用例,并且可通过单个 API 使用。 使用 OCI 生成式 AI 服务,您可以访问现成的预训练模型,或者根据您自己的数据在专用 AI 集群上创建和托管自己的微调自定义模型。有关服务和 API 的详细文档,请点击此处点击此处

概述

集成详细信息

本地化序列 化JS 支持
ChatOCIGenAIlangchain-community

模型特点

工具调用结构化输出JSON 模式图像输入音频输入视频输入令牌级流式处理本机异步Token 使用情况日志

设置

要访问 OCIGenAI 模型,您需要安装ocilangchain-community包。

凭据

此集成支持的身份证明和验证方法等同于用于其他 OCI 服务的身份证明和验证方法,并遵循标准 SDK 验证方法,特别是 API 密钥、会话令牌、实例主体和资源主体。

API 密钥是上述示例中使用的默认身份验证方法。以下示例演示如何使用不同的身份验证方法(会话令牌)

安装

LangChain OCIGenAI 集成位于langchain-community包中,您还需要安装oci包:

%pip install -qU langchain-community oci

实例

现在我们可以实例化我们的 Model 对象并生成聊天补全:

from langchain_community.chat_models.oci_generative_ai import ChatOCIGenAI
from langchain_core.messages import AIMessage, HumanMessage, SystemMessage

chat = ChatOCIGenAI(
model_id="cohere.command-r-16k",
service_endpoint="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com",
compartment_id="MY_OCID",
model_kwargs={"temperature": 0.7, "max_tokens": 500},
)

调用

messages = [
SystemMessage(content="your are an AI assistant."),
AIMessage(content="Hi there human!"),
HumanMessage(content="tell me a joke."),
]
response = chat.invoke(messages)
print(response.content)

链接

我们可以用 prompt 模板链接我们的模型,如下所示:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_template("Tell me a joke about {topic}")
chain = prompt | chat

response = chain.invoke({"topic": "dogs"})
print(response.content)
API 参考:ChatPromptTemplate

API 参考

有关所有 ChatOCIGenAI 功能和配置的详细文档,请访问 API 参考:https://python.langchain.com/api_reference/community/chat_models/langchain_community.chat_models.oci_generative_ai.ChatOCIGenAI.html