Skip to main content
Open In Colab在 GitHub 上打开

沙塔

Xata 是一个无服务器数据平台,基于PostgreSQLElasticsearch.它提供了一个用于与数据库交互的 Python 开发工具包,以及一个用于管理数据的 UI。使用XataChatMessageHistory类中,您可以使用 Xata 数据库来长期持久保存聊天会话。

本笔记本涵盖:

  • 一个简单的例子,展示了什么XataChatMessageHistory确实。
  • 一个更复杂的示例,使用 REACT 代理,它根据基于知识或文档回答问题(作为向量存储在 Xata 中),并且还具有其过去消息的长期可搜索历史记录(作为内存存储存储在 Xata 中)

设置

创建数据库

Xata UI 中,创建一个新数据库。你可以随心所欲地命名它,在这个记事本中,我们将使用langchain.Langchain 集成可以自动创建用于编写内存故事的表,这就是我们将在此示例中使用的表。如果要预先创建表,请确保它具有正确的架构并设置create_tableFalse创建类时。预先创建表可在每次会话初始化期间节省一次到数据库的往返行程。

让我们首先安装我们的依赖项:

%pip install --upgrade --quiet  xata langchain-openai langchain langchain-community

接下来,我们需要获取 Xata 的环境变量。您可以通过访问您的账户设置来创建新的 API 密钥。要查找数据库 URL,请转到您创建的数据库的 Settings 页面。数据库 URL 应如下所示:https://demo-uni3q8.eu-west-1.xata.sh/db/langchain.

import getpass

api_key = getpass.getpass("Xata API key: ")
db_url = input("Xata database URL (copy it from your DB settings):")

创建简单的内存存储

要单独测试内存存储功能,我们使用以下代码片段:

from langchain_community.chat_message_histories import XataChatMessageHistory

history = XataChatMessageHistory(
session_id="session-1", api_key=api_key, db_url=db_url, table_name="memory"
)

history.add_user_message("hi!")

history.add_ai_message("whats up?")

上面的代码创建了一个 ID 为session-1并在其中存储两条消息。运行上述作后,如果您访问 Xata UI,您应该会看到一个名为memory以及添加到其中的两条消息。

您可以使用以下代码检索特定会话的消息历史记录:

history.messages

使用内存对数据进行对话 Q&A 链

现在让我们看一个更复杂的示例,其中我们将 OpenAI、Xata Vector Store 集成和 Xata 内存存储集成相结合,以根据您的数据创建 Q&A 聊天机器人,并提供后续问题和历史记录。

我们将需要访问 OpenAI API,因此让我们配置 API 密钥:

import os

if "OPENAI_API_KEY" not in os.environ:
os.environ["OPENAI_API_KEY"] = getpass.getpass("OpenAI API Key:")

要存储聊天机器人将搜索答案的文档,请添加一个名为docs发送到您的langchain数据库,并添加以下列:

  • content的类型为 “Text”。这用于存储Document.pageContent值。
  • embedding类型 “Vector” 。使用您计划使用的模型使用的维度。在这个笔记本中,我们使用 OpenAI 嵌入,它有 1536 个维度。

让我们创建 vector store 并向其添加一些示例文档:

from langchain_community.vectorstores.xata import XataVectorStore
from langchain_openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()

texts = [
"Xata is a Serverless Data platform based on PostgreSQL",
"Xata offers a built-in vector type that can be used to store and query vectors",
"Xata includes similarity search",
]

vector_store = XataVectorStore.from_texts(
texts, embeddings, api_key=api_key, db_url=db_url, table_name="docs"
)

运行上述命令后,如果您转到 Xata UI,您应该会看到文档及其嵌入内容一起加载到docs桌子。

现在,让我们创建一个 ConversationBufferMemory 来存储来自用户和 AI 的聊天消息。

from uuid import uuid4

from langchain.memory import ConversationBufferMemory

chat_memory = XataChatMessageHistory(
session_id=str(uuid4()), # needs to be unique per user session
api_key=api_key,
db_url=db_url,
table_name="memory",
)
memory = ConversationBufferMemory(
memory_key="chat_history", chat_memory=chat_memory, return_messages=True
)

现在,是时候创建一个 Agent 来同时使用矢量存储和聊天内存了。

from langchain.agents import AgentType, initialize_agent
from langchain.agents.agent_toolkits import create_retriever_tool
from langchain_openai import ChatOpenAI

tool = create_retriever_tool(
vector_store.as_retriever(),
"search_docs",
"Searches and returns documents from the Xata manual. Useful when you need to answer questions about Xata.",
)
tools = [tool]

llm = ChatOpenAI(temperature=0)

agent = initialize_agent(
tools,
llm,
agent=AgentType.CHAT_CONVERSATIONAL_REACT_DESCRIPTION,
verbose=True,
memory=memory,
)

为了测试,让我们告诉代理我们的名字:

agent.run(input="My name is bob")

现在,让我们向代理询问一些有关 Xata 的问题:

agent.run(input="What is xata?")

请注意,它根据文档存储中存储的数据进行回答。现在,让我们提出一个后续问题:

agent.run(input="Does it support similarity search?")

现在让我们测试一下它的内存:

agent.run(input="Did I tell you my name? What is it?")