Google Cloud SQL for MySQL
Cloud SQL 是一种完全托管的关係数据库服务,提供高性能、无缝集成和出色的可扩展性。它提供了 MySQL、PostgreSQL 和 SQL Server 数据库引擎。通过利用 Cloud SQL 的 Langchain 集成扩展您的数据库应用,构建基于 AI 的体验。
这个笔记本介绍了如何使用Cloud SQL for MySQL通过MySQLLoader和MySQLDocumentSaver来保存、加载和删除langchain文档。
查看相关操作详情
Learn more about the package on GitHub.
开始之前
要运行此笔记本,您需要执行以下操作:
在确认此笔记本运行环境中的数据库访问后,请填写以下值并运行该单元格,然后运行示例脚本。
# @markdown Please fill in the both the Google Cloud region and name of your Cloud SQL instance.
REGION = "us-central1" # @param {type:"string"}
INSTANCE = "test-instance" # @param {type:"string"}
# @markdown Please specify a database and a table for demo purpose.
DATABASE = "test" # @param {type:"string"}
TABLE_NAME = "test-default" # @param {type:"string"}
🦜🔗 库安装
The integration lives in its own langchain-google-cloud-sql-mysql package, so we need to install it.
%pip install -upgrade --quiet langchain-google-cloud-sql-mysql
仅限 Colab:取消以下单元格的注释以重启内核,或使用按钮重启内核。对于 Vertex AI Workbench,您可以使用顶部的按钮重启终端。
# # Automatically restart kernel after installs so that your environment can access the new packages
# import IPython
# app = IPython.Application.instance()
# app.kernel.do_shutdown(True)
☁ 设置您的Google云项目
设置您的Google Cloud项目,以便在此笔记本中利用Google Cloud资源。
如果您不知道您的项目ID,请尝试以下方法:
- 运行
gcloud config list。 - 运行
gcloud projects list。 - 见支持页面:查找项目ID。
# @markdown Please fill in the value below with your Google Cloud project ID and then run the cell.
PROJECT_ID = "my-project-id" # @param {type:"string"}
# Set the project id
!gcloud config set project {PROJECT_ID}
🔐 认证
请以笔记本中已登录的IAM用户身份向Google Cloud进行认证,以便访问您的Google Cloud项目。
- 如果您在Colab中运行此笔记本,请使用下方单元格继续。
- 如果您正在使用Vertex AI工作区,请参阅设置说明这里。
from google.colab import auth
auth.authenticate_user()
基本用法
MySQLEngine 连接池
在保存或从MySQL表加载文档之前,我们需要首先配置一个连接池以连接到Cloud SQL数据库。代码MySQLEngine配置了一个连接池,使您的应用程序能够成功地与数据库建立连接,并遵循行业最佳实践。
要使用MySQLEngine创建一个MySQLEngine.from_instance(),您只需要提供4个东西:
project_id: 位于 Google Cloud 项目的 Cloud SQL 实例中的项目 ID。region: 云 SQL 实例所在的区域。instance: 云SQL实例的名称。database: 连接到Cloud SQL实例时要使用的数据库名称。
默认情况下,IAM数据库身份验证将被用作数据库认证的方法。此库使用来自环境的应用默认凭据(ADC)所属的IAM主体。
对于IAM数据库身份验证的更多信息,请参见:<br>
Optionally, 内置数据库认证 可以使用用户名和密码访问 Cloud SQL 数据库。只需向 MySQLEngine.from_instance() 提供可选的 user 和 password 参数:
user: 使用内置数据库进行身份验证和登录时要使用的数据库用户password: 使用内置数据库身份验证和登录时的数据库密码。
from langchain_google_cloud_sql_mysql import MySQLEngine
engine = MySQLEngine.from_instance(
project_id=PROJECT_ID, region=REGION, instance=INSTANCE, database=DATABASE
)
初始化表格
通过MySQLEngine.init_document_table(<table_name>)初始化默认模式的表格。表列:
- page_content (type: text)
- langchain_metadata (type: JSON)
overwrite_existing=True 标志意味着新初始化的表将替换同名的现有表。
engine.init_document_table(TABLE_NAME, overwrite_existing=True)
保存文档
使用MySQLDocumentSaver.add_documents(<documents>)保存langchain文档。为了初始化MySQLDocumentSaver类,您需要提供2个东西:
engine- 一个MySQLEngine引擎的实例。table_name- 云SQL数据库中用于存储langchain文档的表格名称。
from langchain_core.documents import Document
from langchain_google_cloud_sql_mysql import MySQLDocumentSaver
test_docs = [
Document(
page_content="Apple Granny Smith 150 0.99 1",
metadata={"fruit_id": 1},
),
Document(
page_content="Banana Cavendish 200 0.59 0",
metadata={"fruit_id": 2},
),
Document(
page_content="Orange Navel 80 1.29 1",
metadata={"fruit_id": 3},
),
]
saver = MySQLDocumentSaver(engine=engine, table_name=TABLE_NAME)
saver.add_documents(test_docs)
加载文档
使用 MySQLLoader.load() 或 MySQLLoader.lazy_load() 加载 langchain 文档。lazy_load 返回一个生成器,在迭代过程中仅在查询数据库时进行查询。要初始化 MySQLLoader 类,您需要提供:
engine- 一个MySQLEngine引擎的实例。table_name- 云SQL数据库中用于存储langchain文档的表格名称。
from langchain_google_cloud_sql_mysql import MySQLLoader
loader = MySQLLoader(engine=engine, table_name=TABLE_NAME)
docs = loader.lazy_load()
for doc in docs:
print("Loaded documents:", doc)
加载文档通过查询
除了从表格加载文档外,我们还可以选择从生成的SQL查询视图中加载文档。例如:
from langchain_google_cloud_sql_mysql import MySQLLoader
loader = MySQLLoader(
engine=engine,
query=f"select * from `{TABLE_NAME}` where JSON_EXTRACT(langchain_metadata, '$.fruit_id') = 1;",
)
onedoc = loader.load()
onedoc
The view generated from SQL query can have different schema than default table. In such cases, the behavior of MySQLLoader is the same as loading from table with non-default schema. Please refer to section Load documents with customized document page content & metadata.
删除文档
使用MySQLDocumentSaver.delete(<documents>)从MySQL表中删除langchain文档列表。
对于使用默认模式(page_content, langchain_metadata)的表格,删除条件为:
如果列表中存在一个 document,则应删除 row
document.page_content等于row[page_content]document.metadata等于row[langchain_metadata]
from langchain_google_cloud_sql_mysql import MySQLLoader
loader = MySQLLoader(engine=engine, table_name=TABLE_NAME)
docs = loader.load()
print("Documents before delete:", docs)
saver.delete(onedoc)
print("Documents after delete:", loader.load())
高级用法
载入文档,自定义文档页面内容及元数据
首先,我们准备一个具有非默认模式的示例表,并用一些任意数据填充它。
import sqlalchemy
with engine.connect() as conn:
conn.execute(sqlalchemy.text(f"DROP TABLE IF EXISTS `{TABLE_NAME}`"))
conn.commit()
conn.execute(
sqlalchemy.text(
f"""
CREATE TABLE IF NOT EXISTS `{TABLE_NAME}`(
fruit_id INT AUTO_INCREMENT PRIMARY KEY,
fruit_name VARCHAR(100) NOT NULL,
variety VARCHAR(50),
quantity_in_stock INT NOT NULL,
price_per_unit DECIMAL(6,2) NOT NULL,
organic TINYINT(1) NOT NULL
)
"""
)
)
conn.execute(
sqlalchemy.text(
f"""
INSERT INTO `{TABLE_NAME}` (fruit_name, variety, quantity_in_stock, price_per_unit, organic)
VALUES
('Apple', 'Granny Smith', 150, 0.99, 1),
('Banana', 'Cavendish', 200, 0.59, 0),
('Orange', 'Navel', 80, 1.29, 1);
"""
)
)
conn.commit()
如果还是使用此示例表中的默认参数MySQLLoader加载langchain文档,加载的第page_content个文档将是最左边的一列,而metadata则会由所有其他列的关键值对组成。
loader = MySQLLoader(
engine=engine,
table_name=TABLE_NAME,
)
loader.load()
我们可以通过在初始化MySQLLoader时设置content_columns和metadata_columns来指定想要加载的内容和元数据。
content_columns: 将要写入到page_content文档中的列。metadata_columns: 将要写入到metadata文档中的列。
例如在这里,content_columns列中的值将被合并成一个由空格分隔的字符串,并作为加载文档page_content和metadata的一部分。仅包含在metadata_columns中指定列的关键字对。
loader = MySQLLoader(
engine=engine,
table_name=TABLE_NAME,
content_columns=[
"variety",
"quantity_in_stock",
"price_per_unit",
"organic",
],
metadata_columns=["fruit_id", "fruit_name"],
)
loader.load()
保存自定义页面内容及元数据的文档
为了将langchain文档保存到具有自定义元数据字段的表格中,我们首先需要通过MySQLEngine.init_document_table()创建这样一个表,并指定它应具有的metadata_columns列表。在这个例子中,创建的表将有以下列:
- description (type: 文本): 用于存储水果描述。
- fruit_name (类型: 文本): 用于存储水果名称。
- 有机 (类型 tinyint(1)):用于表示该水果是否为有机产品。
- 其他元数据(类型:JSON):用于存储水果的其他元数据信息。
我们可以通过以下参数使用MySQLEngine.init_document_table()来创建表格:
table_name: 在Cloud SQL数据库中用于存储langchain文档的表名称。metadata_columns: 一个表示所需元数据列列表的sqlalchemy.Column列表。content_column: 存储page_content列名为page_content的langchain文档。默认值:page_content。metadata_json_column: 存储langchain文档额外信息的JSON列的名称。默认值:langchain_metadata。
engine.init_document_table(
TABLE_NAME,
metadata_columns=[
sqlalchemy.Column(
"fruit_name",
sqlalchemy.UnicodeText,
primary_key=False,
nullable=True,
),
sqlalchemy.Column(
"organic",
sqlalchemy.Boolean,
primary_key=False,
nullable=True,
),
],
content_column="description",
metadata_json_column="other_metadata",
overwrite_existing=True,
)
保存文档使用MySQLDocumentSaver.add_documents(<documents>)。如您所见,在这个示例中,
document.page_content将被保存到description列。document.metadata.fruit_name将被保存到fruit_name列。document.metadata.organic将被保存到organic列。document.metadata.fruit_id将被保存到other_metadata列中,以 JSON 格式存储。
test_docs = [
Document(
page_content="Granny Smith 150 0.99",
metadata={"fruit_id": 1, "fruit_name": "Apple", "organic": 1},
),
]
saver = MySQLDocumentSaver(
engine=engine,
table_name=TABLE_NAME,
content_column="description",
metadata_json_column="other_metadata",
)
saver.add_documents(test_docs)
with engine.connect() as conn:
result = conn.execute(sqlalchemy.text(f"select * from `{TABLE_NAME}`;"))
print(result.keys())
print(result.fetchall())
删除自定义页面内容及元数据的文档
我们还可以通过MySQLDocumentSaver.delete(<documents>)从表中删除带有自定义元数据列的文档。删除标准为:
如果列表中存在一个 document,则应删除 row
document.page_content等于row[page_content]- 对于每个元数据字段
k在document.metadatadocument.metadata[k]等于row[k]或document.metadata[k]等于row[langchain_metadata][k]
- 在
row中不存在但在document.metadata中存在的额外元数据字段。
loader = MySQLLoader(engine=engine, table_name=TABLE_NAME)
docs = loader.load()
print("Documents before delete:", docs)
saver.delete(docs)
print("Documents after delete:", loader.load())