Skip to main content
Open In ColabOpen on GitHub

Milvus

Milvus 是一个数据库,用于存储、索引和管理由深度神经网络及其他机器学习(ML)模型生成的海量嵌入向量。

本笔记本展示了如何使用与Milvus向量数据库相关的功能。

设置

您需要使用pip install -qU langchain-milvus安装langchain-milvus才能使用此集成。

pip install -qU langchain_milvus
Note: you may need to restart the kernel to use updated packages.

Credentials

使用 Milvus 向量存储时无需提供凭据。

初始化

pip install -qU langchain-openai
import getpass
import os

if not os.environ.get("OPENAI_API_KEY"):
os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")

from langchain_openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings(model="text-embedding-3-large")

Milvus Lite

最简单的方法是使用 Milvus Lite 进行原型开发,所有内容都将存储在本地向量数据库文件中。仅能使用 Flat 索引。

from langchain_milvus import Milvus

URI = "./milvus_example.db"

vector_store = Milvus(
embedding_function=embeddings,
connection_args={"uri": URI},
index_params={"index_type": "FLAT", "metric_type": "L2"},
)
API 参考:Milvus

Milvus 服务器

如果您的数据量很大(例如,超过一百万个向量),我们建议在DockerKubernetes上设置一个性能更高的Milvus服务器。

Milvus 服务器支持多种 索引。利用这些不同的索引可以根据您的特定需求显著增强检索能力并加快检索速度。

例如,以 Milvus 独立版为例。要启动 Docker 容器,你可以运行以下命令:

!curl -sfL https://raw.githubusercontent.com/milvus-io/milvus/master/scripts/standalone_embed.sh -o standalone_embed.sh

!bash standalone_embed.sh start
Password:

这里我们创建一个 Milvus 数据库:

from pymilvus import Collection, MilvusException, connections, db, utility

conn = connections.connect(host="127.0.0.1", port=19530)

# Check if the database exists
db_name = "milvus_demo"
try:
existing_databases = db.list_database()
if db_name in existing_databases:
print(f"Database '{db_name}' already exists.")

# Use the database context
db.using_database(db_name)

# Drop all collections in the database
collections = utility.list_collections()
for collection_name in collections:
collection = Collection(name=collection_name)
collection.drop()
print(f"Collection '{collection_name}' has been dropped.")

db.drop_database(db_name)
print(f"Database '{db_name}' has been deleted.")
else:
print(f"Database '{db_name}' does not exist.")
database = db.create_database(db_name)
print(f"Database '{db_name}' created successfully.")
except MilvusException as e:
print(f"An error occurred: {e}")
Database 'milvus_demo' does not exist.
Database 'milvus_demo' created successfully.

注意下面URI的更改。实例初始化后,请导航至 http://127.0.0.1:9091/webui 以查看本地Web界面。

以下是使用 Milvus 数据库服务创建向量存储实例的示例:

from langchain_milvus import BM25BuiltInFunction, Milvus

URI = "http://localhost:19530"

vectorstore = Milvus(
embedding_function=embeddings,
connection_args={"uri": URI, "token": "root:Milvus", "db_name": "milvus_demo"},
index_params={"index_type": "FLAT", "metric_type": "L2"},
consistency_level="Strong",
drop_old=False, # set to True if seeking to drop the collection with that name if it exists
)

如果您想使用 Zilliz Cloud(Milvus 的完全托管云服务),请调整 uri 和 token,它们分别对应 Zilliz Cloud 中的 公共端点API 密钥

使用 Milvus 集合对数据进行隔离

您可以在同一个 Milvus 实例中的不同集合里存储不相关的文档。

以下是创建新集合的方法:

from langchain_core.documents import Document

vector_store_saved = Milvus.from_documents(
[Document(page_content="foo!")],
embeddings,
collection_name="langchain_example",
connection_args={"uri": URI},
)
API 参考:文档

而这就是你如何检索那个已存储的集合:

vector_store_loaded = Milvus(
embeddings,
connection_args={"uri": URI},
collection_name="langchain_example",
)

管理向量存储

创建向量存储后,我们可以对其进行交互,通过添加和删除不同的项。

添加项到向量存储

我们可以通过使用add_documents函数来向我们的向量存储中添加项目。

from uuid import uuid4

from langchain_core.documents import Document

document_1 = Document(
page_content="I had chocolate chip pancakes and scrambled eggs for breakfast this morning.",
metadata={"source": "tweet"},
)

document_2 = Document(
page_content="The weather forecast for tomorrow is cloudy and overcast, with a high of 62 degrees.",
metadata={"source": "news"},
)

document_3 = Document(
page_content="Building an exciting new project with LangChain - come check it out!",
metadata={"source": "tweet"},
)

document_4 = Document(
page_content="Robbers broke into the city bank and stole $1 million in cash.",
metadata={"source": "news"},
)

document_5 = Document(
page_content="Wow! That was an amazing movie. I can't wait to see it again.",
metadata={"source": "tweet"},
)

document_6 = Document(
page_content="Is the new iPhone worth the price? Read this review to find out.",
metadata={"source": "website"},
)

document_7 = Document(
page_content="The top 10 soccer players in the world right now.",
metadata={"source": "website"},
)

document_8 = Document(
page_content="LangGraph is the best framework for building stateful, agentic applications!",
metadata={"source": "tweet"},
)

document_9 = Document(
page_content="The stock market is down 500 points today due to fears of a recession.",
metadata={"source": "news"},
)

document_10 = Document(
page_content="I have a bad feeling I am going to get deleted :(",
metadata={"source": "tweet"},
)

documents = [
document_1,
document_2,
document_3,
document_4,
document_5,
document_6,
document_7,
document_8,
document_9,
document_10,
]
uuids = [str(uuid4()) for _ in range(len(documents))]

vector_store.add_documents(documents=documents, ids=uuids)
API 参考:文档

删除向量存储中的项

vector_store.delete(ids=[uuids[-1]])
(insert count: 0, delete count: 1, upsert count: 0, timestamp: 0, success count: 0, err count: 0, cost: 0)

查询向量存储

一旦创建了向量存储并添加了相关文档,您很可能希望在链或代理运行期间查询它。

查询直接

进行简单的相似度搜索并结合元数据过滤可以按照以下方式进行:

results = vector_store.similarity_search(
"LangChain provides abstractions to make working with LLMs easy",
k=2,
expr='source == "tweet"',
)
for res in results:
print(f"* {res.page_content} [{res.metadata}]")
* Building an exciting new project with LangChain - come check it out! [{'pk': '9905001c-a4a3-455e-ab94-72d0ed11b476', 'source': 'tweet'}]
* LangGraph is the best framework for building stateful, agentic applications! [{'pk': '1206d237-ee3a-484f-baf2-b5ac38eeb314', 'source': 'tweet'}]

相似性搜索(带分数)

也可以按分数搜索:

results = vector_store.similarity_search_with_score(
"Will it be hot tomorrow?", k=1, expr='source == "news"'
)
for res, score in results:
print(f"* [SIM={score:3f}] {res.page_content} [{res.metadata}]")
* [SIM=21192.628906] bar [{'pk': '2', 'source': 'https://example.com'}]

使用 Milvus 向量存储时,有关所有可用搜索选项的完整列表,您可以访问API 参考文档

查询通过转换为检索器

您也可以将向量存储转换为检索器,以便在链条中更方便地使用。

retriever = vector_store.as_retriever(search_type="mmr", search_kwargs={"k": 1})
retriever.invoke("Stealing from the bank is a crime", filter={"source": "news"})
[Document(metadata={'pk': 'eacc7256-d7fa-4036-b1f7-83d7a4bee0c5', 'source': 'news'}, page_content='Robbers broke into the city bank and stole $1 million in cash.')]

最常见的混合搜索场景是密集+稀疏混合搜索,其中候选结果通过语义向量相似性与精确关键词匹配两种方式检索。这些方法的结果被合并、重新排序,然后传递给大语言模型(LLM)以生成最终答案。这种方法在精确性和语义理解之间实现了平衡,因此在多样的查询场景中非常有效。

Milvus 2.5 起,通过稀疏BM25(Sparse-BM25)方法原生支持全文搜索,该方法将BM25算法表示为稀疏向量。Milvus 接受原始文本作为输入,并自动将其转换为存储在指定字段中的稀疏向量,从而无需手动生成稀疏嵌入。

全文搜索时,Milvus VectorStore 接受一个 builtin_function 参数。通过此参数,您可以传入 BM25BuiltInFunction 的实例。这与语义搜索不同,语义搜索通常会将密集嵌入传递给 VectorStore

以下是使用 Milvus 结合 OpenAI 稠密嵌入进行语义搜索和 BM25 进行全文搜索的混合搜索简单示例:

from langchain_milvus import BM25BuiltInFunction, Milvus
from langchain_openai import OpenAIEmbeddings

vectorstore = Milvus.from_documents(
documents=documents,
embedding=OpenAIEmbeddings(),
builtin_function=BM25BuiltInFunction(),
# `dense` is for OpenAI embeddings, `sparse` is the output field of BM25 function
vector_field=["dense", "sparse"],
connection_args={
"uri": URI,
},
consistency_level="Strong",
drop_old=True,
)
  • 当您使用 BM25BuiltInFunction 时,请注意全文搜索功能在 Milvus Standalone 和 Milvus Distributed 中可用,但在 Milvus Lite 中暂不支持,尽管该功能已在未来路线图中规划。该功能也将很快在 Zilliz Cloud(完全托管的 Milvus)中提供。更多信息,请联系 support@zilliz.com

在上面的代码中,我们定义了一个 BM25BuiltInFunction 的实例,并将其传递给 Milvus 对象。BM25BuiltInFunction 是 Milvus 中 Function 的一个轻量级包装类。我们可以将其与 OpenAIEmbeddings 一起使用,以初始化一个密集向量 + 稀疏向量混合搜索的 Milvus 向量存储实例。

BM25BuiltInFunction 不需要客户端传递语料库或训练数据,所有处理都在 Milvus 服务器端自动完成,因此用户无需关心任何词汇和语料库。此外,用户还可以自定义 分析器,以在 BM25 中实现自定义文本处理。

重新排序候选结果

经过第一阶段的检索后,我们需要对候选结果进行重新排序,以获得更好的结果。您可以参考重新排序了解更多信息。

这是一个加权重排序的示例:

query = "What are the novels Lila has written and what are their contents?"

vectorstore.similarity_search(
query, k=1, ranker_type="weighted", ranker_params={"weights": [0.6, 0.4]}
)

有关全文搜索和混合搜索的更多信息,请参阅 在 LangChain 和 Milvus 中使用全文搜索使用 LangChain 和 Milvus 进行混合检索

使用检索增强生成

对于如何使用此向量存储进行检索增强生成(RAG)的指南,请参见以下部分:

每用户检索

在构建检索应用时,通常需要考虑多个用户。这意味着你可能不仅为一个用户存储数据,而是为许多不同用户存储数据,且他们不应能够看到彼此的数据。

Milvus 推荐使用 partition_key 来实现多租户。以下是一个示例:

Milvus Lite 中不提供分区键功能,如果要使用该功能,需要启动 Milvus 服务器,如上所述。

from langchain_core.documents import Document

docs = [
Document(page_content="i worked at kensho", metadata={"namespace": "harrison"}),
Document(page_content="i worked at facebook", metadata={"namespace": "ankush"}),
]
vectorstore = Milvus.from_documents(
docs,
embeddings,
connection_args={"uri": URI},
drop_old=True,
partition_key_field="namespace", # Use the "namespace" field as the partition key
)
API 参考:文档

要使用分区键执行搜索,您应在搜索请求的布尔表达式中包含以下任意一项:

search_kwargs={"expr": '<partition_key> == "xxxx"'}

search_kwargs={"expr": '<partition_key> == in ["xxx", "xxx"]'}

请将 <partition_key> 替换为指定作为分区键的字段名称。

Milvus 根据指定的分区键更改到相应的分区,依据分区键过滤实体,并在过滤后的实体中进行搜索。

# This will only get documents for Ankush
vectorstore.as_retriever(search_kwargs={"expr": 'namespace == "ankush"'}).invoke(
"where did i work?"
)
[Document(page_content='i worked at facebook', metadata={'namespace': 'ankush'})]
# This will only get documents for Harrison
vectorstore.as_retriever(search_kwargs={"expr": 'namespace == "harrison"'}).invoke(
"where did i work?"
)
[Document(page_content='i worked at kensho', metadata={'namespace': 'harrison'})]

API 参考

有关所有 __ModuleName__VectorStore 功能和配置的详细文档,请访问 API 参考: https://python.langchain.com/api_reference/milvus/vectorstores/langchain_milvus.vectorstores.milvus.Milvus.html