Qdrant
Qdrant(读作:象限)是一个向量相似性搜索引擎。它提供了一个可用于生产的、带有便捷API的服务,用于存储、搜索和管理带有附加负载及支持高级过滤的向量。这使得它在各种神经网络或基于语义的匹配、多面搜索以及其他应用中非常有用。
该文档演示了如何将 Qdrant 与 LangChain 结合使用,以实现稠密向量(即基于嵌入)、稀疏向量(即文本搜索)以及混合检索。通过 Qdrant 新的查询 API,QdrantVectorStore 类支持多种检索模式。您需要运行 Qdrant v1.10.0 或更高版本。
设置
有多种运行 Qdrant 的模式,根据所选模式的不同,会存在一些细微差异。选项包括:
- 本地模式,无需服务器
- Docker 部署
- Qdrant 云
请参阅安装说明 此处。
pip install -qU langchain-qdrant
Credentials
运行本笔记本中的代码无需任何凭据。
如果您想要获得最佳的模型调用自动化跟踪,您也可以通过取消注释下方代码来设置您的LangSmith API密钥。
# os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
# os.environ["LANGSMITH_TRACING"] = "true"
初始化
本地模式
Python 客户端提供了在不运行 Qdrant 服务器的情况下以本地模式运行代码的选项。这对于测试、调试或仅存储少量向量非常有用。嵌入可以完全保存在内存中,也可以持久化到磁盘上。
In-memory
对于某些测试场景和快速实验,您可能更倾向于仅将所有数据保存在内存中,以便在客户端被销毁时(通常是在脚本/笔记本结束时)自动删除数据。
pip install -qU langchain-openai
import getpass
import os
if not os.environ.get("OPENAI_API_KEY"):
os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")
from langchain_openai import OpenAIEmbeddings
embeddings = OpenAIEmbeddings(model="text-embedding-3-large")
from langchain_qdrant import QdrantVectorStore
from qdrant_client import QdrantClient
from qdrant_client.http.models import Distance, VectorParams
client = QdrantClient(":memory:")
client.create_collection(
collection_name="demo_collection",
vectors_config=VectorParams(size=3072, distance=Distance.COSINE),
)
vector_store = QdrantVectorStore(
client=client,
collection_name="demo_collection",
embedding=embeddings,
)
磁盘存储
本地模式不使用 Qdrant 服务器,也可以将您的向量存储在磁盘上,以便在多次运行之间保持持久化。
client = QdrantClient(path="/tmp/langchain_qdrant")
client.create_collection(
collection_name="demo_collection",
vectors_config=VectorParams(size=3072, distance=Distance.COSINE),
)
vector_store = QdrantVectorStore(
client=client,
collection_name="demo_collection",
embedding=embeddings,
)
本地服务器部署
无论您选择使用Docker 容器在本地启动 Qdrant,还是选择使用官方 Helm 图表进行 Kubernetes 部署,连接到该实例的方式都是相同的。您需要提供一个指向该服务的 URL。
url = "<---qdrant url here --->"
docs = [] # put docs here
qdrant = QdrantVectorStore.from_documents(
docs,
embeddings,
url=url,
prefer_grpc=True,
collection_name="my_documents",
)
Qdrant Cloud
如果您不想花费精力管理基础设施,可以选择在 Qdrant Cloud 上设置一个完全托管的 Qdrant 集群。其中包含一个永久免费的 1GB 集群,可用于试用。使用托管版 Qdrant 的主要区别是,您需要提供一个 API 密钥,以确保您的部署不会被公开访问。该值也可以设置在 QDRANT_API_KEY 环境变量中。
url = "<---qdrant cloud cluster url here --->"
api_key = "<---api key here--->"
qdrant = QdrantVectorStore.from_documents(
docs,
embeddings,
url=url,
prefer_grpc=True,
api_key=api_key,
collection_name="my_documents",
)
使用现有集合
要获取 langchain_qdrant.Qdrant 的实例而不加载任何新文档或文本,可以使用 Qdrant.from_existing_collection() 方法。
qdrant = QdrantVectorStore.from_existing_collection(
embedding=embeddings,
collection_name="my_documents",
url="http://localhost:6333",
)
管理向量存储
创建向量存储后,我们可以对其进行交互,通过添加和删除不同的项。
添加项到向量存储
我们可以通过使用add_documents函数来向我们的向量存储中添加项目。
from uuid import uuid4
from langchain_core.documents import Document
document_1 = Document(
page_content="I had chocolate chip pancakes and scrambled eggs for breakfast this morning.",
metadata={"source": "tweet"},
)
document_2 = Document(
page_content="The weather forecast for tomorrow is cloudy and overcast, with a high of 62 degrees Fahrenheit.",
metadata={"source": "news"},
)
document_3 = Document(
page_content="Building an exciting new project with LangChain - come check it out!",
metadata={"source": "tweet"},
)
document_4 = Document(
page_content="Robbers broke into the city bank and stole $1 million in cash.",
metadata={"source": "news"},
)
document_5 = Document(
page_content="Wow! That was an amazing movie. I can't wait to see it again.",
metadata={"source": "tweet"},
)
document_6 = Document(
page_content="Is the new iPhone worth the price? Read this review to find out.",
metadata={"source": "website"},
)
document_7 = Document(
page_content="The top 10 soccer players in the world right now.",
metadata={"source": "website"},
)
document_8 = Document(
page_content="LangGraph is the best framework for building stateful, agentic applications!",
metadata={"source": "tweet"},
)
document_9 = Document(
page_content="The stock market is down 500 points today due to fears of a recession.",
metadata={"source": "news"},
)
document_10 = Document(
page_content="I have a bad feeling I am going to get deleted :(",
metadata={"source": "tweet"},
)
documents = [
document_1,
document_2,
document_3,
document_4,
document_5,
document_6,
document_7,
document_8,
document_9,
document_10,
]
uuids = [str(uuid4()) for _ in range(len(documents))]
vector_store.add_documents(documents=documents, ids=uuids)
删除向量存储中的项
vector_store.delete(ids=[uuids[-1]])
True
查询向量存储
一旦创建了向量存储并添加了相关文档,您很可能希望在链或代理运行期间查询它。
查询直接
使用 Qdrant 向量存储最简单的场景是执行相似性搜索。在内部,我们的查询将被编码为向量嵌入,并用于在 Qdrant 集合中查找相似的文档。
results = vector_store.similarity_search(
"LangChain provides abstractions to make working with LLMs easy", k=2
)
for res in results:
print(f"* {res.page_content} [{res.metadata}]")
* Building an exciting new project with LangChain - come check it out! [{'source': 'tweet', '_id': 'd3202666-6f2b-4186-ac43-e35389de8166', '_collection_name': 'demo_collection'}]
* LangGraph is the best framework for building stateful, agentic applications! [{'source': 'tweet', '_id': '91ed6c56-fe53-49e2-8199-c3bb3c33c3eb', '_collection_name': 'demo_collection'}]
QdrantVectorStore 支持 3 种相似性搜索模式。它们可以通过使用 retrieval_mode 参数进行配置。
- 稠密向量搜索(默认)
- 稀疏向量搜索
- 混合搜索
密集向量搜索
稠密向量搜索涉及通过基于向量的嵌入来计算相似性。仅使用稠密向量进行搜索的方法如下:
retrieval_mode参数应设置为RetrievalMode.DENSE。这是默认行为。- 应向
embedding参数提供 密集嵌入 值。
from langchain_qdrant import QdrantVectorStore, RetrievalMode
from qdrant_client import QdrantClient
from qdrant_client.http.models import Distance, VectorParams
# Create a Qdrant client for local storage
client = QdrantClient(path="/tmp/langchain_qdrant")
# Create a collection with dense vectors
client.create_collection(
collection_name="my_documents",
vectors_config=VectorParams(size=3072, distance=Distance.COSINE),
)
qdrant = QdrantVectorStore(
client=client,
collection_name="my_documents",
embedding=embeddings,
retrieval_mode=RetrievalMode.DENSE,
)
qdrant.add_documents(documents=documents, ids=uuids)
query = "How much money did the robbers steal?"
found_docs = qdrant.similarity_search(query)
found_docs
稀疏向量搜索
仅使用稀疏向量进行搜索:
retrieval_mode参数应设置为RetrievalMode.SPARSE。- 使用任何稀疏嵌入提供程序实现的
SparseEmbeddings接口必须作为值提供给sparse_embedding参数。
The langchain-qdrant 包提供了基于 FastEmbed 的开箱即用实现。
使用它,需安装 FastEmbed 包。
%pip install -qU fastembed
from langchain_qdrant import FastEmbedSparse, QdrantVectorStore, RetrievalMode
from qdrant_client import QdrantClient, models
from qdrant_client.http.models import Distance, SparseVectorParams, VectorParams
sparse_embeddings = FastEmbedSparse(model_name="Qdrant/bm25")
# Create a Qdrant client for local storage
client = QdrantClient(path="/tmp/langchain_qdrant")
# Create a collection with sparse vectors
client.create_collection(
collection_name="my_documents",
vectors_config={"dense": VectorParams(size=3072, distance=Distance.COSINE)},
sparse_vectors_config={
"sparse": SparseVectorParams(index=models.SparseIndexParams(on_disk=False))
},
)
qdrant = QdrantVectorStore(
client=client,
collection_name="my_documents",
sparse_embedding=sparse_embeddings,
retrieval_mode=RetrievalMode.SPARSE,
sparse_vector_name="sparse",
)
qdrant.add_documents(documents=documents, ids=uuids)
query = "How much money did the robbers steal?"
found_docs = qdrant.similarity_search(query)
found_docs
混合向量搜索
要使用密集向量和稀疏向量并通过分数融合执行混合搜索,
retrieval_mode参数应设置为RetrievalMode.HYBRID。- 应向
embedding参数提供 密集嵌入 值。 - 使用任何稀疏嵌入提供程序实现的
SparseEmbeddings接口必须作为值提供给sparse_embedding参数。
请注意,如果你使用 HYBRID 模式添加了文档,则在搜索时可以切换到任何检索模式,因为该集合中同时提供了密集向量和稀疏向量。
from langchain_qdrant import FastEmbedSparse, QdrantVectorStore, RetrievalMode
from qdrant_client import QdrantClient, models
from qdrant_client.http.models import Distance, SparseVectorParams, VectorParams
sparse_embeddings = FastEmbedSparse(model_name="Qdrant/bm25")
# Create a Qdrant client for local storage
client = QdrantClient(path="/tmp/langchain_qdrant")
# Create a collection with both dense and sparse vectors
client.create_collection(
collection_name="my_documents",
vectors_config={"dense": VectorParams(size=3072, distance=Distance.COSINE)},
sparse_vectors_config={
"sparse": SparseVectorParams(index=models.SparseIndexParams(on_disk=False))
},
)
qdrant = QdrantVectorStore(
client=client,
collection_name="my_documents",
embedding=embeddings,
sparse_embedding=sparse_embeddings,
retrieval_mode=RetrievalMode.HYBRID,
vector_name="dense",
sparse_vector_name="sparse",
)
qdrant.add_documents(documents=documents, ids=uuids)
query = "How much money did the robbers steal?"
found_docs = qdrant.similarity_search(query)
found_docs
如果您想要执行相似性搜索并接收相应的评分,可以运行:
results = vector_store.similarity_search_with_score(
query="Will it be hot tomorrow", k=1
)
for doc, score in results:
print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
* [SIM=0.531834] The weather forecast for tomorrow is cloudy and overcast, with a high of 62 degrees. [{'source': 'news', '_id': '9e6ba50c-794f-4b88-94e5-411f15052a02', '_collection_name': 'demo_collection'}]
对于可用的完整搜索功能列表,请查阅 QdrantVectorStore 的 API 参考文档
元数据过滤
Qdrant 拥有一个功能强大的过滤系统,支持丰富的类型。在 Langchain 中,可以通过向 similarity_search_with_score 和 similarity_search 方法传递额外参数来使用这些过滤器。
from qdrant_client import models
results = vector_store.similarity_search(
query="Who are the best soccer players in the world?",
k=1,
filter=models.Filter(
should=[
models.FieldCondition(
key="page_content",
match=models.MatchValue(
value="The top 10 soccer players in the world right now."
),
),
]
),
)
for doc in results:
print(f"* {doc.page_content} [{doc.metadata}]")
* The top 10 soccer players in the world right now. [{'source': 'website', '_id': 'b0964ab5-5a14-47b4-a983-37fa5c5bd154', '_collection_name': 'demo_collection'}]
查询通过转换为检索器
您也可以将向量存储转换为检索器,以便在链条中更方便地使用。
retriever = vector_store.as_retriever(search_type="mmr", search_kwargs={"k": 1})
retriever.invoke("Stealing from the bank is a crime")
[Document(metadata={'source': 'news', '_id': '50d8d6ee-69bf-4173-a6a2-b254e9928965', '_collection_name': 'demo_collection'}, page_content='Robbers broke into the city bank and stole $1 million in cash.')]
使用检索增强生成
对于如何使用此向量存储进行检索增强生成(RAG)的指南,请参见以下部分:
自定义 Qdrant
在 LangChain 应用程序中,可以选择使用现有的 Qdrant 集合。在这种情况下,您可能需要定义如何将 Qdrant 数据点映射到 LangChain 的 Document。
命名向量
Qdrant 通过命名向量支持每个点的多个向量。如果您使用外部创建的集合,或希望使用不同名称的向量,可以通过提供其名称来进行配置。
from langchain_qdrant import RetrievalMode
QdrantVectorStore.from_documents(
docs,
embedding=embeddings,
sparse_embedding=sparse_embeddings,
location=":memory:",
collection_name="my_documents_2",
retrieval_mode=RetrievalMode.HYBRID,
vector_name="custom_vector",
sparse_vector_name="custom_sparse_vector",
)
元数据
Qdrant 会存储您的向量嵌入以及可选的类 JSON 载荷。载荷是可选的,但由于 LangChain 假定嵌入是由文档生成的,因此我们保留了上下文数据,以便您也能提取原始文本。
默认情况下,您的文档将存储在以下负载结构中:
{
"page_content": "Lorem ipsum dolor sit amet",
"metadata": {
"foo": "bar"
}
}
不过,您可以选择为页面内容和元数据使用不同的键。如果您已有想要重用的集合,这将非常有用。
QdrantVectorStore.from_documents(
docs,
embeddings,
location=":memory:",
collection_name="my_documents_2",
content_payload_key="my_page_content_key",
metadata_payload_key="my_meta",
)
API 参考
有关所有 QdrantVectorStore 功能和配置的详细文档,请访问 API 参考: https://python.langchain.com/api_reference/qdrant/qdrant/langchain_qdrant.qdrant.QdrantVectorStore.html