Memcached
Memcached是一个免费且开源的、高性能的、分布式内存对象缓存系统, 本质上是通用的,但旨在通过减轻数据库负载来加速动态 Web 应用程序。
本页介绍了如何将 Memcached 与 langchain 结合使用,使用 pymemcache 作为 一个客户端,用于连接到已在运行的 Memcached 实例。
安装和设置
pip install pymemcache
LLM 缓存
要将 Memcached Cache 集成到您的应用程序中:
from langchain.globals import set_llm_cache
from langchain_openai import OpenAI
from langchain_community.cache import MemcachedCache
from pymemcache.client.base import Client
llm = OpenAI(model="gpt-3.5-turbo-instruct", n=2, best_of=2)
set_llm_cache(MemcachedCache(Client('localhost')))
# The first time, it is not yet in cache, so it should take longer
llm.invoke("Which city is the most crowded city in the USA?")
# The second time it is, so it goes faster
llm.invoke("Which city is the most crowded city in the USA?")
在示例笔记本中了解更多信息