OpenLLM
OpenLLM 让开发者能够使用单个命令运行任何开源的大规模语言模型(LLMs)作为与OpenAI 兼容的 API 端点。
- 🔬 为快速和生产使用而构建
- 🚂 支持 llama3、qwen2、gemma 等,并且包含许多 量化版本 完整列表
- ⛓️ 开放API,兼容OpenAI
- 💬 内置的类似ChatGPT的界面
- 🔥 使用最先进的推理后端加速LLM解码
- ☁️ 准备好用于企业级云部署(Kubernetes、Docker 和 BentoCloud)
安装与设置¶
通过 PyPI 安装 OpenLLM 包:
pip install openllm
LLM
OpenLLM 支持多种开源的大语言模型以及用户自己微调后的模型。使用 openllm model 命令可以查看所有可用于 OpenLLM 的预优化模型。
包装器
这是带有支持与运行中的OpenLLM服务器进行交互的OpenLLM包装器:
from langchain_community.llms import OpenLLM
API 参考:OpenLLM
Wrapper for OpenLLM服务器
这个包装器支持与OpenLLM的OpenAI兼容端点进行交互。
运行一个模型,请执行以下操作:
openllm hello
Wrapper 使用方法:
from langchain_community.llms import OpenLLM
llm = OpenLLM(base_url="http://localhost:3000/v1", api_key="na")
llm("What is the difference between a duck and a goose? And why there are so many Goose in Canada?")
API 参考:OpenLLM
用法
要详细了解OpenLLM封装,请参阅 示例笔记本