Cerebras
在 Cerebras,我们开发了世界上最大、最快的 AI 处理器,即晶圆级引擎-3 (WSE-3)。由 WSE-3 提供支持的 Cerebras CS-3 系统代表了一类新型 AI 超级计算机,它以无与伦比的性能和可扩展性为生成式 AI 训练和推理设定了标准。
使用 Cerebras 作为您的推理提供商,您可以:
- 实现前所未有的 AI 推理工作负载速度
- 以高吞吐量进行商业化构建
- 使用我们的无缝集群技术轻松扩展您的 AI 工作负载
我们的 CS-3 系统可以快速轻松地进行集群化,以创建世界上最大的 AI 超级计算机,从而轻松放置和运行最大的模型。领先的公司、研究机构和政府已经在使用 Cerebras 解决方案来开发专有模型并训练流行的开源模型。
想体验 Cerebras 的强大功能吗?查看我们的网站以获取更多资源,并探索通过 Cerebras Cloud 或本地部署访问我们技术的选项!
有关 Cerebras Cloud 的更多信息,请访问 cloud.cerebras.ai。我们的 API 参考可在 inference-docs.cerebras.ai 上找到。
安装和设置
安装集成包:
pip install langchain-cerebras
API 密钥
从 cloud.cerebras.ai 获取 API 密钥并将其添加到您的环境变量中:
export CEREBRAS_API_KEY="your-api-key-here"
聊天模型
请参阅使用示例。