📄️ Argilla
Argilla 是一个面向大语言模型(LLM)的开源数据策展平台。
📄️ Comet Tracing
有两种方式可以通过Comet来追踪你的LangChain执行过程:
📄️ Confident
用于单元测试大语言模型的DeepEval包。
📄️ Context
Context 为基于大语言模型(LLM)驱动的产品和功能提供用户分析。
📄️ Fiddler
Fiddler 是企业级生成式和预测性系统运维的先驱,提供一个统一平台,使数据科学、MLOps、风险、合规、分析及其他业务部门团队能够大规模监控、解释、分析和改进机器学习部署。
📄️ Infino
Infino 是一个可扩展的遥测数据存储,专为日志、指标和追踪设计。Infino 可作为独立的可观测性解决方案运行,也可作为您可观测性技术栈中的存储层。
📄️ Label Studio
Label Studio 是一个开源的数据标注平台,为 LangChain 在为大语言模型(LLM)进行微调时的数据标注工作提供了灵活性。它还支持自定义训练数据的准备,以及通过人类反馈来收集和评估响应。
📄️ LLMonitor
LLMonitor 是一个开源的可观测性平台,提供成本和用量分析、用户追踪、链路追踪以及评估工具。
📄️ PromptLayer
PromptLayer 是一个用于提示工程的平台。它还能帮助实现大语言模型的可观测性,以可视化请求、版本化提示并跟踪使用情况。
📄️ SageMaker Tracking
Amazon SageMaker 是一项完全托管的服务,可用来快速轻松地构建、训练和部署机器学习(ML)模型。
📄️ Streamlit
Streamlit 是一种更快速地构建和共享数据应用的方式。
📄️ Trubrics
Trubrics 是一个大语言模型用户分析平台,让您能够收集、分析和管理用户
📄️ Upstash Ratelimit Callback
在本指南中,我们将介绍如何使用 UpstashRatelimitHandler 根据请求数量或令牌数量来添加速率限制。该处理器使用 Upstash 的 ratelimit 库,该库基于 Upstash Redis。
📄️ uptrain
UpTrain [github || 网站 || 文档] 是一个开源平台,用于评估和改进大语言模型(LLM)应用。它为20多项预配置检查(涵盖语言、代码、嵌入使用场景)提供评分,对失败案例进行根本原因分析,并提供解决这些问题的指导建议。