回调
先决条件
LangChain 提供了一个回调系统,允许您挂接到 LLM 应用程序的各个阶段。这对于日志记录、监控、流式处理和其他任务非常有用。
您可以使用callbacks参数在整个 API 中可用。此参数是处理程序对象的列表,这些对象应更详细地实现下面描述的一个或多个方法。
回调事件
| 事件 | 事件触发器 | 关联方法 |
|---|---|---|
| Chat model start | When a chat model starts | on_chat_model_start |
| LLM start | When a llm starts | on_llm_start |
| LLM new token | When an llm OR chat model emits a new token | on_llm_new_token |
| LLM ends | When an llm OR chat model ends | on_llm_end |
| LLM errors | When an llm OR chat model errors | on_llm_error |
| Chain start | When a chain starts running | on_chain_start |
| Chain end | When a chain ends | on_chain_end |
| Chain error | When a chain errors | on_chain_error |
| Tool start | When a tool starts running | on_tool_start |
| Tool end | When a tool ends | on_tool_end |
| Tool error | When a tool errors | on_tool_error |
| Agent action | When an agent takes an action | on_agent_action |
| Agent finish | When an agent ends | on_agent_finish |
| Retriever start | When a retriever starts | on_retriever_start |
| Retriever end | When a retriever ends | on_retriever_end |
| Retriever error | When a retriever errors | on_retriever_error |
| Text | When arbitrary text is run | on_text |
| Retry | When a retry event is run | on_retry |
回调处理程序
回调处理程序可以是sync或async:
- 同步回调处理程序实现 BaseCallbackHandler 接口。
- 异步回调处理程序实现 AsyncCallbackHandler 接口。
在运行时,LangChain 会配置一个合适的回调管理器(例如 CallbackManager 或 AsyncCallbackManager,当事件触发时,它将负责在每个“已注册”的回调处理程序上调用适当的方法。
传递回调
这callbacks属性在整个 API 中的大多数对象(模型、工具、代理等)上的两个不同位置可用:
- 请求时间回调:在请求时与输入数据一起传递。
适用于所有标准
Runnable对象。这些回调由所有子项继承 定义它们的对象。例如chain.invoke({"number": 25}, {"callbacks": [handler]}). - 构造函数回调:
chain = TheNameOfSomeChain(callbacks=[handler]).这些回调 作为参数传递给对象的构造函数。回调的范围是 仅对定义它们的对象,并且不被对象的任何子对象继承。
警告
构造函数回调的范围仅限于定义它们的对象。它们不会由子代继承 的对象。
如果你正在创建自定义链或可运行对象,你需要记住传播请求时间 回调到任何子对象。
Python 中的异步<=3.10
任何RunnableLambda一个RunnableGenerator或Tool这会调用其他 Runnables
并且正在运行async在 python<=3.10 中,必须将回调传播到 child
对象。这是因为 LangChain 无法自动传播
对子对象的回调。
这是您可能无法看到从自定义发出的事件的常见原因 Runnables 或 tools。
有关如何使用回传的详细信息,请参阅此处的相关操作指南。