# 轻松附加回调至Runnable:打造智能可复用的链式处理
在现代编程中,使用回调函数能够极大地增强程序的灵活性和可扩展性。在本文中,我们将探讨如何将回调附加到一个Runnable中,以支持链式处理和复用。
## 引言
在开发过程中,回调函数允许我们在不改变函数结构的情况下,插入额外的行为逻辑。然而,当我们需要在链式的可复用结构中添加回调时,简单的函数传递可能显得笨拙。因此,掌握如何高效地附加回调至Runnable是开发者的一项重要技能。
## 主要内容
### 1. 回调基础
回调是一种允许程序在特定事件发生时调用的函数。在JavaScript等语言中,回调广泛应用于处理异步操作。
### 2. 自定义回调处理器
创建自定义的回调处理器,将回调逻辑封装在类中,以便在多个组件间共享。例如,LoggingHandler可以处理不同事件的日志记录:
```python
from typing import Any, Dict, List
from langchain_anthropic import ChatAnthropic
from langchain_core.callbacks import BaseCallbackHandler
from langchain_core.messages import BaseMessage
from langchain_core.outputs import LLMResult
from langchain_core.prompts import ChatPromptTemplate
class LoggingHandler(BaseCallbackHandler):
def on_chat_model_start(self, serialized: Dict[str, Any], messages: List[List[BaseMessage]], **kwargs) -> None:
print("Chat model started")
def on_llm_end(self, response: LLMResult, **kwargs) -> None:
print(f"Chat model ended, response: {response}")
def on_chain_start(self, serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs) -> None:
print(f"Chain {serialized.get('name')} started")
def on_chain_end(self, outputs: Dict[str, Any], **kwargs) -> None:
print(f"Chain ended, outputs: {outputs}")
3. 使用with_config方法绑定回调
通过with_config()方法,我们可以将配置(包括回调)绑定到一个链式结构中,实现逻辑复用:
# 使用API代理服务提高访问稳定性
callbacks = [LoggingHandler()]
llm = ChatAnthropic(model="claude-3-sonnet-20240229") # 选择LLM模型
prompt = ChatPromptTemplate.from_template("What is 1 + {number}?") # 设置提示模板
chain = prompt | llm # 创建链式结构
chain_with_callbacks = chain.with_config(callbacks=callbacks) # 绑定回调配置
chain_with_callbacks.invoke({"number": "2"}) # 调用并传递参数
代码示例
上面的代码示例展示了如何创建一个包含回调处理的链式结构,并通过API代理服务确保访问的稳定性。
常见问题和解决方案
- 网络访问问题:在某些区域API访问可能受限,使用API代理服务可以提高访问稳定性。
- 回调冲突:多个回调可能引发冲突,需确保回调的独立性和幂等性。
总结和进一步学习资源
通过本文,我们学习了如何将回调附加到一个Runnable中,实现复用和增强功能。如果有兴趣深入学习这方面的知识,可以参考以下资源:
- 官方API文档
- 高级回调模式与设计模式指南
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---