引言
在现代编程中,异步编程已经成为提高性能和响应速度的关键技术之一。在异步环境中,回调机制发挥着重要作用,确保程序能够在等待长时间运行的任务时保持响应性。本篇文章旨在介绍如何在异步环境中使用回调函数,以及相关的挑战和解决方案。
主要内容
1. 回调机制简介
回调函数是一种通过传递函数作为参数,允许代码在特定事件发生时调用该函数的编程模式。在异步编程中,回调函数通常用于处理异步操作完成后的动作。
2. 异步回调处理器
在使用异步API时,推荐使用和扩展AsyncCallbackHandler,以避免阻塞事件循环。与同步回调处理器不同,异步处理器能够与异步代码自然地集成。
3. 使用自定义回调处理器
异步编程中,创建自定义处理器可以更好地管理和响应长时间运行的任务。下面我们来看一个如何实现自定义异步回调处理器的例子。
代码示例
以下示例展示了如何使用自定义的异步回调处理器:
import asyncio
from typing import Any, Dict, List
from langchain_anthropic import ChatAnthropic
from langchain_core.callbacks import AsyncCallbackHandler, BaseCallbackHandler
from langchain_core.messages import HumanMessage
from langchain_core.outputs import LLMResult
class MyCustomSyncHandler(BaseCallbackHandler):
def on_llm_new_token(self, token: str, **kwargs) -> None:
print(f"Sync handler being called in a `thread_pool_executor`: token: {token}")
class MyCustomAsyncHandler(AsyncCallbackHandler):
"""Async callback handler that can be used to handle callbacks from langchain."""
async def on_llm_start(
self, serialized: Dict[str, Any], prompts: List[str], **kwargs: Any
) -> None:
"""Run when chain starts running."""
print("zzzz....")
await asyncio.sleep(0.3)
print("Hi! I just woke up. Your llm is starting")
async def on_llm_end(self, response: LLMResult, **kwargs: Any) -> None:
"""Run when chain ends running."""
print("zzzz....")
await asyncio.sleep(0.3)
print("Hi! I just woke up. Your llm is ending")
# 使用API代理服务提高访问稳定性
chat = ChatAnthropic(
model="claude-3-sonnet-20240229",
max_tokens=25,
streaming=True,
callbacks=[MyCustomSyncHandler(), MyCustomAsyncHandler()],
)
await chat.agenerate([[HumanMessage(content="Tell me a joke")]])
常见问题和解决方案
-
阻塞事件循环:如果使用同步回调处理器,在异步环境下可能会阻塞事件循环,影响程序性能。解决方案是使用
AsyncCallbackHandler进行处理。 -
线程安全问题:如果异步回调处理器中涉及共享数据,应确保代码是线程安全的,以避免潜在的数据竞争。
-
回调配置的传播:在使用Python 3.10及以下版本时,在调用其他可运行对象时,需确保回调配置得到正确传播,否则可能导致子任务中未触发回调。
总结和进一步学习资源
异步编程中的回调机制虽然复杂,但通过合理的设计和使用,可以显著提升程序的灵活性和性能。继续探索异步编程和回调机制可以参考以下资源:
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---