AI辅助刷题通过不同难度,可以根据个人水平针对性做题,降低挫败感。大题量,知识点覆盖全面,可以提高效率,减少无效重复练习,集中精力攻克个人弱点。
例如:
-
从简单的数组操作题目开始
-
根据完成情况,逐步尝试排序算法
-
如果对递归理解不足,可以增加相关练习
-
最终过渡到复杂的动态规划问题
AI fix 功能:
-
实时代码分析
- 自动检测代码质量
- 提供优化建议
- 指出潜在问题
-
智能错误提示
- 精准定位问题所在
- 提供相关知识链接
- 个性化改进建议
同时AI刷题能提升对算法思维能力的培养,帮助学习者建立系统的算法思维,提高解题效率。
第十一篇记忆
LangChain的记忆机制:
- 记录对话历史
- 通过 {history} 参数传递上下文
- 使用Human/AI前缀区分对话方
ConversationBufferMemory特点:
- 简单直接存储全部历史
- 实现对话的连续性
- 包含在ConversationChain中使用
针对token过多使用ConversationBufferWindowMemory:
- 只保留最近k次对话记录
- 通过窗口值k控制记忆长度
- 自动"遗忘"早期对话
ConversationSummaryMemory:
- 使用LLM对对话历史进行汇总
- 将汇总内容作为上下文传递
- 动态更新对话摘要
ConversationSummaryBufferMemory:
- 结合缓冲和总结两种方式(混合记忆机制)
- 通过max_token_limit控制
- 动态平衡记忆管理
思考题: 1.选择ConversationBufferWindowMemory,已告知用户只记住最近10次对话,没必要保留长期记忆
第十二篇代理:
大模型存在无法主动更新知识和产生事实幻觉的问题。仅靠思维链(CoT)推理无法解决这个局限,因为模型只能使用训练时的知识和提示中的上下文。为解决这个问题,可以让模型先通过本地知识库或外部搜索工具验证信息的真实性,只有在确认信息属实后才进行输出,从而避免产生错误信息。这种结合外部工具的方式能够有效扩展模型的知识范围,提高输出的可靠性。
LangChain中代理(Agent)的核心功能:
大模型作为逻辑引擎,可调用的外部工具,来判断输出模板。代理通过自主规划和判断,实现了大模型与外部工具的智能协调与交互。
ReAct框架:
-
结合推理(Reasoning)和行动(Acting)
-
观察-思考-行动的循环模式
-
记录详细推理过程
-
LangChain通过Agent实现
-
结合思维链(CoT)使用
-
支持复杂任务分解
-
动态规划执行步骤
ReAct框架让大模型从单纯的对话系统升级为能够自主思考、规划和使用工具的智能代理。 思考题:
- ReAct框架中的推理和行动,推理对输入进行分析,生成解决方案的逻辑,行动根据推理后的结果采取的行动,与外部交互。推理决定行动,行动反馈给推理
- 有更标准化的执行流程和清晰的工具使用记录,有逻辑链,且调用外部工具验证,结合多源信息判断。