首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
青训营笔记
洛笙62
创建于2024-11-11
订阅专栏
记录字节青训营的学习内容
暂无订阅
共10篇文章
创建于2024-11-11
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
如何验证和评估我们的LLM应用 | 豆包MarsCode AI刷题
如何验证和评估我们的LLM应用 1. 验证评估的一般思路 现在,我们已经构建了一个简单的、一般化的大模型应用。回顾整个开发流程,我们可以发现,以调用、发挥大模型为核心的大模型开发相较传统的 AI 开发
ReAct框架论文总结与实践 | 豆包MarsCode AI刷题
ReAct 框架 Yao等人引入了一个框架名为ReAct,其中 LLMs 以交错的方式生成 推理轨迹 和 任务特定操作 。生成推理轨迹使模型能够诱导、跟踪和更新操作计划,甚至处理异常情况。操作步骤允许
LangChain表达式 基础和实践(LCEL) | 豆包MarsCode AI刷题
LangChain表达式 基础和实践(LCEL) LCEL简介 LangChain表达式语言,或者LCEL,是一种声明式的方式,可以轻松地将链条组合在一起。 LCEL从第一天开始就被设计为支持将原型放
Langchain构建一个基础的链和应用程序笔记 | 豆包MarsCode AI刷题
安装 要安装LangChain,只需要运行: 有关更多详细信息,请参阅Langchain的安装指南。 环境设置 使用LangChain通常需要与一个或多个模型提供者、数据存储、API等进行集成。这里我
思维链论文详解 | 豆包MarsCode AI刷题
一、什么是思维链CoT? Chain-of-Thought(CoT)是一种改进的Prompt技术,目的在于提升大模型LLMs在复杂推理任务上的表现,对于复杂问题尤其是复杂的数学题大模型很难直接给出正确
大语言模型智能体规划能力 | 豆包MarsCode AI刷题
1 什么是大模型规划(Planning) 随着大型语言模型(LLM)展现出显著的智能,利用LLM作为自主Agent规划模块的进展受到了更多关注。 Planning 指 任务分解:把大任务划分成小任务,
大模型Reflextion论文总结 | 豆包MarsCode AI刷题
Reflextion论文总结 [TOC] 论文作者: 1、简介 Reflexion框架通过语言反馈来强化LLM Agent,而不是通过更新权重的方法进行学习。传统的强化学习方法需要大量的训练样本和昂贵
OPENAI模型参数解析 | 豆包MarsCode AI刷题
模型参数设置 使用提示词时,我们通常会通过 API 或直接与大语言模型进行交互,可以通过配置一些参数以获得不同的提示结果。调整这些设置对于提高响应的可靠性非常重要,我们可能需要进行一些实验才能找出适合
MetaGPT Agent详解 | 豆包MarsCode AI 刷题
MetaGPT论文阅读总结 1、metaGPT简介 随着大型语言模型(LLM)在各个领域取得突破,利用 LLM 驱动的多代理在自动化任务解决方面取得了显着进展。然而,现有的工作主要集中在简单任务上,对
DNA序列编辑距离 | 豆包MarsCode AI 刷题
文章主要介绍了 DNA 序列编辑距离的相关问题。包括问题描述,即计算将受损 DNA 序列转换为未受损序列的最少编辑步,编辑操作有插入、删除、替换。解题使用动态规划,用二维数组 dp 存储中间结果