首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
silicon
掘友等级
本人所发表内容仅供参考,未经充分论证,不保证准确性
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
25
文章 25
沸点 0
赞
25
返回
|
搜索文章
最新
热门
基于Transformer的路径规划 - 第二篇 合成数据
上一篇:基于Transformer的路径规划 - 第一篇 探索 这几天一直在开发合成训练样本的代码,工作量不低。合成样本示例如下: 添加图片注释,不超过 140 字(可选) 根据路径的复杂程度,分成以
为什么ChatGPT/GPT在多位整数乘法、数数问题上容易出错 - 大语言模型LLM
之前我写过一篇文章分析为什么LLM连简单乘法的都算错以及如何解决: 为何简单的乘法ChatGPT会算错? 我尝试了新的技术路线来进行训练:不使用TransformerDecoder,而是改用Trans
基于Transformer的路径规划 - 第一篇 探索
路径规划(Path Planning)问题,过去通常使用RRT、A*、Dijkstra、强化学习等算法来解决。随着Transformer以及LLM技术的发展,我给出以下猜测:大模型也是可以解决路径规划
大模型LLM:为什么简单的乘法ChatGPT会算错?
首先“心算”三位整数乘法不管对人类还是对模型来说都不简单的。如果使用CoT的方式就类似于“笔算”,如果使用编程的方式就类似于人拿着计算器算。我将问题更精确一点地表述为“模型如何在心算多位整数乘法上接近
大模型LLM:合成训练样本的数据分布问题
近几天在研究大模型LLM数数问题时,使用合成数据集来训练LLM“统计字符串(100个单词以内)中字母的个数”的能力,基于Word进行分词。原始的合成代码在生成随机字符串时,采用如下代码: 合成样本示例
个人成就
文章被点赞
31
文章被阅读
8,276
掘力值
502
关注了
0
关注者
9
收藏集
0
关注标签
8
加入于
2024-04-26