首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
silicon
掘友等级
本人所发表内容仅供参考,未经充分论证,不保证准确性
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
25
文章 25
沸点 0
赞
25
返回
|
搜索文章
silicon
11月前
关注
基于Transformer的决策智能 第一篇 Decision Intelligence初探
自从特斯拉证明在自动驾驶场景端到端的深度学习模型能够替代人进行决策,一场巨大的技术变革将要到来。我想通过一些实验来建立自己对决策智能的初步认知。 说一下我对决策智能的理解:...
1
评论
分享
silicon
关注了标签
深度学习
silicon
1年前
关注
基于Transformer的路径规划 - 第五篇 GPT生成策略_解码方法优化
上一篇:基于Transformer的路径规划 - 第四篇 GPT模型优化 在上一篇中,我尝试优化GPT路径生成模型,但没有成功。在随机生成的测试集上,路径规划成功率只有99...
1
评论
分享
silicon
1年前
关注
基于Transformer的路径规划 - 第四篇 GPT模型优化
上一篇:基于Transformer的路径规划 - 第三篇 Attention Is All You Need 在上一篇中提到:一个由7层Transformer Decode...
1
评论
分享
silicon
1年前
关注
基于Transformer的路径规划 - 第三篇 Attention Is All You Need
上一篇:基于Transformer的路径规划 - 第二篇 合成数据 写在前面:我又一次对这句话无法反驳:"Attention Is All You Need"。我在探究一个...
1
评论
分享
silicon
1年前
关注
基于Transformer的路径规划 - 第二篇 合成数据
上一篇:基于Transformer的路径规划 - 第一篇 探索 这几天一直在开发合成训练样本的代码,工作量不低。合成样本示例如下: 添加图片注释,不超过 140 字(可选)...
1
评论
分享
silicon
1年前
举报
AI写生画效果
收起
查看大图
向左旋转
向右旋转
分享
4
点赞
silicon
1年前
关注
为什么ChatGPT/GPT在多位整数乘法、数数问题上容易出错 - 大语言模型LLM
之前我写过一篇文章分析为什么LLM连简单乘法的都算错以及如何解决: 为何简单的乘法ChatGPT会算错? 我尝试了新的技术路线来进行训练:不使用TransformerDec...
1
评论
分享
silicon
1年前
关注
基于Transformer的路径规划 - 第一篇 探索
路径规划(Path Planning)问题,过去通常使用RRT、A*、Dijkstra、强化学习等算法来解决。随着Transformer以及LLM技术的发展,我给出以下猜测...
1
3
分享
silicon
1年前
关注
大模型LLM:为什么简单的乘法ChatGPT会算错?
首先“心算”三位整数乘法不管对人类还是对模型来说都不简单的。如果使用CoT的方式就类似于“笔算”,如果使用编程的方式就类似于人拿着计算器算。我将问题更精确一点地表述为“模型...
4
评论
分享
silicon
1年前
举报
#新人报道#
多写文章,为大语言模型事业贡献语料!
等人赞过
分享
评论
4
silicon
1年前
关注
大模型LLM:合成训练样本的数据分布问题
近几天在研究大模型LLM数数问题时,使用合成数据集来训练LLM“统计字符串(100个单词以内)中字母的个数”的能力,基于Word进行分词。原始的合成代码在生成随机字符串时,...
1
评论
分享
个人成就
文章被点赞
31
文章被阅读
8,321
掘力值
502
关注了
0
关注者
10
收藏集
0
关注标签
8
加入于
2024-04-26