首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户837710541385
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
用户837710541385
12月前
举报
<多零件流水线问题>这道题应该怎么做?看了一篇不错的文章
www.cnblogs.com
讲得挺详细的,但只适用于两个机器。还是没有思路
分享
评论
点赞
用户837710541385
1年前
举报
#刷题交流#
大家好,我要开始刷题了
分享
评论
点赞
用户837710541385
1年前
关注
豆包MarsCode AI辅助刷题感受 | 豆包MarsCode AI 刷题
通过掘金社区AI刷题活动,我深度体验了豆包MarsCode AI用于刷题辅助工具所提供的便利。本文将具体讲述豆包MarsCode AI辅助刷题感受...
0
评论
分享
用户837710541385
1年前
关注
Git的正确使用姿势和最佳实践 | 豆包MarsCode AI刷题
初识Git 最开始使用git的时候是用它来完成课程作业。只需要进行一些简单的操作:拉取和推送。 具体来讲,我们需要在我们的电脑上安装git。如果是windows系统需要在官...
0
评论
分享
用户837710541385
1年前
关注
关于DETR的故事 | 豆包MarsCode AI 刷题
DETR (end-to-end object detection with transformers) 我们都知道Transformer是个好东西,它通过注意力机制显著提...
0
评论
分享
用户837710541385
1年前
关注
Transformer与注意力机制解析III | 豆包MarsCode AI 刷题
前言 我们知道最初的Transformer架构被应用于文本分析,可以有效缓解由于token的存储空间有限造成的模型理解能力限制,之后研究计算机图形学的学者们发现,将Tran...
0
评论
分享
用户837710541385
1年前
关注
Transformer与注意力机制解析II | 豆包MarsCode AI 刷题
注意力评分函数 从计算量上来看,相比于点积操作,距离计算量更大,所以我们可以考虑使用点积操作来表示$\alpha (x,x_i)$。之后再使用softmax激活函数使得注意...
0
评论
分享
用户837710541385
1年前
关注
Transformer与注意力机制解析I | 豆包MarsCode AI 刷题
引言 要想了解GPT这个具有划时代意义的大语言模型是怎么工作的,就不得不预先了解注意力机制与Transformer。因为从某种程度上来讲,GPT可以理解成是一种参数固定,T...
0
评论
分享
用户837710541385
1年前
关注
Langchain开发的本地部署策略 | 豆包MarsCode AI刷题
引言 虽然掘金课程开通的AI练中学功能具有很强大的功能,可以实现线上的编译与结果显示,提供云服务器,可以支持线上开发。但是我还是希望能够实现自己电脑上的本地开发,希望这样能...
0
评论
分享
用户837710541385
1年前
关注
SQL代码补全功能 | 豆包MarsCode AI 刷题
题目 问题描述 在开发SQL编辑器时,实现自动补全功能是提高用户体验的重要一环。小C需要实现一个功能,根据用户输入的字符片段,快速从已知的SQL关键字和数据库相关名称中找到...
0
评论
分享
用户837710541385
1年前
举报
#新人报道#
分享
评论
点赞
用户837710541385
1年前
关注
卡牌翻面求和问题 | 豆包MarsCode AI 刷题
题目 问题描述 小M有 n 张卡牌,每张卡牌的正反面分别写着不同的数字,正面是 a_i,背面是 b_i。小M希望通过选择每张卡牌的一面,使得所有向上的数字之和可以被3整除。...
0
评论
分享
个人成就
文章被阅读
1,161
掘力值
92
关注了
0
关注者
0
收藏集
0
关注标签
4
加入于
2024-10-28