首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Jerry_Allen
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
22
文章 21
沸点 1
赞
22
返回
|
搜索文章
赞
文章( 21 )
沸点( 1 )
大模型炼丹术(二):从离散的token IDs到具有语义信息的embedding
在完成了tokenization之后,我们已经可以将一个个的单词映射到对应的数字,称之为token ID,这些数字已经可以被计算机处理。
「CoT」巧思还是骗局?
CoT是什么 Cot(Chain of Thought) 最初是由Google Research在2022年发表的论文《Chain-of-Thought Prompting Elicits Reaso
AI 基础知识从 0.5 到 0.6—— 深度学习全能架构 Transformer
seq2seq -> RNN -> LSTM -> Transformer -> GPT,我不信看完还不懂 Transformer
AI 基础知识从 0.4 到 0.5—— 计算机视觉之光 CNN
计算机视觉的发展 计算机视觉是人工智能的核心分支,目标是赋予计算机像人类一样理解视觉世界的能力——从图像、视频等视觉数据中提取有价值的信息,完成分类、检测、分割、跟踪、理解场景语义等任务。 在早期,计
AI 基础知识从 0.2 到 0.3——初识深度学习
深度学习是机器学习的分支,机器学习领域演化出深度学习,主要是因为传统机器学习在处理复杂、非结构化数据(如图像、音频、文本)时遇到了挑战,特别是传统机器方法需要大量人工设计特征,耗时且需要领域知识,模型
LLM 系列(七):数学概念篇
项目地址:https://github.com/java-ai-tech/spring-ai-summary 🎉🎉🎉🎉🎉 LLM 系列文章列表: LLM 系列(一):发展历程篇 LLM 系列(二):基
5分钟带你搞懂从0打造一个ChatGPT
按照大家卷的程度来看,在未来的不久不管你是前端还是后端,大模型底层原理将会是和源码一样成为面试中的热门话题。
苹果🍎的奇幻漂流,当你提问后,ChatGPT在“想”什么?
从“我喜欢吃苹果🍎”说起 某个悠闲的午后,你在键盘上敲下“我喜欢吃苹果”,几秒钟后,ChatGPT 就给出了一个回复。 这时,你会不会好奇:屏幕后面发生了什么?这个“语言模型”是怎么“读懂”我的话
5分钟搞懂什么是窗口注意力?
在基于 Transformer 架构的 AI 大模型中,注意力机制早已成为了必不可少的核心组件。 但是传统注意力机制在处理长序列数据时存在很多问题。 典型的就是计算复杂度过高,导致在大数据场景中的应用
大模型炼丹术(一):从tokenizer说起,为LLM自回归预训练准备数据集
在阅读完本文后,你将学会如何构建用于GPT自回归预训练阶段的数据加载器,这将是你向着LLM训练迈出的第一步!
下一页
关注了
4
关注者
0
收藏集
0
关注标签
15
加入于
2025-06-24