首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
freestylewill
更多收藏集
微信扫码分享
微信
新浪微博
QQ
6篇文章 · 0订阅
AI大模型中BERT的Embedding到底是个什么?看完小白也懂了!
一、什么是“Embedding”? Embedding(嵌入)是指把文本(也可能包括图像、视频等其他模态数据)转成能表达语义信息的浮点数向量,向量之间的数学距离可以反映对应文本之间的语义相关性。 二、
大模型入门第二课:初识Embedding——让文字拥有"位置"的魔法
朋友们,欢迎回到我的大模型学习之旅!在上一篇文章中,我们一起攻克了Token这个概念,知道了它是大模型处理文本的基本单位。今天,我们要继续深入,探索一个更加神奇的概念——Embedding(嵌入)。
一篇图文彻底搞懂什么是AI Agent
无论是刚入门的大模型应用开发者,还是工程化的团队,只要掌握了Agent底层原理和方法论,结合合适的工具和框架,都能轻松、高效开发出基于大模型的应用。
大模型入门第一课:彻底搞懂Token!
作为一个新手,我深知初学者的痛点。所以这篇文章,我会用最直白的语言,带你从零开始,一步步搞懂Token到底是什么,为什么它如此重要。
深入理解 Token:大语言模型的最小单位到底是什么?
Token 是文本被分割后的基本组成部分。在自然语言处理中,为了让模型能够理解和处理人类语言,需要将一段连续的文本(如句子或段落)分解成更小的单元,这些单元就是 Token。
大模型彻底搞懂什么是 Token:从“字”到“智能”的终极解码指南
本文解析大模型token本质:不仅是文字单位,更是AI理解语言的"原子"。涵盖分词原理、中英文差异、特殊控制符及多模态扩展,通过实例拆解工作机制。掌握token,即掌握与AI对话的底层逻辑密码。