首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
ECH00O00
掘友等级
测试开发
|
百度/腾讯
stay hungry, stay Follish
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
05-GPT系列全解析:从GPT-1到GPT-4的进化
本文回顾GPT系列演进历程:从GPT-1开创预训练+ 微调范式,到GP4带来多模态理解与强推理能力,见证AI的飞跃。
06-Attention/注意力机制:AI的"聚光灯"
本文解读"Attention注意力机制":Attention是AI的"聚光灯",告诉AI该关注什么。通过Q(查询)、K(键)、V(值)计算关注程度。
05-Transformer:AI界的"变形金刚"
本文解读"Transformer"架构:Transformer是现代AI的核心引擎,通过Attention机制实现并行处理文本,一眼看完还能记住谁和谁有关系。
04-Prompt/提示词:跟AI说话的艺术
本文解读"Prompt提示词"概念:Prompt是你给AI的输入指令,好Prompt包含角色设定、背景信息、具体任务、要求约束和输出格式。
04-词向量到嵌入:让机器理解语言的奥秘
本文探索语言表示技术:从One-Hot编码的稀疏高维到Word2Vec的稠密向量,词嵌入让机器理解语义关系(如King-Man+Woman≈Queen)。
03-参数/Parameters:1750亿个参数是啥概念
本文解读AI模型"参数"概念:参数是模型存储知识的形式,好比人脑的神经连接。1750亿参数相当于17万本《红楼梦》的信息量。文章还介绍了量化技术(FP16/INT8/INT4)如何压缩模型节省显存。
02-Token/词元:AI眼里的"字"跟你不一样
本文解读AI领域核心概念"Token"(词元):它是AI处理文本的最小单位,相当于AI眼中的"一个字"。关键点是中文比英文更费Token(约1.5-2倍),上下文窗口决定了AI能"记住"的内容量。
01-LLM/大模型:AI界的"学霸"是怎么炼成的
本文用大白话解读AI圈最火的LLM(大语言模型),带你理解7B、70B等参数量的含义、"涌现"效应是怎么回事、Base Model与Chat Model的区别。通过生活类比和直观图解,让你快速看懂
03-从RNN到Transformer-序列建模的演进之路
本文系统讲解深度学习基础:从人脑神经元引入人工神经网络概念,详解神经元工作原理、激活函数作用、前向传播与反向传播机制,配合XOR问题实战代码,帮助读者直观理解神经网络"思考"过程。
02-深度学习入门-神经网络是如何思考的
本文深入讲解深度学习核心原理:从人脑神经元引入人工神经网络,阐释神经元的工作机制(加权求和+激活函数),详解前向传播与反向传播算法,并通过XOR问题完整演示训练过程,最后介绍CNN、RNN等经典架构。
下一页
个人成就
文章被点赞
2
文章被阅读
1,655
掘力值
253
关注了
1
关注者
4
收藏集
0
关注标签
4
加入于
2025-08-01