首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
ECH00O00
掘友等级
测试开发
|
百度/腾讯
stay hungry, stay Follish
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
10-用LangChain构建你的第一个AI应用
本文实战LangChain框架:介绍LLM调用、Prompt模板、Chain链式调用、Memory记忆系统等核心组件。通过文档问答助手和智能客服两个完整项目,手把手教读者构...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
10-Fine-tuning/微调:给AI上"专业课"
本文解读"Fine-tuning微调":微调是给AI上"专业课",让通用模型变成领域专家。文章介绍了全量微调与PEFT高效微调的区别,重点讲解LoRA技术只需1%参数即可完...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
01-群雄并起:2026年大模型战争全景图
梳理2026年全球大模型竞争格局,解析OpenAI、Google、Anthropic三强的最新进展与差异化优势,聚焦DeepSeek等国产模型的逆袭路径,并揭示行业最重要的...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
09-Agent智能体:大模型的"手"和"脚"
本文探索AI智能体架构:Agent赋予大模型"行动"能力,包含大脑(LLM)、感知、记忆、工具、规划五大组件,详解ReAct框架的思考-行动-观察循环。...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
09-Pre-training/预训练:AI的"通识教育"
本文解读"Pre-training预训练":预训练是AI的"通识教育",让模型在海量文本上学"猜下一个字"。GPT-3预训练用了45TB文本,成本高达1200万美元。...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
08-Context Window/上下文窗口:AI的短期记忆
本文解读"Context Window上下文窗口":上下文窗口是AI的短期记忆容量,超过限制就会"忘记"前面的内容。4K/128K/200K代表能处理的Token数量。...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
08-RAG技术详解:让大模型拥有"外挂知识库"
本文详解检索增强生成技术:RAG让大模型通过向量检索获取实时知识,解决知识截止和幻觉问题。涵盖文档分块策略、向量数据库选型、混合检索、重排序等核心技术,是构建知识密集型AI...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
07-Prompt Engineering:与大模型对话的艺术
本文系统讲解提示词工程:完整的Prompt包含角色设定、任务描述、约束条件等要素,帮助读者掌握与大模型有效沟通的艺术。...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
07-Embedding/嵌入:把文字变成数字的魔法
本文解读"Embedding嵌入"概念:Embedding把文字变成数字向量,意思相近的词向量也相近。经典的"国王-男人+女人≈女王"展示了向量运算的魔力。...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
06-LLM训练揭秘:预训练、微调、对齐全流程
本文揭秘大模型训练全流程:预训练用海量文本学习语言知识,微调通过LoRA等高效方法适应特定任务,对齐阶段用RLHF或DPO让模型与人类价值观一致。三大阶段协同,从基础模型到...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
05-GPT系列全解析:从GPT-1到GPT-4的进化
本文回顾GPT系列演进历程:从GPT-1开创预训练+ 微调范式,到GP4带来多模态理解与强推理能力,见证AI的飞跃。...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
06-Attention/注意力机制:AI的"聚光灯"
本文解读"Attention注意力机制":Attention是AI的"聚光灯",告诉AI该关注什么。通过Q(查询)、K(键)、V(值)计算关注程度。...
1
1
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
05-Transformer:AI界的"变形金刚"
本文解读"Transformer"架构:Transformer是现代AI的核心引擎,通过Attention机制实现并行处理文本,一眼看完还能记住谁和谁有关系。...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
04-Prompt/提示词:跟AI说话的艺术
本文解读"Prompt提示词"概念:Prompt是你给AI的输入指令,好Prompt包含角色设定、背景信息、具体任务、要求约束和输出格式。...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
04-词向量到嵌入:让机器理解语言的奥秘
本文探索语言表示技术:从One-Hot编码的稀疏高维到Word2Vec的稠密向量,词嵌入让机器理解语义关系(如King-Man+Woman≈Queen)。...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
03-参数/Parameters:1750亿个参数是啥概念
本文解读AI模型"参数"概念:参数是模型存储知识的形式,好比人脑的神经连接。1750亿参数相当于17万本《红楼梦》的信息量。文章还介绍了量化技术(FP16/INT8/INT...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
02-Token/词元:AI眼里的"字"跟你不一样
本文解读AI领域核心概念"Token"(词元):它是AI处理文本的最小单位,相当于AI眼中的"一个字"。关键点是中文比英文更费Token(约1.5-2倍),上下文窗口决定了...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
01-LLM/大模型:AI界的"学霸"是怎么炼成的
本文用大白话解读AI圈最火的LLM(大语言模型),带你理解7B、70B等参数量的含义、"涌现"效应是怎么回事、Base Model与Chat Model的区别。通过生活类比...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
03-从RNN到Transformer-序列建模的演进之路
本文系统讲解深度学习基础:从人脑神经元引入人工神经网络概念,详解神经元工作原理、激活函数作用、前向传播与反向传播机制,配合XOR问题实战代码,帮助读者直观理解神经网络"思考...
0
评论
分享
ECH00O00
测试开发 @百度/腾讯
·
1月前
关注
02-深度学习入门-神经网络是如何思考的
本文深入讲解深度学习核心原理:从人脑神经元引入人工神经网络,阐释神经元的工作机制(加权求和+激活函数),详解前向传播与反向传播算法,并通过XOR问题完整演示训练过程,最后介...
0
评论
分享
下一页
个人成就
文章被点赞
2
文章被阅读
2,297
掘力值
254
关注了
1
关注者
4
收藏集
0
关注标签
4
加入于
2025-08-01