首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
wen酱110586
更多收藏集
微信扫码分享
微信
新浪微博
QQ
455篇文章 · 0订阅
大模型连载4:文本 token 化的过程是怎样的
前面两节分别通过两个代码示例展示了模型将文本转换为 token 之后是什么样的,希望你可以对此有一个感性的认识。 本节来简要介绍一下将一个连续的文本转换为 token 序列的大致过程,这个过程被称为分
大模型连载3:利用 GPT2 将文本 token 化
在上一节,利用 BERT 模型将一个文本进行了 token 化。那你可能会问,是不是所有的模型将同一个文本 token 化之后,结果都一样呢? 当然不是。 这是因为不同的模型对文本进行 token 化
19-为什么AI工程这么喜欢"创造名词":从Prompt到Skill的造词运动
引言:AI工程的"造词游戏" 如果你刚接触AI工程,肯定会被一堆高大上的术语搞晕:Prompt、SystemPrompt、Memory/Context、Function Calling、Tool、MC
18-其他类型Agent:从Plan-Execute到Multi-Agent协作
Agent架构全景 在上一章中,我们学习了ReactAgent——通过交替进行推理和行动来解决问题。但ReactAgent并非唯一的Agent范式,不同的任务需要不同的架构。本章将介绍其他主流的Age
解决大模型 5 大痛点:LangChain 核心组件全解析
本文从第一性原理出发,深度剖析了 LangChain 的核心价值与设计逻辑。文章从大模型应用开发的痛点入手,系统拆解了 LangChain 如何通过组件化、链式组合、记忆抽象、RAG、工具调用与智能体
从 Structured Output 到企业级 AI 架构——如何把 LLM 放进可控系统
试想一下,当你的系统调用量从每天 100 次变成 100 万次时, 哪怕 0.1% 的错误率, 每天就是 1000 次异常,这锅你敢接吗?
17-ReactAgent:让AI学会"边思考边行动"
什么是ReactAgent? ReactAgent是基于**ReAct(Reasoning and Acting)范式的智能体架构,让大模型通过交替进行推理(Reasoning)和行动(Acting)
16-大模型量化技术:从FP16到INT4的极致压缩
什么是量化? 量化(Quantization)是将模型参数和激活值从高精度表示(如FP32、FP16)转换为低精度表示(如INT8、INT4)的过程。 为什么需要量化? 以LLaMA-70B为例,看看
15-DeepSeek的MLA技术:极致压缩KV Cache的创新方案
DeepSeek的MLA技术:极致压缩KV Cache的创新方案 MLA是什么? MLA(Multi-head Latent Attention,多头潜在注意力)是DeepSeek在2024年发布De
14-PagedAttention、FlashAttention与投机采样:推理优化三大技术
PagedAttention、FlashAttention与投机采样:推理优化三大技术 大模型推理的三大瓶颈 在上一章中,我们学习了KV Cache如何通过缓存已计算的K和V来加速推理。但即使有了KV