首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
别摸我的婴儿肥
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
别摸我的婴儿肥
29天前
关注
从0开始LLM-注意力机制-1
1. 简单自注意力机制 自注意力机制是所有基于 Transformer 架构的大语言模型的核心组成部分。 注:所谓注意力,在深度学习中就是权重。权重大,神经网络关注的就多。...
0
评论
分享
别摸我的婴儿肥
关注了
Elasticsearch
别摸我的婴儿肥
关注了
字节跳动技术团队
别摸我的婴儿肥
关注了
华为云开发者联盟
别摸我的婴儿肥
关注了
货拉拉技术
别摸我的婴儿肥
关注了
美团技术团队
别摸我的婴儿肥
关注了
dududu755
别摸我的婴儿肥
1月前
关注
从0开始LLM-注意力机制-0
LLM的三个阶段: 构建模型: 数据准备和采样 注意力机制 LLM架构 预训练模型 训练 模型评估 权重 微调模型 在标记数据集上进行微调 从简化版本的自我注意力开始,然后...
1
评论
分享
别摸我的婴儿肥
1月前
关注
从0开始LLM-词嵌入(embedding)-3
词位置编码 将 token IDs 转换为连续的向量表示,也就是所谓的 token 编码,作为 LLM 的输入。...
1
评论
分享
别摸我的婴儿肥
1月前
关注
从0开始LLM-词嵌入(embedding)-2
从0开始LLM-词嵌入(embedding)-2:字节对编码(BPE)和 滑动窗口进行数据采样构建数据集...
2
评论
分享
别摸我的婴儿肥
1月前
关注
从0开始LLM-词嵌入(embedding)
从0开始LLM-词嵌入(embedding):神经网络是没有办法直接处理视频、音频和文本等原始数据格式的,需要一种将原始数据表示为密集向量,以满足训练神经网络的数学运算的要...
3
评论
分享
别摸我的婴儿肥
5月前
关注
Qwen2.5のFunction-Calling
Function Calling是指一种能力,让大型语言模型能够调用外部函数或API来执行特定任务。这种功能使得LLM不仅可以生成文本,还可以与外部系统交互,从而提供更实用...
2
评论
分享
别摸我的婴儿肥
6月前
关注
第2章 基于大模型的Agent技术框架
2.1 Agent的四大要素 2.2 Agent的规划和决策能力 2.3 Agent的各种记忆机制 2.4 Agent的核心技能:调用工具 2.5 Agent的推理引擎 2...
3
评论
分享
别摸我的婴儿肥
6月前
关注
what and why agent
what agent and why agent? agent四大特性、核心组件 agent的未来······...
2
评论
分享
别摸我的婴儿肥
7月前
关注
Minicpm-V LoRA微调
Minicpm-V2.6------LoRA微调代码解读,官方文档+finetune.py文件的注释...
2
评论
分享
别摸我的婴儿肥
7月前
关注
milvus安装
Milvus是一个开源向量数据库,专门用于存储和检索大规模向量数据。大模型在处理自然语言任务时会生成高维向量,Milvus可以高效地管理和查询这些向量数据,从而加速模型的推...
2
评论
分享
别摸我的婴儿肥
关注了
Snorlax143
别摸我的婴儿肥
7月前
关注
Attention is all you need 论文阅读
主流的序列转换模型都是基于复杂的循环神经网络和卷积神经网络,都包含一个encoder和decoder。表现最好的模型通过attention机制连接encoder和decod...
1
评论
分享
别摸我的婴儿肥
7月前
关注
大模型综述
《Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond》论文阅读...
2
评论
分享
别摸我的婴儿肥
8月前
关注
Bug和解决方案
服务器上遇到的bug合集,服务器上遇到的bug合集,服务器上遇到的bug合集,服务器上遇到的bug合集,服务器上遇到的bug合集,服务器上遇到的bug合集...
1
评论
分享
下一页
个人成就
文章被点赞
22
文章被阅读
2,360
掘力值
213
关注了
7
关注者
7
收藏集
0
关注标签
0
加入于
2022-12-12