首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
HanSomeLing
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
LLaVA论文笔记
llava这篇文章提到的主要的3点贡献: 1、提出一种构建多模态指令数据集的方法,并构建了一套多模态指令数据集 ; 2、提出了一个新的多模态图文模型; 3、提出了一个多模态指令测试的benchmark
从0开始训练一个中文图文大模型
今天介绍一下我的另外一个开源项目:Zero-Qwen-VL。 这个项目项目的初衷是想训练一个对中文支持更友好的图文多模态模型,所以挑了qwen-vl的图片编码器,语言模型选择了qwen2。
大模型不同tokenizer训练效果对比
的数据训练一个比较好,这里我做了一个小实验,看看选择哪个tokenizer效果更好。 由于我需要从头训练一个中英文的模型,所以这里选择了开源tokenizer:qwen2(通义千问的分词器)、glm4
对比不同开源大语言模型的结构有什么区别?
今天我们来分析和对比一下目前比较流行的几个开源LLM在模型结构上有什么区别,这里挑选的openai的gpt2、llama、qwen2、mistral和olmo。
从0开始训练一个大模型,跑通chatgpt训练所有流程
今天介绍一个我的github开源项目:Zero-Chatgpt。从0开始训练一个大模型,跑通chatgpt所有流程。
个人成就
文章被阅读
1,512
掘力值
68
关注了
1
关注者
0
收藏集
0
关注标签
0
加入于
2024-08-14