首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ai训练
订阅
INTJ摸鱼
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
如何用公司的业务知识、流程等来训练专有Chat GPT?
在体验ChatGPT一段时间,问了些关于各行各业的问题,突然有个念头:“要是能让AI模型吸收公司的业务知识或一些业务流程、知识和商业经验,那该有多好啊!” 对一些企业
解码Transformer:自注意力机制与编解码器机制详述与代码实现
> 本文全面探讨了Transformer及其衍生模型,深入分析了自注意力机制、编码器和解码器结构,并列举了其编码实现加深理解,最后列出基于Transformer的各类模型如BERT、GPT等。文章旨
大模型国产化适配4-基于昇腾910使用LLaMA-13B进行多机多卡训练
随着 ChatGPT 的现象级走红,引领了 AI 大模型时代的变革,从而导致 AI 算力日益紧缺。与此同时,