首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
user2268370395116
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
从头理解与编码LLM的自注意力机制
本文将介绍Transformer架构和GPT-4、LLaMA等语言大模型中使用的自注意力机制。自注意力和相关机制是LLM的核心组件,使用LLM时,了解这些机制十分有必要。
Mac专属大模型框架来了!两行代码部署,能聊本地数据,还支持中文
翻版 Chat with RTX Mac 用户,终于不用羡慕 N 卡玩家有专属大模型 Chat with RTX 了! 大神推出的新框架,让苹果电脑也跑起了本地大模型,而且只要两行代码就能完成部署。
使用langchain搭建本地知识库系统(新)
RAG 是`retrieval-augmented-generation`的缩写,翻译为中文的意思就检索增强,以基于最新,最准确的数据建立` LLM `的语料知识库。
一手借东风,Reddit把用户「卖」了个好价钱;AI增强搜索工具清单(私藏版);2024年Star飙升的LLM学习路线图;AIGC教育行业全景报告 | Show
日报关键词:🉑Minimax/智谱/月之暗面的开发者激励计划;Reddit与某AI公司达成数据授权协议;🉑秘塔AI搜索;🉑拾象专访月之暗面杨植麟;AIGC教育行业全景报告;LLM学习路线图……