首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
人工智能
订阅
琦
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
Java开发者LLM实战——使用LangChain4j构建本地RAG系统
1、引言 由于目前比较火的chatGPT是预训练模型,而训练一个大模型是需要较长时间(参数越多学习时间越长,保守估计一般是几个月,不差钱的可以多用点GPU缩短这个时间),这就导致了它所学习的知识不会是
检索增强生成技术RAG:向量化与大模型的结合
大家好,我是祯民。本文我们将来学习一个与现在 AGI 时代合作紧密的技术 RAG, 这是每个 AIGC 方向开发不得不掌握的能力。
作为普通程序员,我们该如何学习大模型(LLM),学习路线和知识体系
人在不断的驱赶下依然还有新的立足之地,这些新领地恰恰是技术延展出来的百年前的纺织工人的后代并不会接着做纺织,他可能是一名铁路工人。
大模型入门课和AI应用开发
这篇文章介绍了大模型的基本原理和开发AI应用的入门知识。内容包括大模型的基本原理,如反向传播算法和权重更新;强化学习和语言模型的发展历程,如RNN、Encoder-Decoder、Attention和