首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
Mark不吃早餐
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
作为普通程序员,我们该如何学习大模型(LLM),学习路线和知识体系
人在不断的驱赶下依然还有新的立足之地,这些新领地恰恰是技术延展出来的百年前的纺织工人的后代并不会接着做纺织,他可能是一名铁路工人。
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐 1.MaxKB MaxKB = Max Kn
RAG 实践-Ollama+AnythingLLM 搭建本地知识库
什么是 RAG RAG,即检索增强生成(Retrieval-Augmented Generation),是一种先进的自然语言处理技术架构,它旨在克服传统大型语言模型(LLMs)在处理开放域问题时的信息
fastgpt+ollama搭建本地的AI客服小助手
最近找工作,微信上hr问我做一个AI客服聊天这么个东西,所以最近几天就研究了一下这方面,还真给我捣鼓了点成果出来:一个能在本地运行的AI小助手,可以对接自己喜欢的大模型,还能导入知识库。