首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
足球上篮v
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
RAG 实践- Ollama+MaxKB 部署本地知识库
前言 本文我们介绍另外一种部署本地知识库的方案: Ollama + MaxKB 相对来说,容易安装且功能较完善,30 分钟内即可上线基于本地大模型的知识库问答系统,并嵌入到第三方业务系统中。 缺点是如
Llama + Dify,在你的电脑搭建一套AI工作流
最近字节在推Coze,那么有没有可能在本地也部署一套这个东西呢?嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿嘿
基于本地知识库,定制一个私有GPT助手,不能再简单了
大家好呀,我是码财同行。今天来聊聊怎么搭建一个私有 GPT 助手。 # 背景知识 众所周知,目前大模型 LLM 的能力已经非常强大,chatgpt 已
14.3k star 的开箱即用的 AI 知识库问答系统
之前三金介绍了很多 AI 大模型以及如何编写 AI Prompt 的文章,但从实际应用的维度来看,我们在使用这些 AI 产品时一般都是将它作为一个搜索引擎来使用的,并没有发挥出它应有的价值。 为什么这
一种在本地部署Qwen通义千问大模型的超简单方法-兼容OpenAi接口
有很多开源大模型都可以本地部署,用于替代 chatGPT 实现本地执行各种任务,比如国内较好的 通义千问Qwen1.5 全尺寸模型。在一般的翻译、文案创作、辅助编码等任务上,基本达到了ChatGPT3