首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
人工智能
订阅
那些年我们不曾知道的事情
更多收藏集
微信扫码分享
微信
新浪微博
QQ
10篇文章 · 0订阅
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐 1.MaxKB MaxKB = Max Kn
学习笔记|MaxKB对接本地大模型时,选择Ollma还是vLLM?
在使用MaxKB开源知识库问答系统的过程中,除了对接在线大模型,一些用户出于资源配置、长期使用成本、安全性等多方面考虑,还在积极尝试通过Ollama、vLLM等模型推理框架对接本地离线大模型。
chromadb + Ollama 快速实现RAG应用
chromadb + Ollama 快速实现RAG应用,这样的选择主要是因为安装的软件较少,对机器配置要求低。极简模式仅需安装chromadb即可
玩转大模型(一)环境配置
写在最前面 这个系列的文章,大约会有8到10篇吧,现在已经写完了6篇了,分开来发吧,据说分开发流量会大一些。
Python潮流周刊#9:如何在本地部署开源大语言模型?
你好,我是猫哥。这里每周分享优质的 Python 及通用技术内容,部分为英文,已在小标题注明。(标题取自其中一则分享,不代表全部内容都是该主题,特此声明。) 首发于我的博客:https://pytho
Ollama:本地大模型运行指南
Ollama 是一个基于 Go 语言开发的可以本地运行大模型的开源框架。通过 Ollama 本地运行大模型的学习成本已经非常低,大家有兴趣尝试本地部署一个大模型吧。
五个优秀的免费 Ollama WebUI 客户端推荐
认识 Ollama 本地模型框架,并简单了解它的优势和不足,以及推荐了 5 款开源免费的 Ollama WebUI 客户端,以提高使用体验。
使用 ollama 部署本地模型
一、什么是 ollama? 二、why ollama? 能直接运行大模型,与大模型进行对话。 ollama 命令具有管理大模型的能力。 利用 cpu 运行大模型。 本地大模型安全可靠。 终端直接开始聊
用java做一套离线且免费的智能语音系统,ASR+LLM+TTS
其实调用第三方接口完成一个智能语音系统是非常简单的,像阿里、科大讯飞、微软都有相关接口,直接根据官方文档集成就可以,但想要离线的就要麻烦一点了,主要是想不花钱,现在人工智能基本是python的天下,不
大模型工具对比:SGLang, Ollama, VLLM, LLaMA.cpp如何选择?
深入对比分析SGLang、Ollama、VLLM、LLaMA.cpp等主流大模型部署工具的特点、性能和适用场景,帮助开发者和用户选择最适合的AI模型部署工具