首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ollama
订阅
用户2842296764320
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
RAG 实践-Ollama+AnythingLLM 搭建本地知识库
什么是 RAG RAG,即检索增强生成(Retrieval-Augmented Generation),是一种先进的自然语言处理技术架构,它旨在克服传统大型语言模型(LLMs)在处理开放域问题时的信息
如何给本地部署的DeepSeek投喂数据,让他更懂你
给本地部署的DeepSeek投喂种格式的文件,如pdf、csv、txt、md 格式的数据。比如你想让 `DeepSeek` 了解你的公司业务,就把相关的文档上传给它。让他更懂你,更智能
本地部署 DeepSeek:小白也能轻松搞定!
最近DeepSeek太火了,以至于每个小伙伴都想试试。DeepSeek 的到来可谓是开启了全民AI热潮。 本以为DeepSeek本地化部署有多难,实际上验证后很简单
Ollama 部署本地大模型与使用
本文将介绍如何通过 Ollama 部署本地 Llama3 大模型,并介绍如何通过 HTTP 调用拿到 AI 生成结果。
零基础入门AI:一键本地运行各种开源大语言模型 - Ollama
什么是 Ollama? Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。