首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ollama
订阅
某个大叔
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
[一文解决大模型微调+部署+RAG] LLamaFactory微调模型后使用Ollama + RAGFlow在Windows本地部署
LLM从数据集选择、数据集加载、llamaFactory微调、RAGFlow的docker部署全流程解决你的问题,
人人都要掌握的 Ollama(奥利玛)
背景 当下大模型层出不穷,国外有 OpenAI、Gork 等等,国内有通义千问、星火等等,如果要折腾某个大模型,需要下载对应的大模型文件,然后折腾各种流程和配置,才能在本地成功运行起来。如果要在本机上
Ollama:本地大模型运行指南
Ollama 是一个基于 Go 语言开发的可以本地运行大模型的开源框架。通过 Ollama 本地运行大模型的学习成本已经非常低,大家有兴趣尝试本地部署一个大模型吧。
零基础入门AI:一键本地运行各种开源大语言模型 - Ollama
什么是 Ollama? Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。
重磅!Ollama发布UI界面,告别命令窗口!
Ollama 终于提供 UI 界面了,再也不用在命令窗口中使用了,如下图所示: 什么是Ollama? Ollama 是一个开源的大型语言模型服务工具。它的主要作用是帮助用户快速在本地运行大模型,简化了