首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
AlexJee
更多收藏集
微信扫码分享
微信
新浪微博
QQ
2篇文章 · 0订阅
Ollama REST API模型调用实战
Ollama REST API模型调用小试 在上一篇文章中,我们已经完成了 Ollama 的安装部署以及模型的基本使用。接下来,我们将通过 REST API 的方式调用 Ollama 模型,实现更灵活
零基础入门AI:一键本地运行各种开源大语言模型 - Ollama
什么是 Ollama? Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。