首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
一只正在努力的程序元
更多收藏集
微信扫码分享
微信
新浪微博
QQ
2篇文章 · 0订阅
Ollama + DeepSeek 本地大模型实现联网回答
之前写了如何通过 Ollama 实现大模型本地化,本次将通过代码实现 Ollama + DeepSeek 实现本地大模型的联网回答能力。
DeepSeek 本地部署:从环境配置到 API 调用,全流程拆解
DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。 对于开发者,DeepSeek 提供了 API 接口,您可以通过以下步骤进行调用: