首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
机器学习
订阅
毛毛可
更多收藏集
微信扫码分享
微信
新浪微博
QQ
2篇文章 · 0订阅
FastAPI + ONNX 部署机器学习模型最佳实践
引言 随着人工智能的迅猛发展,将训练好的模型部署到生产环境中,为用户提供实时预测服务,已成为众多企业和开发者关注的重点。然而,模型部署并非易事,涉及到模型格式转换、服务框架选择、性能优化等多个方
基于ollama搭建本地大模型
基于ollama搭建本地大模型 效果图 下载安装ollama 官网地址:https://ollama.com/ 选择适合自己的系统 win直接安装即可,linux运行以下命令 win环境配置,增加环境