首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
端侧AI老谢
掘友等级
高级嵌入式端侧AI部署工程师
|
江苏芯知软件技术有限公司
16年嵌入式系统开发经验,Android/Linux驱动专家,端侧AI资深工程师。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
端侧AI 模型部署实战五(Android大模型加载)
上一篇文章完成了llama.cpp Android的编译和相关so的加载,这一篇文章基于so加载的基础上,实现大模型的加载,目的是将量化后的模型在手机上运行起来。 1. Kotlin 桥接类:Llam
端侧AI 模型部署实战四(llama.cpp Android移植)
之前文章有说到几种模型加载的方式: 方式1: 本地PC上 ollama可以直接跑未量化的.bin/.safetensors 大模型 比如:ollama run qwen:3.5-4b-instruct
端侧AI 模型部署实战三(模型转换)
为什么必须把原始模型转成 GGUF,才能用 llama.cpp 跑? 原始模型(HuggingFace 下载的那种): 格式:.bin / .safetensors 框架:PyTorch 结构:为训练
端侧AI 模型部署实战二(云端、PC 本地、手机端侧主流大模型及部署工具 )
AI的大模型部署主要有云端、PC 本地、手机端侧 三大场景。 *** 云端大模型(在线 API / 网页,最强能力)** *** PC 本地大模型(Windows/macOS,GGUF 优先)** *
端侧AI 模型部署(Windows/TFLite/Android Studio )实战一
本文含踩坑记录,含可运行代码,整个过程耗时一天完成。 端侧AI 模型部署(Windows/TFLite/Android Studio )实战
# 什么是端侧AI?什么是局域网+端侧AI?普通创业者必看
# 什么是端侧AI?什么是局域网+端侧AI?普通创业者必看 2026年,AI行业彻底告别“云端内卷”,从遥不可及的服务器集群,走进了手机、智能硬件、工业终端甚至小众设备里——端侧AI,以及在此基础上延
Android NPU 端侧 AI 模型部署实战(含量化 + 完整代码)
从零到一,手把手带你完成端侧 AI 推理加速,看完就能落地 一、前言 现在移动端 AI 已经从 “锦上添花” 变成了 “标配能力”。不管是图像识别、目标检测、语音处理还是生成式 AI 小模型.
个人成就
文章被点赞
1
文章被阅读
610
掘力值
88
关注了
0
关注者
1
收藏集
0
关注标签
4
加入于
2026-03-30