字数 1049,阅读大约需 6 分钟
PocketPal Ai软件实现手机本地允许模型,离线对话
软件简介
PocketPal AI 是一款独特的移动端AI应用,核心亮点是直接在手机本地运行轻量级大语言模型,无需联网,无需云端服务器,让你的手机变成一台真正的AI终端。
核心亮点
🔥 本地运行,完全离线
- • 无需联网:模型直接在手机端运行,没网也能用
- • 零延迟:本地计算,响应速度更快
- • 数据隐私:所有对话数据留在手机里,不上传云端
📦 轻量模型,体积小巧
- • 支持多种开源小模型(如Gemma 2B、Phi-3、Qwen 0.5B等)
- • 模型文件可下载至手机,占用存储空间小
- • 针对移动端优化,运行流畅不卡顿
完全免费,无订阅
- • 本地运行无需调用云端API,没有任何隐藏费用
- • 不限次数,想聊多久聊多久
🔋 低功耗优化
- • 模型推理经过功耗优化
- • 支持CPU/GPU混合计算
- • 不会让手机严重发热或快速耗电
🎯 隐私安全天花板
- • 所有对话数据绝不离开手机
- • 可处理敏感信息,无需担心数据泄露
- • 无需注册登录,真正的匿名使用
适用场景
- • 飞行模式使用:飞机上、地铁里没信号也能聊
- • 隐私对话:讨论敏感话题,不留云端记录
- • 学生党:随时随地查资料、学知识,不耗流量
- • 随时随地:野外、国外漫游,无需担心网络
下载方式
📱 Android版
- • GitHub Releases:github.com/a-ghorbani/…
- • 蓝奏云下载:www.ilanzou.com/s/T0nMyDi5(…
- • 夸克网盘:pan.quark.cn/s/5f9c26540…
📱 iOS版
- • App Store:搜索PocketPal Ai即可。
📂 开源地址
- • GitHub:github.com/a-ghorbani/…
温馨提示:首次使用需在应用内下载模型文件(约1-2GB,建议WiFi下下载)。下载后即可永久离线使用。
注:蓝奏云链接请复制到浏览器打开。
使用教程
使用Llama-3.2-1b-instruct(Q8_0)模型
- • 模型:Llama-3.2-1b-instruct(Q8_0)
- • 技能: 遵循指示,摘要,重写文章
下载之后,需要魔法来安装模型,这里建议先安装Llama-3.2-1b-instruct(Q8_0)模型,这个模型仅1.32G;回复快;可以先体验一下;
安装成功之后,就可以在聊天页面选择模型进行激活,然后就可以聊天了;
这里我设置了提示词,因为没有提示词的话,回答会很脑c;我简单设置了一下提示词,如下,
打开侧边栏--》》“模型”--》》点击下载好的模型的轮齿图标,如下:
提示词可以找deepseek让他生成,下面是我的提示词:
你是我朋友,不是客服。说话要像真人一样随便,可以懒、可以敷衍、可以吐槽。偶尔回个"嗯"、"然后呢"、"笑死"都行。别每句都安慰我,别每句都正能量,别像写作文。可以怼我,可以说"不知道",可以说"我也是"。越像真人越好。
使用Qwen2.5-3B-Instruct (Q5_K_M)
- • 模型:Qwen2.5-3B-Instruct (Q5_K_M)
- • 技术:遵循指示,角色扮演,多语言支持
- • 大小:2.44G
安装需要魔法,使用同上面;下面是我使用Qwen2.5-3B-Instruct (Q5_K_M)的聊天:
最后
- 隐私保护性极强 所有数据处理都在本地完成,不用担心对话内容被上传或泄露,适合处理敏感信息和商业机密。
- 响应速度超快 因为不需要联网请求云端服务器,问题一输入就能立即得到响应,没有网络延迟的困扰。
- 随时随地可用 在飞机上、地铁里等没有网络的地方,或者出国时没有流量的情况下,都能正常使用所有功能。
- 定制化程度高 作为本地化软件,应该允许用户自定义训练数据、调整参数,打造专属的AI助手。
- 节省云端费用 不需要支付API调用费用或者订阅云端服务。