PocketPal Ai软件实现手机本地允许模型,离线对话

62 阅读3分钟

字数 1049,阅读大约需 6 分钟

PocketPal Ai软件实现手机本地允许模型,离线对话

软件简介


PocketPal AI 是一款独特的移动端AI应用,核心亮点是直接在手机本地运行轻量级大语言模型,无需联网,无需云端服务器,让你的手机变成一台真正的AI终端。

核心亮点

🔥 本地运行,完全离线

  • • 无需联网:模型直接在手机端运行,没网也能用
  • • 零延迟:本地计算,响应速度更快
  • • 数据隐私:所有对话数据留在手机里,不上传云端

📦 轻量模型,体积小巧

  • • 支持多种开源小模型(如Gemma 2B、Phi-3、Qwen 0.5B等)
  • • 模型文件可下载至手机,占用存储空间小
  • • 针对移动端优化,运行流畅不卡顿

完全免费,无订阅

  • • 本地运行无需调用云端API,没有任何隐藏费用
  • • 不限次数,想聊多久聊多久

🔋 低功耗优化

  • • 模型推理经过功耗优化
  • • 支持CPU/GPU混合计算
  • • 不会让手机严重发热或快速耗电

🎯 隐私安全天花板

  • • 所有对话数据绝不离开手机
  • • 可处理敏感信息,无需担心数据泄露
  • • 无需注册登录,真正的匿名使用

适用场景

  • • 飞行模式使用:飞机上、地铁里没信号也能聊
  • • 隐私对话:讨论敏感话题,不留云端记录
  • • 学生党:随时随地查资料、学知识,不耗流量
  • • 随时随地:野外、国外漫游,无需担心网络

下载方式


📱 Android版

📱 iOS版

  • • App Store:搜索PocketPal Ai即可。

📂 开源地址


温馨提示:首次使用需在应用内下载模型文件(约1-2GB,建议WiFi下下载)。下载后即可永久离线使用。

注:蓝奏云链接请复制到浏览器打开。

使用教程


使用Llama-3.2-1b-instruct(Q8_0)模型

  • • 模型:Llama-3.2-1b-instruct(Q8_0)
  • • 技能: 遵循指示,摘要,重写文章

下载之后,需要魔法来安装模型,这里建议先安装Llama-3.2-1b-instruct(Q8_0)模型,这个模型仅1.32G;回复快;可以先体验一下;

安装成功之后,就可以在聊天页面选择模型进行激活,然后就可以聊天了;

这里我设置了提示词,因为没有提示词的话,回答会很脑c;我简单设置了一下提示词,如下,

打开侧边栏--》》“模型”--》》点击下载好的模型的轮齿图标,如下:

提示词可以找deepseek让他生成,下面是我的提示词:

    
    
    
  你是我朋友,不是客服。说话要像真人一样随便,可以懒、可以敷衍、可以吐槽。偶尔回个"嗯""然后呢""笑死"都行。别每句都安慰我,别每句都正能量,别像写作文。可以怼我,可以说"不知道",可以说"我也是"。越像真人越好。

使用Qwen2.5-3B-Instruct (Q5_K_M)

  • • 模型:Qwen2.5-3B-Instruct (Q5_K_M)
  • • 技术:遵循指示,角色扮演,多语言支持
  • • 大小:2.44G

安装需要魔法,使用同上面;下面是我使用Qwen2.5-3B-Instruct (Q5_K_M)的聊天:

最后


  1. 隐私保护性极强 所有数据处理都在本地完成,不用担心对话内容被上传或泄露,适合处理敏感信息和商业机密。
  2. 响应速度超快 因为不需要联网请求云端服务器,问题一输入就能立即得到响应,没有网络延迟的困扰。
  3. 随时随地可用 在飞机上、地铁里等没有网络的地方,或者出国时没有流量的情况下,都能正常使用所有功能。
  4. 定制化程度高 作为本地化软件,应该允许用户自定义训练数据、调整参数,打造专属的AI助手。
  5. 节省云端费用 不需要支付API调用费用或者订阅云端服务。