基于AIMO平台将onnx转换tflite模型与Aidlux应用开发平台部署

32 阅读2分钟

如何将训练后的模型部署在aidlux平台上

首先需要登入AIMO平台转换模型,AI Model Optimizer登入AIMO平台后

step1: 上传训练后的模型,以Unet训练得到的.pt模型使用代码转换成onnx模型之后,将onnx模型上传,

step1: 上传模型,选择.onnx模型,并拖弋.onnx模型上传

step2: 选择目标平台,点选转换后的模型,我这里从onnx转成tflite,因此我需要选择tflite的模型

step2: 目标平台选择转换后的模型(tflite)

step3: 参数设定,不需要特别选择,预设的选项即可,接着点选右下角的submit开始转换

step3: 参数设定FP32,使用预设参数即可

step4: 转换后的结果可点选右下角的"模型对比"查看onnx模型与转换后的tflite模型,以及"查看输出"查看模型细节部份如输入节点、输出节点、耗时时间、优化前后的网路对比,最后点选下载模型即可得到tflite模型啰!

step4: 下载转换后的tflite模型

有了转换后的tflite之后,我们可以开始使用本地的vscode来远程连接ssh aidlux平台

在远程连接之前,需要在"安卓手机"上安装"aidlux" app

安装app后打开手机版本的AidLux软件APP,第一次进入的时候,APP自带的系统会进行初始化

初始化完成后,进入系统登录页面,这一步最好可以用手机注册一下

在统一局域网下,可以通过 IP 的方式,直接映射到电脑上操作,点击页面最上方的 Cloud_ip,会出现远程映射的地址

打开电脑浏览器地址,输入相应 ip (后续vscode远程时会使用到,可先留意记录)后,会出现登录页面。默认密码:aidlux。输入后即可进入主页面,可以看到内容和手机端是一样的

可以在网页端操作也可以在本地vscode远程ssh设定即可,以下说明如何设定远程ssh进行本地修改新增代码的部份。

首先开启vscode后,点选connect to ...选项,输入ssh root@自已的ip -p 9022

连接后会让你输入你的密码,密码为预设密码aidlux

连接成功后,open folder -> 输入项目文件路径/home/xxxxx/xxxxx

将本地模型等文件拖弋到左边的项目栏位上,并进行inference模型推理

推理后可以看到以下原图以及推理后的预测结果图,即可完成aidlux平台上的部署啰!!!!

详细的操作影片在此链接:基于AIMO平台将onnx转换tflite模型与Aidlux应用开发平台部署_哔哩哔哩_bilibili

谢谢观看~