yolo26n-pose模型可以直接识别人体姿势,但不识别其他动作或物体,如果想精准识别其他分类,需要自己重新训练,本来想做小狗的姿势分析,发现在ultralytics中提供了全量的dog-pose数据集,包含6,773张训练图像和1,703张测试图像,官网教程写了使用数据集方式,但没有提供训练好的模型,这里有我训练好的,训练集较大本地CPU训练不出来,特意使用阿里云GPU服务器训练了6个小时(服务器每小时12元),一共花费70元,可以直接下载使用,也可以看后续教程,但确实训练一次成本太高,没必要实践。
编辑
训练结果图中可以看到训练的指标参数还可以
编辑
预测的数据也比较准确
编辑
首先在人工智能平台PAI中新建交互式建模的实例
编辑可以选择需要的GPU服务器类型,这里我选了最便宜的12.79元/小时,真的是每小时,比去网吧都贵
编辑
需要提前新建好oss实例,并在里面上传数据集文件,差不多400MB,这里将oss关联到服务器中
编辑
新建需要加载一段时间,运行之后就可以点击打开直接进行编码
编辑
先到terminal中安装ultralytics,其他python环境已经都有了
编辑
运行代码之前先编辑好自己的yaml文件中的数据集地址
编辑
编写好训练的代码,直接运行就可以,提前把yolo26n和yolo26n-pose的模型都上传了
编辑
开始训练中,可以看到右上角的CPU,内存,GPU使用率,确实要比本地CPU训练效率高很多
编辑
跑完全部训练大概5.7小时,加上安装依赖环境和oss数据集上传,差不多六个小时才完事,导出runs中的best模型就可以
编辑
编辑
使用训练好的模型就可以直接在本地运行,预测其他狗狗图片了