1.交并比(IOU)
这里我们就是去统计我们预测框和我们目标款选区的交并概率,然后来计算边界回归损失,简单的来说我们最好的效果可能就是我们的目标框和我们预存框完全重合,同时我们可以通过控制我们的交并比来去除冗余框,优化我的识别效果
2.TP正检(True Positive)
预测框IoU达标并且分类正确,那这个怎么判断我们检测到或者没有检测到,也就是我们上面说的IOU的阈值,然后去控制我们检测的个数
3.FP误检(False Positive)
预测框IoU达标,但分类错误(如将“狗”误认为“猫”)
4.FN漏检(False Negative)
真实存在的目标但是未被模型检测到
所以基于以上这几个
模型检测出来的框:TP(正检)+FP(误检) 【检测正确的+检测错误的】 准确率的计算公式就出来了 P(精度)=TP(正检)/ TP(正检)+FP(误检)
模型应该要检验出来的框:TP(正检)+FN(漏检) 【检测正确的+没有检测出来的】 召回率其实很形象,就像放羊咩咩 等到晚上的时候看看有多少只羊咩咩被召唤回来就可以了【正检】 召回率的计算公式就出来了 R(召回)=P(正检)/ TP(正检)+FN(漏检)
高的置信度,高的召回率当然是越高越好 但是部分情况下我们也会有相应的取舍 比如在医疗场景中,我们会拉高我们的置信度来确保预测的准确性【性命关天】 但是在一些人员统计等情况下,比如安全帽的识别我们又会去追求高的召回率,确保带了帽子和没有带帽子都可以被识别
有任何不对的地方都欢迎来谈论 下节计划更新ultralytics环境下yolo模型跑出来之后图片的分析和模型的判断