欢迎来到人工智能的世界博客主页卿云阁欢迎关注点赞收藏⭐️留言首发时间2026年4月21日✉️希望可以和大家一起完成进阶之路作者水平很有限如果发现错误请留言轰炸哦万分感谢目录损失函数非极大值抑制​损失函数YOLOv1把图片分成了7*749个网格每个网格可以预测两组中心点和边界框的信息。也就是49*2一共98个中心点和边界框。那么哪一个中心点和边界框才是最好的最准的呐​YOLO 模型检测效果优劣的核心评价指标为交并比IoU其计算方式如下在数据预处理阶段我们已经标注得到目标物体准确的位置与尺寸信息该标准边界框称为真实框GroundTruthGT是模型训练的监督标签。模型推理时会输出一个预测边界框通过计算预测框与真实框的交集面积 / 并集面积即可得到 IoU 值以此衡量预测框的精准程度。​预测阶段网络在每个网格输出的信息包含两组边界框中心点偏移、宽高偏移量以及对应两个框的置信度。YOLOv1 置信度定义为网格包含目标物体的概率 × 预测框与真实框的 IoU其中网格存在物体概率为 1不存在物体则为 0。除此之外每个网格还输出20 个类别预测概率值。​YOLOv1 在训练过程中会将网络预测得到的两个边界框与标注绿色真实框GT进行匹配对比自动舍弃IoU 交并比较小的预测框仅保留匹配度更高的边界框参与后续损失函数计算。​接下来介绍 YOLOv1 损失函数式中S2代表划分的7×7 共 49 个网格参数B2代表每个网格预测2 个边界框。obj表示网格包含目标物体时取值为 1不包含物体时取值为 0noobj与之相反网格存在物体时取 0不存在物体时取 1。损失函数在计算时同时兼顾含物体网格与不含物体网格。权重系数 5用于放大中心点与边界框坐标的损失权重。由于 49 个网格中真正包含物体的网格占比极少设置该权重可以增强含物体网格的损失贡献引导模型重点关注目标位置。损失函数前两项为位置损失采用均方误差计算预测框中心点、宽高与真实框的偏差计算方式为真实值与预测值作差后平方。后续依次为置信度损失与类别分类损失。非极大值抑制YOLOv1 一共会输出 98 个预测框那么模型是如何从中筛选出最优检测框的呢每个网格输出的预测向量中后 20 个数值为 20 个类别的预测概率向量前 10 个参数包含两组边界框信息其中对应两个边界框的置信度得分。网格边界框的置信度得分由公式计算得出具体定义如下随后我们可以得到2 个长度为 20 维的新向量向量中每一个数值分别代表该预测框对应各个类别目标的置信可靠程度。最终我们可以得到98 个 20 维向量分别对应网络预测的 98 个边界框。向量中每一列数值代表对应类别的置信度得分例如第一列即为目标属于汽车类别的置信度。我们按类别依次处理以汽车类别为例筛选出置信度大于 0.2 的预测框其余不符合条件的框全部舍弃代码实现时直接将对应置信度置 0再将保留的预测框按照置信度从高到低排序为后续非极大值抑制 NMS 做准备。最终整理得到一个98×20的矩阵我们剔除矩阵中所有置信度为 0 的无效数据即可进行预测框绘制。以汽车类别为例单独在汽车这一类中筛选出置信度得分最高的预测框提取其对应的中心点与边界框坐标绘制到原始图片上并标注对应类别标签即可。【1】上述所有内容参考大白话讲明白YOLOv1的损失函数 #YOLO #YOLOv1 #目标检测 #深度学习#知识前沿派对 - 抖音​