很不幸的是被抽到了公开答辩,然而幸运的是我是第一个答辩,系里面的老师也没有全来,大概到场的也就 8 到 9 个。
写在前面
我估计老师在答辩的时候感觉出来我做的比较水,只是因为有督导在前面就给我点面子,最后水了个优秀毕业论文。校优秀就不申请了,嫌麻烦,而且估计更多老师看明白是个水文。
答辩 PPT: 百度盘 提取码: p7yv
答辩记录
- Q1: 几类目标?
6 类,分别为行人(Person)、自行车(bike)、机动车(car)、摩托车(motor)、公交车(bus)和卡车(truck) - Q2:实测框架?
本次系统使用 pytorch 框架实现 - Q3:不平衡怎么去确定
根据数据集中各个类的数量比对, 行人类和机动车类明显比其他类别要多 - Q4:数据集如何自建?收集?
本次数据集从大型检测数据集 COCO、自动驾驶数据集 BDD100K 中提取的含有行人车辆图片和网络爬取的图片组成。 - Q5:损失函数的选择理由?
损失函数由 box loss、obj loss、cls loss 三部分组成。其中 box loss 为边界框定位部分,由 c-iou loss 组成,其反应了预测框和真实框的重叠程度、中心点距离和长宽比,优化边界框的定位问题。对于分类部分采取逻辑回归函数能够更好的反应预测物体性和预测类别与真实值的差别。obj loss 采用 BCE Logits 函数,对边界框中含有物体的置信度进行优化。cls loss 采用 BCE 函数,对边界框的分类进行优化。 - Q6:为什么不采用公开数据集?70% 训练,30% 测试,理由?
由于未能找到符合我需求的公开数据集,因此从各个公开数据集中提取需要的类别检测。
本次训练和验证一共使用约 2 万张图片,属于小数据集。因此采用机器学习中传统的划分方法,即将 70% 的数据用于训练,20% 数据用于验证。
(其实因为没钱。免费 colab 嫖到没次数了,租的 GPU 又贵,网盘功能免费只给 5G,只能搞小一点数据集) - Q7:改进结果突出哪些类?
所有类的均值平均精确度都有一定的提升,效果最大的为机动车类,约有 4.1% 的提升效果。 - Q8:为什么 car 类提升效果最高?
调整特征融合部分主要是针对长宽小于 8 像素的小目标改进,而在这些小目标中 car 类的实例数量约占一半,因此 car 类受到的提升效果最高。
(因为当时 PPT 打错了,老师原本问的是 motor)
写在最后
因为当时答辩的 PPT 把 motor 类的数值写错了,以至于老师以为我的提升效果有 10%,实际只有 2% 左右吧。搞得我答辩时候很懵逼,总共提升效果一般般,而老师以为很大。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 qxdn的乐园!
评论