imagenet测试的识别错误率为,

  imagenet测试的识别错误率为,

  (给机器学习算法与Python学习加星标,提升AI技能)

  机器心脏报告

  众所周知,测试集是我们衡量机器学习模型性能的标准。如果测试集错误,得到的性能数据也会有很大偏差。

  在一篇新文章中,来自麻省理工学院CSAIL和亚马逊的研究人员研究了10个主要机器学习数据集的测试集,发现平均错误率达到了3.4%。其中,最著名的ImageNet数据集验证集至少有2916个错误,错误率为6%;快速绘制数据集至少有500万个错误,错误率10%。

  论文链接:https://arxiv.org/pdf/2103.14749.pdf

  下面的图1显示了每个数据集中的错误示例。

  为了把这些错误展示给大家,帮助大家改进数据集,研究人员还建立了专门的分类网站。

  地址:https://labelerrors.com/

  该网站上显示的错误主要有三种类型。第一个是错误标记的图像,就像dock被标记为纸巾一样。

  第二,亚马逊的商品评价本来是负面的,却被标注为正面,等等。这是一种错误的文本情感倾向。

  第三,被错误标记的YouTube视频的声音就像被标记为口哨的星星和月亮的无声高音片段一样。

  作者在研究中发现一个有趣的现象:ResNet-18等相对简单的模型的错误率低于ResNet-50等更复杂的模型,这取决于无关数据(噪声)的普适性。因此,如果数据集标签的错误率达到10%,建议考虑使用更简单的模型。

  为了重现论文的结果,并在自己的数据集上找到标签错误,研究人员在GitHub上打开了他们的Python包(cleanlab)。

  项目地址:https://github.com/cgnorthcutt/clean实验室

  参与调查的十大数据集

  下表列出了研究人员调查的10个数据集以及这些测试集的错误率。

  以下是这些数据集的细节。从阅卷过程中,我们可以看到导致阅卷错误的几种可能原因。

  MNIST

  MNIST数据集是由美国国家标准和技术研究所收集和整理的大型手写数字数据库。它是在1998年严乐存的论文中首次提出的。这个数据集包含了从0到9的10种手写数字图像,每个图像的大小都是归一化的,都是28x28灰度。通过将数字与任务描述进行匹配来确定数据集的基础事实标签,以便可以复制特定的一组数字。标签错误可能是由于未遵循关于此数据集的说明或手写不明确造成的。

  CIFAR-10 和 CIFAR-100 数据集

  CIFAR-10和CIFAR-100数据集分别由10类和100类3232图像组成。这两个数据集通过在互联网上搜索类别标签来收集图像。如果您手动添加标签,请通过过滤带有错误标签的图像来选择与类别标签匹配的图像。标记仅标记图像中最突出的实例,并允许该实例被部分遮挡。

  Caltech-256

  Caltech-256数据集是包含图像和类别的数据集,其中图像由图像搜索引擎捕获,图像在人工标记时被评价为好、差和不适用,并被过度屏蔽在数据集之外,

  ImageNet

  ImageNet数据集是机器学习研究中最常用的数据集之一。该数据集通过几个图像搜索引擎在WordNet词库中查询单词来捕获图像。这些图片由亚马逊机构的工作人员标记。检查这些图像是否包含特定同义词集的对象,过滤对象混乱、隐藏过多的图像,保证数据集图像的多样性。

  QuickDraw

  QuickDraw doodle数据集是5000万张图片的集合,分为345个类别。这些图都来自快,画!游戏的玩家。这些图像标有一些元数据,包括要求玩家画什么。此数据集可能包含不完整的图像和不匹配的标签。

  20news

  20新闻组数据集是由发布到新闻组新闻组的文章的集合,共涵盖20个主题。该数据集通常用于测试文本分类和聚类图像模型。每个样本的标签是原始新闻组(例如misc.forsale),可以在数据收集过程中获取。

  IMDB

  IMDB大规模影评数据集是一个情感分类数据集,用于二元情感分类。标签由用户评价决定:满分10分,分数 4分视为负面,分数 7分视为正面。

  评价表示这是一部值得一读的作品,但IMDB数据集给出的标签是负面的。

  Amazon Reviews

  亚马逊评论数据集是亚马逊客户的文本评论和5星评级的集合,通常用于基准情绪分析模型。

  AudioSet

  Set Audio数据集包含632个音频类别和2,084,320个人工标记的10秒声音片段(来自YouTube视频的片段),称为声音版本ImageNet。研究人员指出,一些标签错误是由标签混淆、人为错误和音频检测差异造成的。

  如果测试集错误太多,大模型未必好用

  在估计了每个测试集的错误率之后,研究人员使用ImageNet和CIFAR-10作为案例,研究测试集标签错误对基准稳定性的影响。

  虽然这些基准数据中存在许多错误标签,但研究人员发现,在这些错误被移除或纠正后,基准中模型的相对排名并未受到影响。然而,他们也发现这些基准结果是不稳定的:与参数较少的模型(如ResNet-18)相比,容量较大的模型(如NasNet)能更好地反映这些系统性标签误差在预测结果中的分布,并且随着测试标签误差的日益普遍,这种影响变得更加明显。

  这不是传统的过装。更大的模型可以更好地推广到测试数据中给定的噪声标签,但这是有问题的,因为在评估标签修正后的测试数据时,这些模型给出的预测结果不如那些容量更小的模型给出的预测结果好。

  在具有大量标注错误的真实世界数据集中,小容量模型可能比大容量模型更有用。比如从基于原始给定标签的测试精度来看,NasNet似乎比ResNet-18好,但如果用标签修正后的测试集来测试,NasNet的精度其实不如ResNet-18。由于后者在现实中更重要,在这种情况下,我们在现实中应该部署ResNet-18而不是NasNet。

  为了评估流行的预训练模型的基准是如何变化的,研究人员随机并递增地删除正确标记的样本,一次一个,直到只剩下一组原始的错误标记的测试数据(标签被纠正)。通过这种方法,他们只删除了6%的正确标记的测试样本,因此ResNet-18的表现优于ResNet-50。

  这项研究表明,当数据集有噪声时,ML实践者可以从纠正测试集中的标签错误或使用更小/更简单的模型中受益。当然,你首先要确定你的数据集的噪音是否真的有那么大,判断方法可以在论文中找到。

  参考:3359 www . csail . MIT . edu/news/major-ml-datasets-have-tens-ways-errors

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: