retinanet代码,retinanet网络结构详解
运行retinaNet代码pytorch的过程和那些坑写在前面。1.本文记录了作为初学者(或者什么都没有)复制yhenon的pytorch-retinaNet代码的全过程,以及遇到的各种问题。文中引用了大量别人的博客或文章,并给出了详细的网址,供评论和学习参考。
2.到目前为止,对于retinaNet,我个人觉得是对我的理解最有帮助的文章:
网站:https://blog.csdn.net/qq_43284847/article/details/98472472
3.后期可能会有一些更新。请查看以下网址:https://www.yuque.com/yanyu-thlhi/en60s1/nyyi2f
一、复制步骤第一步:下载源代码下载retinaNet代码。网站地址如下:https://github.com/yhenon/pytorch-retinanet
下载后放在一个项目里。
第二步:下载包(默认情况下在新环境中执行以下命令)1 .建立新的环境。首先,在anaconda的控制台下建立一个新环境:
输入命令创建新环境。
Conda env list #查看现有环境Conda create-name your_env_name #创建一个名为your_env_name的新环境#输入创建的新环境conda deactivate #退出环境conda命令,从以下URL开始安装anaconda:https://www.jianshu.com/p/742dc4d8f4c5.
2.安装pytorch方法1:在上述环境中输入命令:
a cond install pytorch vision cuda toolkit=10.1-c py torch注:(1)此命令来自py torch官网,其官网地址为https://pytorch.org/get-started/locally/.
(2)第一次正常安装会比较慢。安装过程请参考以下文章:地址:https://www.yuque.com/yanyu-thlhi/aro3o2/xw9rwr.
3.安装其他包方法一:在pycharm中点击(代码旁边红色错误警告:一盏灯的形状)可以直接下载安装。
稳定流:在控制台(anaconda可以进入环境或者pycharm下的终端),通过
Pip包名#或conda安装包名4。安装coco数据集的包(这是个坑)。这个的安装花了很长时间。
注意:pip安装和conda安装都失败了。据我们了解,是这个数据集的作者明确表示不会开放windows的使用。但是也有人在git上写了windows的应用,网址如下:https://github.com/philferriere/cocoapi,如何使用在这个下面有描述,但是我尝试了上面的方法都失败了(不过不一定会失败,我的一些同学也尝试过,按照git给的方法直接安装就可以成功),我在网上尝试了很多方法,都失败了,但是有一种是可能的。URL如下:http://www.mamicode.com/info-detail-2660241.html.下面给出了可能的解决方案。#git独创的在线安装方法(要求windows已经安装了visual c build工具,#但是我连安装都不会,可以先试一下命令吗?)pip安装githttps://github.com/philferriere/cocoapi.git #子目录=pythonapi #我的解决方案#(1)直接从URL下载coco文件放入项目文件夹,或者使用以下命令:#最好在pycharm的终端输入,目的是使项目文件中的文件Git克隆https://github.com/pdollar/coco.git CD Coco/Python API #(2)控制台操作:Python setup . py build _ ext-in place Python setup . py build _ ext安装在控制台第一个名字执行后可能出现错误,使用以下方法:如果报错,如果是cl:命令行错误D8021:无效数值参数"/Wno-cpp "和cl:命令行错误D8021:无效数值参数"/Wno-unused-function ",不用担心,打开上面的setup.py文件直接删除这两个参数即可:
然后根据上面两条命令运行它。安装完成后,您可以再次添加删除的代码。
第三步:下载coco Dataset coco Dataset的官方链接可以直接使用,但是用chrome下载的时候网速几乎为零,根本不动。但是,coco数据集非常大。后来找到了解决办法,用迅雷下载,这样基本上就可以正常网速下载了。以下是Coco数据集2017的链接:
(1)火车2017:http://images.cocodataset.org/s搞怪睫毛膏PS/火车2017。古怪的睫毛膏p。
(2)Val 2017:http://images.cocodataset.org/s滑稽睫毛膏ps/val2017。搞笑睫毛膏p。
(3)2017年测试:http://images.cocodataset.org/s滑稽睫毛膏ps/test2017。搞笑睫毛膏p。
(4)2017年列车运行期:http://images.cocodataset.org/annotations/annotations _ 2017年列车运行期。滑稽睫毛膏p
(5)Trainval 2017:http://images.cocodataset.org/annotations/stuff _注解_ trainval 2017。滑稽睫毛膏P
(6)图片_信息_测试2017:http://images.cocodataset.org/annotations/image _信息_测试2017。滑稽睫毛膏P
下载,解压,放入coco文件夹。
第四步:按照git给出的方式运行训练coco数据集的命令。在pycharm终端下运行以下命令:
python train . py-dataset coco-coco _ path.可可-深度50 1。错误:ImportError:无法从“pil”导入名称“pill _ version”(e:\ Anaconda \ lib \ site-packages \ pil _ init _。py)
原因:torchvision在运行时调用PIL模块的PILLOW_VERSION函数。但是Pillow 7.0.0之后的PILLOW_VERSION版本已经被移除,Pillow 7.0.0之后的版本使用__version__函数,而不是PILLOW_VERSION函数。解决方法:打开最后一个文件链接,定位错误,用__version__函数替换PILLOW_VERSION函数。网站:https://blog.csdn.net/Lee_lg/article/details/103901632
2.Modulenotfounderror:没有名为“pycocotools”的模块(在实际安装的情况下)解决方案:重新安装。
3.正在下载。pth文件太慢地址:https://download.pytorch.org/models/resnet50-19c8e357.pth
解决方法:用迅雷按照网址下载,然后放在train的同名文件夹里。4.路径不存在:E:\ py-learn \ py torch-retina net \ coco \ images \ Train2017原因:数据集train 2017直接放在coco目录中。解决方案:只需更正目录。5.错误:断管错误:[errno32]断管参考网站:https://blog.csdn.net/qq_33666011/article/details/81873217
原因:该问题是windows中多线程导致的,与DataLoader类相关的解决方案:调用torch.utils.data.DataLoader()函数时修改num_workers参数,将num_works参数修改为0,只启用一个主进程加载数据集,避免windows中的多线程。注意:将num_works设置为0可能对速度有很大影响,建议尽量设置小一些。6.提示:CUDA内存不足可能导致:batch的值较大。解决方法:将batch的值设置的小一些,但是当batch更小时,会影响迭代和io,从而影响整体速度(并且影响很大)。2.代码分析。1.获取数据集,transform()函数和rrsizer()、augmenter()、normalizer(),其中transform:Python中的图像数据读入numpy数组,一般是NC hanns x h x w,常规的做法是使用Dataset中的Transform对数据进行变换,输出torch类型的数组。
在目标检测中,通常对图像进行缩放以满足某些要求。详情请参考之前的博客。也就是实现一个Resizer()的类进行变换。此外,图像通常是标准化的和水平变换的。所以在实现Dataset的时候要实现三个转换:Resizer()、Normalizer()和Augmenter()。
详情请见网站:滑稽睫毛膏-王/p/9972102.html
2.DataLoader()和AspectRatioBasedSampler()
AspectRatioBasedSampler()函数:位于dataloader.py文件中:
该函数的目的是将batch_sample参数传递给DataLoad()函数,因此在下面的DataLoader()函数中引入了它的内部参数。
采样器(采样器,可选):定制从数据集中采样的策略。如果指定了此参数,shuffle必须为False。
Batch_sampler(sampler,可选):类似于Sampler,但是一次只返回一个批次的索引(indexes)。应该注意,一旦指定了这个参数,就不能再公式化batch _ size、shuffle、sampler、drop _ last(互斥,3354)
DataLoad()函数:首先简单介绍一下DataLoader,它是PyTorch中读取数据的重要接口。这个接口是在dataloader.py中定义的,基本上只要模型经过PyTorch训练就会用到(除非用户重写……)。该接口的目的是根据批量大小、shuffle等将用户定义的数据集打包成批量大小的张量。为了以后的训练。
官方DataLoader的解释是:“数据加载由数据集和采样器组成,基于python的单进程和多进程迭代器处理数据。”请参考迭代器和迭代器的区别和概念。实现上的区别是迭代器有_ _ iterator _ _和__next__方法,而迭代器只有_ _ iterator _ _方法。
DataLoad()的参数介绍:dataset(数据集):传入数据集batch_size(int,可选):每批有多少个样本shuffle(bool,可选):在每个历元的开始,重新排序数据采样器(sampler,可选):自定义从数据集中采样样本的策略。如果指定了这个参数,那么shuffle必须是false batch _ sampler (sampler,可选):类似于sampler,但是一次只返回一个批次的索引(indexes)。需要注意的是,一旦指定了这个参数,那么batch _ size,shuffle,sampler,drop _ last就不能再公式化了(互斥,——) num _ workers (int,可选):这个参数决定了有几个处理数据加载的进程。0表示所有数据都将被加载到主进程中。(默认值为0) collate_fn(可调用,可选):pin_memory (bool,可选),一个将一个列表的样本合并成一个小批量的函数:如果设置为True,那么数据加载器会在之前返回它们,将张量复制到CUDA中的固定内存(CUDA pinned memory)中。drop_last (bool,可选):如果设置为True:这是最后一个未完成的批处理。例如,您的batch_size设置为64,一个epoch中只有100个样本。然后最后的36个会在训练的时候扔掉…如果为False(默认),会继续正常执行,但是最后的batch_size会小一些。超时(数字,可选):如果为正数,则表示等待从工作进程中收集批处理的时间。如果超过设定的时间还没有收集,则不会收集该内容。该数值应始终大于或等于0。默认值为0 worker _ init _ fn(可调用,可选):如果不是none,则在查找之后和数据加载之前,将在每个worker子进程上调用该值,并将worker id(一个int in [0,Num _ workers-1])作为输入。(默认值:无)详情请参考https://www.cnblogs.com/ranjiewen/p/10128046.html.
注意:训练神经网络的三个基本概念:历元、批处理、迭代。网站:https://zhuanlan.zhihu.com/p/29409502
焦点:https://blog.csdn.net/qq_39521554/article/details/84480429
3.3.retinaNet包下的model.resnet
三。模型1.retinaNet模型图
第一步:resnet模型,减少网络深度增加带来的梯度消失的负面影响。
第二步:FPN模型,整合不同的维度特征。
步骤3:子网划分、分类和回归以获得一系列锚点。
第四步:焦点丢失,分析错误,减少“极度不平衡类别”的负面影响。有待完善。
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。