p站动图提取器,p站图片查找器

  p站动图提取器,p站图片查找器

  前不久公司讨论了审计黄的问题,对接了一些厂商提供的审计黄服务。因为公司本身涉及音视频领域,对法医检验的需求很大。同时具有“好好学习,天天向上”的精神。我自己也想尝试和黄色有关的东西。我的同事也提出了开源库。对了,我知道。

  当然,我这么做纯粹是出于求知欲和好奇心。我绝对不知道什么优雅的香水,亮亮的手套,xldkh,Matsue Ohkubo,Aoi sora,wydws,dzdtn等等。是为了学习。嗯~是学习用的!

  请勿点击

  请在开始前了解一下“NSFW”。“NSFW”的意思是“工作不安全”,不适合工作场所。(嗯~也就是说不适合上班看……)雅虎的判断色情的开源模式。

  https://github.com/Yahoo/open _ nsfw

  它通过Caffe模型进行训练,主要区分恐怖、血腥、色情图像。

  快速启动

  虽然使用方法是在项目的markdown中引入的,但它可以通过简单的Docker点击来启动。可以直接去github看用法。

  docker build-t caffe:CPU https://raw . github用户content.com/bvlc/caffe/master/docker/CPU/docker文件

  是啊,当然。无法访问。提出假地址。那么,就只能选择其他方案了。

  自安装失败。未成功安装Caffe环境。国外环境几乎都是Ubuntu,国内环境都是CentOS。尝试n次。放弃吧!

  之后我找到了Tensorflow-nsfw的版本。

   https://github.com/mdietrichstein/tensor流-开放_ nsfw

  目前支持Python3.6和tensorflow 1.12。通过了相关测试。请仔细测试其他版本。尽量选择同一个版本。

  如果下载环境正常,可以直接通过

  python classify _ nsfw . py-mdata/open _ nsfw-weights.npytest.jpg

  进行测试。请注意,目前仅支持jpeg图像。

  结果为“test.jpg”的sfw分数:0.935576177177429 nsfw分数:0.200001

  NSFW分数是指被认定为不适合工作场景的分数。总体来说是10分。分数越高,图像越不适合工作场景。

  试验

  老实说,图像很难找到。特别是我,找不到任何评分在8分以上的图片。我用搜索引擎找了几张图片,个人认为会在8分以上。但结果是。

  苍老师

  T1级(一种通讯线路的名称)

  t2。

  t3。

  结果分数

  但是,计算结果还是违背了强者的意愿!

  结果

  以最终结果来看,由于本人“知识积累有限”,可能很难得到8分以上的图像。只能希望大家能给我启发。是啊,我知道。试试nsfw的实际识别效果!请告诉我分数在8分以上的地方。谢谢大家!

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: