deepfacelab第七步换脸失败,deepfacelab手动切脸

  deepfacelab第七步换脸失败,deepfacelab手动切脸

  欢迎来到教程。不定期更新

  本文内容更新于2019年2月,本文最后一次更新时间为2019年3月、4月。

  欢迎参加小组讨论。我不是任性的手镯。对于每个QQ群号码的任性手环,请访问https://深fakes.com.cn/index.PHP/Funding升级组。

  这几天,朱茵的变脸事件成了热门话题,但这个违法问题在我们集团并不存在。但是由于网上的这件事,可以说两个团排到明年。

  任性的手环会在风波过后考虑新的群体。毕竟任性的手镯不想坐牢.

  邀请初学者自己探索学习。请不要付费入群。我看完就还。我不看那个,默默接受。(不过,你也不能入群)

  文章目录

  1.4换脸应用介绍

  1.单个软件概述

  1.链接到两个软件创建者的页面

  2 Deepfacelab初学者教程

  2.1下载deepfacelab软件包

  2.2开始换脸操作吧。

  2.3导出合成图像的选项

  请注意保留原始材料。

  4常见问题

  4.1 4个人需要多少面材?

  4.2如何使用手动定位识别人脸图案?

  4.3什么是模型?

  4.4模型应该使用哪种算法?

  4.5什么是批量?需要多长时间凝固?

  4.6模型已经训练好了,还能再改吗?

  4.7合成图像连接视频后,发现部分屏幕人脸抖动怎么办?

  我有其他问题。我怎么能问你?

  如果你觉得我的文章很棒,可以通过以下方式来夸我。谢谢你。

  1.4换脸应用介绍

  fakeappfaceswapopenfaceswapdeepfacelab

  1.单个软件概述

  1.链接到两个软件创建者的页面

  FakeAPP作者的网站很难找。最新版本不一定好。主要版本是1.1和2.2。链接到百度搜索

  在Faceswap GitHub中频繁更新,新版本与旧版本不兼容。使用时请小心。

  Openfaceswap作者论坛已经消失。点击它自动跳转到Deepfacelab的GitHub页面。

  有Deepfacelab GitHub的介绍,在介绍的最后有论坛的链接。可以下载集成环境版本。

  2 Deepfacelab初学者教程

  (建议使用Chrome浏览器后再开机。易于访问,有谷歌翻译。不管你是要下载什么,还是学习教程,翻译都是很有帮助的。)

  2.1下载deepfacelab软件包

  3359 github.com/I佩罗夫/DeepFaceLab介绍到文章的结尾,里面有一个俄罗斯论坛的链接。或者,请点击链接直接访问这个俄语论坛。https://rutracker.org/forum/viewtopic.PHP?P=75318742文章顶部介绍的内容下部有磁性链接。可能很难下载此磁链种子。我们小组也不定期更新新版本的种子文件。(我的彗星苦挂机好久上传BT长寿种子))))))。

  下载时有两个软件包:CPU版和普通版。玩NVIDIA显卡一般不需要下载CPU版本。如果显卡不能玩或者想试试,请下载CPU版本。

  一般桌面游戏级别配置的CPU速度是GPU的1/10左右。这大约是平均水平。请不要再回来喷我超过1/10。除非你能拿出比同价位显卡更快的数据。

  解压后可以看到Deepfacelab文件夹里有两个文件夹和很多bat批处理命令。请看我的介绍:

  上图是2018年6月左右的版本列表。新老版本的bat功能整体还不算太差。(2019年1月3日,作者更新了一个新算法。目前在群里的大神测试用处不大。

  另外,如果玩得开心,提前自己带一些也很方便。

  这些我自己选的排序部分,有一部分是自己修改bat的内容。记住,bat 批处理文件是可以修改的,文件夹里的只是送你的案例而已。

  2.2开始换脸操作吧。

  最近发现这篇文章被盗,所以在这里插入防盗信息。原帖不定时更新。https://blog.csdn.net/u 014575897/文章/详情/85272910

  软件两面的所有材料:

  也就是说,DST是原始的视频素材,是一个不改变身体和背景,只改变脸的视频。

  也就是SRC就是用的面材。

  叫做A和B的素材两边的软件一般都能切换方向,但是

  人脸交换APP的操作是根据SRC人脸相册计算MDOEL,放到DST序列图上,最后将DST序列图连接到视频上。

  /p新手操作流程:

  【手动】将DST视频放入“workspace”文件夹,命名为“data_dst”(后缀和格式一般忽略)。

  以下步骤的文件目录都在workspace下,比如“workspace\data_src”,我就省略为“data_src”

  【手动】将SRC资料(明星照片,一般700~1500)放在“data_src”下。

  【bat】将DST视频分解成图片(需要全帧提取,即全FPS)。你会在bat序列号3.2的“data_dst”下看到分解图。

  [bat]识别DST素材的人脸图片。bat号有DLIB和MT两种分解方式,一般推荐DLIB。自己找出具体的区别,不要拿手动和调试在后面。一个是手动,一个是调试。

  [bat]识别SRC素材的脸图。bat号的具体操作与步骤4相同。

  [手动]在步骤4和5中识别和对齐的面材料在“data_DST\aligned”和“data_SRC\aligned”中。你需要删除这些不正确人脸识别的内容,否则会影响模型的训练结果。如果人脸图极小或者翻过来,基本判断为识别错误。不过需要注意的是,DST脸超过了图中脸的一半。

  在删除SRC错误面图之前,可以使用bat序列号4.2系列排序。直方图排序和人脸方向排序可以很容易地找出错误的人脸。这是高级内容,教程没有给,需要自己百度翻译。

  [bat]现在有了DST的序列帧(图片)素材和SRC的人脸(图片)素材,就需要跑模型训练了。bat序列号6也有很多种型号。目前建议新手直接运行H128的机型(除非你显卡差,那就运行H64)。其他MDOEL算法请看GitHub上的介绍。

  运行模型可以被中断。在预览界面按回车键,软件会自动保存当前进度。MDOEL文件在“模型”文件夹里,不同模型的文件名不一样。建议定期备份模型,建议SRC指定专人专用模型。

  [bat]以上模型如果是第一次运行,可能需要10个小时才能得到合理的效果。培训结束后,请运行模型以导出复合图。bat序列号7在这里,根据你的型号类型运行就可以了。

  这里会出现一个问题,就是软件会在DOS界面给你很多选项。请参见下面的“导出复合图的选项”。.

  【bat】导出图片后,你需要把它们变成视频,那么运行bat number 8就可以了,这取决于你想要的最终格式。

  2.3导出合成图像的选项

  所有选项直接回车使用默认选项注释。

  第一个问答是问你想要哪种合成模式,可以理解为:

  1.普通的

  2.普通直方图匹配

  3.无缝(默认)

  4.无缝直方图匹配

  可能每个视频需要不同的效果。总的来说,我个人推荐使用:1普通

  第一个问答之后,后面还有一堆问题,具体作者讲解:

  传出图片的位置为“workspace\data_dst\merged”

  初学者可以不调整这些参数,但如果不调整,结果很可能不尽如人意。

  调整这个?恭喜你,你已经突破新手限制了。Deepfacelab的参数调节能力优于其他三款。

  请保留原始资料。

  不管是哪个软件,都建议在流程结束后复印出来,分类保存:

  SRC材料(无论是正面还是原始)

  模型(丢了就浪费10个小时)

  4常见问题

  4.1需要多少面材?

  DST:尽量不要少,因为有限,需要更换。

  SRC:根据各种软件的脸屏规则和网上大神的建议,一般来说,SRC的脸数在700 ~ 3999左右。和Deepfacelab的作者一样,他认为1500就够了。对于SRC来说,各种角度、表情、灯光的内容越多越好。非常接近的材料没有用,会增加训练负担。

  4.2如何使用手动对齐识别人脸模式?

  回车键:应用当前选择区域,跳转到下一帧未识别人脸的位置。

  空格键:跳到下一帧没有人脸被识别的地方。

  鼠标滚轮:识别面积框,向上滚动放大,向下滚动缩小。

  逗号和句号(将输入法切换到英文):上一帧和下一帧

  问:跳过这个模式

  说实话这个功能极难用,画面还是太大了…

  4.3什么是模型?

  模型是人工智能根据各种线条或其他奇怪的数据随机生成的呈现的虚假数据,就像PS填充中的“智能识别”。

  你可以从https://affinelayer.com/pixsrv/.的这个网站上体验一下什么是模型欺诈

  4.4模型用哪种算法好?

  各有千秋。一般Deepfacelab只要用H128就可以了。其他算法可以在GitHub上写的官方介绍中找到:https://github.com/iperov/DeepFaceLab.

  4.5什么是批量?你想把它设置成多大?

  批量大小的意义大概是一批训练多少图片素材,一般设置为2的倍数。数字越大,需要的显存越多,但迭代频率会因为处理内容更多而降低。一般在Deepfacelab中,不需要手动设置,默认会设置显卡适配的最大值。

  根据网上的内容和我的实际测试,在我们64尺寸和128尺寸的变脸操作中,越大越好,因为最合理的数值远远超出了目前所有民用显卡的承受范围。

  建议新手自动或从大值开始递减,直到能正常运行(如128643216……)。具体操作方法是在模型训练的球棒上加一行:

  @ echo off call _ internal \ setenv . bat % python _ executable % % opendeepfacswap _ root % \ main . py train ^-training-data-src-dir % workspace % \ data _ src \ the aligned-training-data-dst-dir % workspace % \ data _ dst \ aligned-model-dir % workspace % \ model-h128 pause上面是原版本,还有一行“batch-size?”需要补充。不要忘记前一行中的" ",如下所示:

  @ echo off call _ internal \ setenv . bat % python _ executable % % opendeepfacswap _ root % \ main . py train ^-training-data-src-dir % workspace % \ data _ src \ the aligned-training-data-dst-dir % workspace % \ data _ dst \ aligned-model-dir % workspace % \ model-h128-batch-size 4 pause 4.6模型已训练完毕。可以换材料再用吗?

  在DST材料中:

  当然可以!并且强烈推荐复用。

  新建的模型10个小时左右就会有一个好的结果,然后换其他DST材料只需要0.5~3个小时,前提是SRC材料不能换。

  更换SRC材料时,您需要考虑:

  第一种方案:模型重用。无论DST或SRC是否改变,所有人脸的内容都会放入模型中进行训练。结果训练的很快,但是越训练越乱,越觉得导出的脸不太像SRC。

  第二种方案:新建一个模型,重新开始(也就是给模型指派一个专门的人)。请先把模型剪下来,然后把文件夹分类。这个操作可以合成一个更像SRC的情况,但是每次重启10个小时会很累。

  第三种方案:结合前两种,先练习模型的轮廓,然后临摹。每个型号用每个SRC面都不错。

  4.7合成画面连接成视频后发现部分画面出现面部颤抖怎么办?

  我的想法是:用其他软件放大DST视频,然后重新操作。因为逻辑分析,放大屏幕后,软件识别偏移量的步长比会更小。

  我有其他问题。我怎么能问你?

  不,你不要问问题。你问问题,我不能马上回答你,甚至有时候懒得回答。

  欢迎参加小组讨论。我不是任性的手镯。请看任性手环的QQ群号:https://deepfakes.com.cn/index.php/资助升级群。

  我会找出群内新手的共性问题,然后更新到这篇文章里,给之后的新手一些帮助。

  如果你觉得我的文章很优秀,可以通过以下方式奖励我。谢谢您们。

  注意事项:

  上面的链接页面包含任性手环的Q群号和支持开群的二维码。

  下面是打赏我的二维码(我不是任性手环)

  任性手环设置奖励模式的原因是:任性手环开通2000人的群需要成为QQ会员。但他不想实行付费入群的机制,只能希望群友自愿捐一些。(其实任性手环建的网站也需要很多钱,而且他已经做公益了)(这也是最近两个月第一组爆满的原因之一,排了好几个星期的队都进不去)

  这几天朱茵在杨幂变脸事件闹得沸沸扬扬,我们团不存在这种违法问题。但是,因为网上这件事,有两批人已经排到明年了。

  任性手环的意思是等风暴过去再考虑新的群体。毕竟任性的手镯不想坐牢.

  请自行学习,不要加群奖励。看到了会退,没看到会默默接受(但你还是不能入群)。

  原始链接

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: