用python做动图,python控制图片移动
本文主要介绍如何利用Python AI让静态图片动起来,基于GAN的生成对抗网络实现了围绕主题动静态图片的效果。有一定的参考价值,有需要的小伙伴可以参考一下。
00-1010前言:1。运行项目2。Python API
目录
这种技术一般基于GAN(生成式对抗网络)。今天给大家分享一个开源项目,可以重现静态图片的移动效果,做一些有趣的项目,还可以记老朋友。
你在刷短视频的时候有没有刷过这样的视频?视频中,一个人物的静态画面是运动的,比如点头、眨眼。
类似于下面这种效果:
左边的图是原动作,上面有一张静止图片。通过AI技术,可以将最左边人物的动作应用到上面的静态图片上,让所有图片做出同样的动作。
这种技术一般基于GAN(生成式对抗网络)。今天给大家分享一个开源的项目,可以重现上面的效果,做一些有趣的项目,还可以记住老朋友。
前言:
项目地址:https://github.com/AliaksandrSiarohin/first-order-model
首先git clone在本地下载项目,进入项目安装依赖。
git克隆https://github.com/AliaksandrSiarohin/first-order-model.git
cd一阶模型
pip安装-r要求. txt
然后,在项目主页的预训练检查点标题下,找到模型下载链接,下载模型文件。有许多模型,我用vox-adv-cpk.pth.tar。
准备好模型文件后,在项目的根目录下执行以下命令。
python demo.py \
-config config/vox-adv-256 . YAML \
-驾驶_视频src _视频. mp4 \
- source_image src_img.jpg \
-检查点权重/vox-adv-cpk.pth.tar
解释下参数:
- config:模型配置文件,带- driving_video:视频提供动作- source_image:需要动画的静态图片- checkpoint:新下载的模型文件运行后,会看到如下输入。
这个项目用PyTorch搭建了一个神经网络,支持GPU和CPU,所以如果你的电脑只有CPU的话,运行速度会很慢。
我在CPU下运行。从上图可以看出,driving_video只有31帧。如果你也是靠CPU运行的话,最好控制好driving_video视频的时长,不然运行时间会很长。
有了这个项目,你可以自己做一些有趣的尝试。
1. 运行项目
以上教你根据官网在命令行运行项目。
有些朋友可能想在Python项目中调用,所以我提取了demo.py中的核心代码,封装了一个PyhtonAPI。
有需要的朋友可以下载这个文件,放在和一阶模型相同的目录下,按照下面的代码调用。
fom
#检查驱动程序视频。最好把驱动视频剪成480 x 640大小的视频。
driving_video=
#被驱动的画面
source_image=
#输出视频
result_video=
#驱动屏幕
fom.img_to_video(行车_视频,来源_图像,结果_视频)
关于如何用Python AI让静态图片动起来的这篇文章到此为止。关于如何用Python AI让图片动起来的更多信息,请搜索热门IT软件开发工作室之前的文章或者继续浏览下面的相关文章。希望大家以后多多支持热门IT软件开发工作室!
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。