设为书签 Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。 您也可下载桌面快捷方式。点击下载 | 新浪科技 | 新浪首页 | 新浪导航

1080Ti就搞定最新SOTA模型?一个普通研究生勇敢发毕业论文引起热议

2021-06-07 13:00:43    创事记 微博 作者:   
视频加载中,请稍候...

来源:新智元

大厂用成千上万张显卡训练的SOTA模型已经看腻了?这次我们来看看「小作坊」训练的模型如何。

慕尼黑大学的研究生做了一个Deep Fake模型,只用了300万个参数和一个1080Ti,搞定!堪比SOTA!

虽然作者是这么说的,但是从他发布的成果上来看,有些一言难尽。

由于样本只提供音频素材,所以声音还是样本的声音,听起来违和感简直要溢出屏幕了。好在不会出现像其他一些视频那样把整张脸贴上去那么搞笑。

网友用FakeAPP生成的视频

作者表示,和一些SOTA模型比,论文的方法除了具有较低的嘴唇同步误差,同时在图像质量方面要优于所有方法

从左到右依次是:原视频,文章的方法, Neural Voice Puppetry,Wav2Lip和Wav2Lip GAN

全连接网络就够了

模型基于3D可变形人脸模型 (3DMM),并具有 3D 面部的位置编码和从英语语音中提取的音频特征。

对于给定的语音,模型可以预测中性空间的RGB颜色和3D顶点位移。音频特征向量过滤的时间稳定性可以提供平滑的唇音同步。

文章表示,模型可以接受任意音频输入,并生成逼真的面部图像。

模型首先提取梅尔频率倒谱系数(MFCC)特征,音频的嵌入由Wav2Lip编码器生成。

然后,变形(deformation)网络输出人物面部形状的网格,且不受3DMM的限制,并在之后利用恒等函数对3D形状进行优化。

最后,由音频驱动的图像由颜色(color)网络输出。

为了将输出图像嵌入到背景中,需要单独训练另一个基于背景和先前输出的合成网络。

模型每个部分的输出,从左至右:变形网络、颜色网络、合成网络

再来一个例子,从左至右依次是:原始的视频,渲染后的视频,仅用于获取音源的视频。

网友表示:你这个不行啊

对于项目本身,评价基本是负面的。

「那么,这与在奥巴马的静音视频上播放音频的结果有什么不同呢?」

「奥巴马的嘴唇似乎并没有遵循着说话的轨迹」

不仅如此,对于DeepFake这类的研究,网友普遍对其伦理道德方面表示担忧。

「有时我想到这些技术是如何被滥用的,这让我对未来感到有点难过」

「它不仅会陷害无辜者,也会为有罪者提供合理的推诿」

所以你决定既要改进deep-fake,又要使用凯文-史派西(有道德污点)。你基本上是每个人工智能伦理学家最糟糕的噩梦。

这件事从另一个方面告诉我们,不要把自己的毕业论文发出来,难道来自导师的嘲讽还不够么😂

论文地址:

https://www.dropbox.com/s/o0hk73j1dmelcny/ThesisTUM.pdf?dl=0

参考资料:

https://zielon.github.io/face-neural-rendering/

(声明:本文仅代表作者观点,不代表新浪网立场。)

分享到:
保存   |   打印   |   关闭