视频造假技术升级,或可打造完美不在场证明

视频造假技术又升级了,或许完美的不在场证明得靠着技术。来自纽约大学的技术团队实现上传人物视频与场景照片,就能把目标人物自动P到目标场景。最离谱的还是新技术能准确识别照片中的环境光以及光源的位置,让人物在场景中动作时能和环境光有逼真的互动。而在以往,把人物直接扣进去,得到的大概率是影像因为和环境光格格不入,而使用新方法能让人物完美融入任何场景。某种程度上来说,制造视频不在场证据的门槛极速下降。具体来看,开发者团队研发了switch lag框架,这是一个结合物理驱动架构及预训练框架的人类肖像重照明方法。为了让效果更逼真,团队引入了COTORS这一物理基础反射模型,比老方法使用的phone模型更精确,并且设计自监督预训练策略,克服高质量光舞台数据稀缺的限制,扩大训练数据集。这也意味着这个技术有着更强的泛用性,就是基本上你上传任何图像,它都能很好的识别环境光并进行视频处理。并且经过算法训练之后,他们的人物提取技术支持用户从单个图像中提取反照率、法相、深度、粗糙度、镜面反射和照明,也就是说生成的视频还具有逼真的景深效果以及前后关系。不敢想象,以后各类假博主的打卡视频甚至可以借用此技术量产。
在当今数字化时代,视频造假技术愈发复杂。纽约大学团队的新技术令人咋舌。它能依据环境光精准P图,让人物与场景完美融合,制造不在场证明变得轻而易举。这一技术通用性强,任何图像都能处理。为避免被假视频误导,大家务必提高警惕,仔细甄别视频的真实性。比如,查看视频中人物与环境光的互动是否自然,有无违和感。只有这样,才能在这个信息繁杂的时代,不被虚假视频蒙蔽双眼,保护自己不受欺骗。
视频造假技术,纽约大学,环境光,人物P图,泛用性
[Q]:纽约大学团队的视频造假技术新在哪里?
[A]:能上传人物视频和场景照片自动P图,还能精准识别环境光等。
[Q]:新技术如何让人物融入场景?
[A]:通过准确识别环境光及光源位置,使人物动作与环境光逼真互动。
[Q]:switch lag框架是什么?
[A]:是结合物理驱动架构及预训练框架的人类肖像重照明方法。
[Q]:COTORS模型有什么优势?
[A]:比老方法的phone模型更精确,让效果更逼真。
[Q]:新技术的泛用性体现在哪?
[A]:基本上能识别任何图像的环境光并进行视频处理。
[Q]:人物提取技术能提取哪些内容?
[A]:能提取反照率、法相、深度、粗糙度及镜面反射和照明等。
[Q]:视频造假技术升级会带来什么影响?
[A]:制造视频不在场证据门槛下降,假博主打卡视频或可量产。
[Q]:如何应对可能出现的假视频?
[A]:提高警惕仔细甄别,查看人物与环境光互动是否自然。
share