- ·上一篇文章:OPPO吴强:专利在手心不慌,全系列产品覆盖欧洲市场
- ·下一篇文章:嫌疑人利用木马病毒窃取用户信息实施诈骗 伎俩曝光
纽约州立大学研究人员训练AI:检测“换脸”假视频
来源:cnBeta据外媒Techspot报道,人工智能(AI)的发展可能同时会带来好的和坏的后果。“Deepfakes”——一种在图像或视频中把一张脸替换成另一张脸的技术似乎属于后一类。然而,好消息是:纽约州立大学的研究人员已经训练人工智能来检测这些虚假的视频。人工智能和机器学习技术的发展始终存在伴随着道德问题,但近年来才变得更加突出。AI用于军事目的显然是一个问题,但正如我们最近看到的“ Deepfakes ” 的兴起一样,神经网络和人工智能可以用于更不明显的,而不是直接有害的目的。Deepfake通常指AI创建的虚假色情视频。这通常涉及对视频画面进行“换脸”,将名人或女演员变成了色情视频的主人公。因此,像Twitter、Discord和Pornhub这样的服务公司认为这个色情内容是“非通用的”,并选择将其从平台上删除。然而,色情内容并不是Deepfake技术可以传播的唯一视频形式。如果有足够的时间和技术进步,政治演讲可能被伪造,“假新闻”可能成为真正的威胁。不过现在纽约州立大学的研究人员可能已经找到了一种检测这种“人脸交换技术”的方法。研究人员训练人工智能通过密切监视眨眼来检测“Deepfake” ; 某些Deepfake剪辑不能可靠地复制,因为它们通常使用图像而不是视频进行训练。
纽约州立大学研究人员训练AI:检测“换脸”假视频