随着人们对女演员拉什米卡·曼丹娜和卡特里娜·凯夫的深度造假视频在社交媒体上传播的担忧日益加剧,德里警方周二呼吁公众不要宣传这类视频,并分享了一份如何保护自己免受网络犯罪侵害的指南。
与此同时,该中心还向社交媒体公司发布了一份建议,重申了指导方针以及在违规情况下采取的行动。电子和信息技术部(Meity)在一份声明中表示:“该中心今天向重要的社交媒体中介机构发布了一项建议,以确保进行尽职调查,并做出合理努力,以识别错误信息和深度伪造,特别是违反规章制度和/或用户协议规定的信息。”
什么是深度假视频?
Deepfake视频是利用人工智能(AI)技术制作的,其中任何人的脸/声音都可以被另一个人的脸/声音取代。犯罪分子经常利用这种技术进行网络诈骗。
人工智能、Photoshop、机器学习等在线工具已被广泛用于制作深度假视频、剪辑和其他极具说服力的假内容。
如何识别深度假视频?
根据德里警方的说法,这就是你如何识别深度伪造视频的方法
- 检查一下不自然的面部表情压力,不匹配的口型或bl署名违规行为。
- 听音频,检查音调、音高或不自然的语言模式的变化。
- 寻找视觉扭曲,模糊,模糊持续的照明和不寻常的背景。
- 核实视频的来源。如果你认识这张脸,就打电话离开与对方确认。
如遭遇网络诈骗,可致电网络罪案热线1930或在cybercri.gov.in登记投诉。
政府的反应
该中心的反应是在社交媒体平台上流传的一段深度伪造的曼丹娜视频遭到几位政客和名人的批评之后。网友称这段视频被篡改了,真实的视频是一个住在英国的印度裔人拍的。
信息技术部在咨询中指示,社交媒体公司应在2021年信息技术规则规定的时间内迅速对违反规定的内容采取行动,并要求用户不要托管此类信息、内容和深度伪造。
声明称:“在报告后36小时内删除任何此类内容,并确保在2021年IT规则规定的时间范围内迅速采取行动,并禁止访问内容或信息。”
拉什米卡说“真的很疼”
周一,曼丹娜对自己走红的深度造假视频做出回应,称技术被滥用“非常可怕”,而她在《再见》中的合作演员阿米塔布·巴赫坎则呼吁采取法律行动。
她还在Instagram上表达了自己的担忧,称看到这段视频“真的很受伤”,视频中,一名女子穿着黑色的健身服在电梯里。她的脸是用人工智能(AI)编辑的,看起来像曼丹娜。
“分享这一点我真的很伤心,不得不谈论我在网上传播的深度虚假视频。这样的事情真的非常可怕,不仅对我来说,而且对我们每个人来说,今天都很容易受到如此多的伤害,因为科技被滥用了,”这位演员写道,她以出演《Pushpa》、《Mission Majnu》和即将上映的《动物》等电影而闻名。
(由廉政公署提供资料)
本文来自投稿,不代表牛批号立场,如若转载,请注明出处:https://cn.wwwhere.cn/uncategorized/202501-10014.html