
人工智能迅速发展的同时配资行业资讯,其带来的安全隐患也被屡屡提及。近几年全国两会都在热议人工智能,也有代表委员本人深受AI“深度伪造”“换脸换声”的困扰。
人工智能迅速发展的同时,其带来的安全隐患也被屡屡提及。近几年全国两会都在热议人工智能,也有代表委员本人深受AI“深度伪造”“换脸换声”的困扰。
全国政协委员、演员靳东是AI换脸技术滥用的典型受害者。今年全国两会期间,他在回应红星新闻关于AI换脸乱象的问题时,用“很难”二字回应维权困境。对此,他呼吁对AI换脸立法。
据北京日报客户端报道,今年两会期间,谈到AI“换脸换声”,全国人大代表、小米集团创始人、董事长兼CEO雷军再次直言自己深受其害。他观察到,在去年两会他呼吁后,主管部门加大了打击力度,情况已经好一些了。
日前,红星新闻采访了相关专家和其他代表委员,向可能受害的公众支招如何识别AI伪造声音,也讨论了如何更好治理“深度伪造”。其中,对于人脸信息采集,全国人大代表,中兴通讯股份有限公司党委书记、高级副总裁苗伟呼吁严格落实“告知—同意”原则,制定人脸机器人技术安全标准,明确人脸数据处理与面容克隆的法律边界。
展开剩余77%▲苗伟
技术人员支招:
有检测技术,可以听整句是否过于流畅
科大讯飞研究院相关技术人员对红星新闻介绍,AI伪造声音用到的技术是语音合成,这门技术其实已经发展了很长的时间。最近几年,语音合成的追求已经从字正腔圆的播音腔,逐渐变成了更加贴近我们原本说话风格的真实感;同时,合成声音的效果也明显变好,语气、节奏、音色的相似度很高,基本上可以达到真假难辨的程度。而且对比起以前模仿源需要几十个小时的声音,现在只需要一句话甚至更短的音频。
但是,该技术人员指出,电话或视频这种实时的、有来有回的沟通交流,光有语音合成技术是不行的。在这种情况下,通常有两种可能:一是真人+语音转换,由人来控制沟通交流的内容和情绪,语音转换技术会实时输出需要的声音;二是通过大模型构建一个对话系统,提前输入人设等背景信息,并且根据预设诈骗话术生成回答,再由已经合成好的声音输出,让该对话系统进行沟通。
▲AI换脸
虽然AI伪造声音越来越像真人,但该技术人员指出,AI鉴别合成语音的技术也同样在不断进步。目前,反语音伪造的技术已经形成了比较成熟的体系,能捕捉合成出来的语音在频谱细节、相位、一致性上十分微小的“伪造之影”。有些手机就已经加入了这种通话语音合成检测的功能。不过,在真实通话的情景下,由于种种因素的叠加,这种检测可能会出错。
该技术人员还介绍了普通人如何辨别的一些技巧。“听对方说话时一个整句是否过于流畅。”正常人在电话、视频时,一般不会说很长的句子,而且会伴有停顿、语气词、口水词等等;目前的语音合成虽然达到了很逼真的效果,但整句还是会说得比较丝滑。如果听感上难以判断,那就和对方多聊几轮,每轮主动多提问、尽量把对话拉长,询问一些只有你和对方才知道的小事,看对方是否接招。如果对方频繁把话题拉回转账、收验证码,就要高度怀疑了。
他还支招,可以在对话过程中临时要求换设备联系,在挂断之后通过微信、电话、打视频等多个渠道进行核实,也可以联系对方的家人、朋友、同事等多方确认。
去年已开展整治AI技术滥用专项行动
全国政协委员、奇安信集团董事长齐向东接受红星新闻采访时表示,目前,深度伪造带来的网络诈骗等AI安全威胁激增。防范人工智能风险、加强人工智能安全治理,是确保数智社会健康有序发展的内在要求。
齐向东表示,让AI能被放心地用、大胆地用、可靠地用,要多措并举实现全链条治理。一是强化场景防护,把安全能力嵌入AI应用的全生命周期,做到纵深防御;二是立足AI技术迭代和场景落地需求,完善AI安全标准;三是明确合规红线,压实各主体安全责任,细化权限分级管控与内容审核机制;四是强化安全能力创新,鼓励人工智能领域的“硬科技”企业与网络安全厂商开展联合创新,针对性研发模型安全检测、数据隐私保护、鉴伪溯源等专属防护产品,让安全能力始终比安全风险快一步。
▲齐向东
据中国网信网2025年6月报道,中央网信办在全国范围内部署开展为期3个月的“清朗·整治AI技术滥用”专项行动,重点整治的突出问题包括:违规AI产品,如在未经授权同意情况下,克隆、编辑他人声音、人脸等生物特征信息,侵犯他人隐私;传授、售卖违规AI产品教程和商品,如传授利用违规AI产品伪造换脸视频、换声音频等教程信息,售卖违规“语音合成器”“换脸工具”等商品信息;未落实内容标识要求;利用AI假冒他人实施侵权违法行为,如通过AI换脸、声音克隆等深度伪造技术,假冒专家、企业家、明星等公众人物,欺骗网民,甚至营销牟利。
治理核心:
在于全面落实内容标识制度
北京汉华飞天信安科技有限公司总经理彭根接受红星新闻采访时表示,核心还是在于全面落实内容标识制度。在他看来,目前上位法相关规定已经到位,例如刑法已经规制了伪造他人的形象、声音、面容等实行诈骗、勒索的行为。现在需要的是细节制度落地成文。不过,从纯技术的角度来讲,对于想要绕过监管的黑灰产,很难完全强制他们进行标识,或者禁止出售这些技术工具。
我国自2025年9月起正式施行了《人工智能生成合成内容标识办法》,其中明确要求,所有AI生成的文字、图片、视频等内容必须添加显式标识以“亮明身份”,同时鼓励添加数字水印等隐式标识。平台企业应当依据《人工智能生成合成内容标识办法》,从源头嵌入标识机制,为AI生成内容附加不可篡改的数字水印,并确保这些标识在经过剪辑、压缩后仍能被准确识别。
对于检测和伪造技术的攻防,彭根指出,这也是一个“魔高一尺、道高一丈”的过程,一步一步互相制约,互相进步。
模仿伪造声音、人脸,需要数据来源。全国人大代表,中兴通讯股份有限公司党委书记、高级副总裁苗伟就从源头上加强人脸信息保护提出看法。
他注意到,近年来,国家高度聚焦人形机器人、服务机器人、新型机器人等产业领域发展,与此同时,越来越多个人信息主动或被动暴露于人工智能程序中,其中具有强烈人身专属属性的生物识别信息被大规模采集。因此配资行业资讯,他提倡严格落实“告知—同意”原则,制定人脸机器人技术安全标准,针对面容克隆的技术特性设置刚性监管要求。明确人脸数据处理与面容克隆的法律边界。同时,加快相关专项立法进程,构建全链条权利保障机制。
发布于:四川省金多多配资提示:文章来自网络,不代表本站观点。