零分Trader

AI声音滥用现象调查:亲耳听到的未必真实,AI克隆声音引发争议

作者头像
分析师熊大 本文作者

2025-2-12 阅读 126 约 9分钟读完

评论0

我听到自己的耳朵是真的吗?未必。在Internet平台上,可以在任何地方看到AI声音。

从“ Zhang Wenhong医生”出售蛋白质棒视频中,“互联网”成为“互联网”,后来被自己“反击”,到多个配音演员,说他们的声音被AI被偷走了,并公开保护了他们的权利... “新华社的观点”记者进行了调查,并发现,随着人工智能技术的发展和语音模型的应用,AI合成的声音应用程序已经大量出现,并且可以在十秒钟以上的快速上“克隆”。同时,滥用人工智能声音变得越来越突出,不时引起争议。

AI语音滥用不时发生

一位记者搜索了“ AI克隆声音”作为简短视频平台上的关键字搜索,发现大量视频(例如名人封面,新闻广播和投诉)涉及AI声音,有些甚至显示了不雅的单词。许多视频都喜欢并评论了1000多个。 。

AI语音滥用事件不时发生,引起了人们的关注和讨论。

在社交平台上,有许多音频和视频通过AI模仿各个领域的名人。以前,在简短的视频平台上出现了许多视频,在该平台上,AI模仿了一位知名企业家的声音,抱怨诸如交通拥堵,休息调整和游戏之类的热门话题。有些视频甚至有发誓的话,这曾经成为热门搜索。然后,企业家发送了一段视频回答:“相关事件真的困扰着我,感到不舒服。我希望每个人都不会再玩'。”

当一些商人在短视频平台上出售商品时,他们使用AI模仿技术将锚定为著名的女性明星和著名的医生,出售服装,健康产品和其他相关产品,这些产品严重误导了消费者。国家传染病医疗中心主任兼福丹大学的纽约州医院传染病系董事张文洪在接受媒体的采访时说,通过通过语音综合模仿声音,这样的帐户“远不及他的声音。一个,它一直在变化。”我多次向平台抱怨,但被一再被禁止。

Pang Donglai的创始人Yu Donglai的声音经常被AI模仿,并且许多与事实不符的合成视频已经出现在相关平台上。 Pang Donglai交易小组为此发表了一份声明,称多个帐户使用AI技术来生成Yu donglai的声音,而无需授权并增加了误导性的文案写作,对公众造成了误导和困惑。

记者了解到,一些犯罪分子使用“ AI声音更改”模仿老人的孙子,并以“击败某人需要赔偿,否则他们将入狱”的理由欺骗了20,000元人民币的老人。在全国范围内发生了很多次欺诈案件,有些案件已达到数百万元。

中国社会科学学院互联网法治研究中心主任刘小子说,如果没有授权和标签,就使用其他人的声音制作AI语音产品,尤其是“借用”公众人物的声音,可以很容易引起误解,不仅会侵犯个人信息的安全性也可能破坏网络空间的生态和顺序。

声音是如何“被盗”的?

AI如何产生虚假和真实的声音?接受采访的专家介绍的是,AI可以“克隆”听起来主要依赖深度学习算法,也就是说,在短时间内从收集的声音样本中提取关键功能,包括频率,音调,音调,音调,语音,语音速度,情感等,并记录这些功能。它是一个数学模型,然后通过算法合成。

中国科学院自动化研究所的模式识别实验室的工程师Niu Shaodong表示,随着算法变得越来越先进,在高性能设备和高表演模型的支持下,由高表演模型(由高表演的模型)(由高表演的模型)(由语音内容)所产生。 AI已从两年前从“ One-eye Fake”升级到今天。 “很难说出关于虚假的真相”。

高级Geng Xiaocun最近听了在线音乐播放器上的几首封面歌曲。他一直认为这些歌曲是一位知名的女歌手的涵盖,但后来他得知它们实际上都是由AI合成的。 “声音是如此现实,以至于我从未怀疑它。” Geng Xiaocun说。

在过去的一两年中,AI的声音变得特别“流行”。 Tsinghua University新闻与传播学院的教授Shen Yang说,人工智能技术的普及大大降低了AI模拟声音的门槛。通过一些开源软件和平台,没有专业知识的普通用户可以操作它。

大量应用程序可以在AI中综合声音,最快的速度仅为十二秒。记者在App Store中搜索,发现有数十个相关的应用程序,下载量最高,超过数千万次。

记者联系了应用程序的客户服务人员,另一方表示,可以解锁198元人民币的付费成员。如果您对相机几次说“ 12345”,AI将根据声音生成各种内容的屏幕视频。在记者进行操作之后,他发现通过该软件产生的名人声音基本上是假的和真实的,并且不需要授权证明才能进入名人声音。

行业内部人士告诉记者,AI模拟器在互联网上“流行”,目的是追逐交通和货币化。由“克隆”名人声音制作的欺骗和好奇视频在相关平台上并不较低,甚至进行了热门搜索。出版商还将获得播放收入,例如交通敞口,风扇增长,广告收入等。

此外,“窃取”人们的声音也受到非法利益的驱动。 2024年7月发布的国家金融监管行政部门“防止新电信网络欺诈的风险警告”提到,犯罪分子可能会人为地综合音频和视频,例如名人,专家,执法人员等,并利用其身份来传播虚假信息,从而实现欺诈的目的。

采取多种措施来加强治理

使用AI产生其他人的声音是非法的吗?许多接受采访的专家说,个人声音中包含的语音纹理信息是可识别的,可以通过电子方式记录,可以与唯一的自然人相关联,是生物识别信息,并且是《个人信息保护法》中规定的敏感个人信息之一。

2024年4月,北京互联网法院在该国宣布了第一个“ AI语音侵权案件”,并清楚地证实,在可识别的前提下,保护自然人的语音权利和利益的范围可以达到AI生成的声音。法院法官认为,未经正确持有人许可,他人使用或许可在留声机录音中使用声音构成侵权。

近年来,相关的主管部门发布了法规,例如“生成人工智能合成内容的措施(评论草案),“关于互联网信息服务的深入综合管理法规”,“管理层的临时措施”生成人工智能服务等等,在一定程度上用于AI技术。绘制了红线。

诸如Shenyang这样的专家认为,关于人工智能的应用引起的谣言,侵权,犯罪,道德和道德问题,建议相关部门完善和改善相关规则,通过典型案件,司法解释提供更清晰的规范指导等等,并澄清法律和法规。边界。

中国科学院科学技术战略研究所主任潘·乔芬(Pan Jiaofeng)认为,有必要进一步加强人工智能的道德规范,提前部署人工智能风险研究,并预测人工智能技术的应用。

2024年12月,国家广播,电影和电视的网络视听部门发布了“管理技巧(AI魔术改革)”,要求严格实施生成人工智能内容的要求,并严格访问和监视在平台上使用和传播的各种相关技术产品。看,为AI生成的内容发出重大提示。

许多专家说,各种社交网络和简短的视频平台应增强他们对积极监督的认识,并迅速发现并处理可能涉及侵权的AI生成的作品;相关部门应继续增加努力打击非法和犯罪行为,例如使用AI技术进行欺诈。 ,形成更完整的归一化治理机制。

Niu Shaodong说,在AI时代,个人还应该更加关注保护其生物特征信息,提高其法律意识并抵制他人的侵权。

上一篇 特朗普政府取消邮政小包免税政策对中国出口的影响及行业分析 下一篇 默沙东HPV疫苗2024年销售额达85.83亿美元,中国市场下滑影响显著
评论
更换验证码