微软团队发布名为“VALL-E”的AI语音合成模型。
国内互联网平台
已出现人声克隆音视频
南都大数据研究院监测发现,随着AI技术应用门槛不断下降,近期国内部分互联网平台也有网民发布基于明星语音素材训练而成、几可乱真的AI音视频。
已故艺人、当红歌手、游戏角色……不少知名人物的人声克隆作品已在互联网上公开。
在哔哩哔哩等互联网平台上,南都研究员发现不少网民已利用Sovits4.0、DiffSinger等开源AI项目制作以人声克隆为主题的音视频。这些音视频主要通过提取一个特定真人的声音作为训练数据,让AI模型习得其声线,实现歌曲翻唱等目标。从平台搜索结果可以看到,相关音视频涵盖已故艺人、当红歌手、游戏角色等多领域的人物声音。部分网民也在相关音视频的评论区表达对这类AI技术的担忧。
有网民担忧AI技术可能被用于突破声纹识别、电话诈骗等场景。
防范建议:
控制社交媒体可见范围
与亲密联系人约定“关键词”
面对利用AI人工智能等新型手段的诈骗,公安部网安局2021年初曾提出三点防范建议:
多重验证,确认身份。在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。
保护信息,避免诱惑。加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
相互提示,共同预防。做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
McAfee也在其调查报告中针对AI语音诈骗提供了一些防范建议。
在防范被提取声音数据方面,McAfee建议网民在社交媒体分享内容时,考虑通过隐私设置将可见范围限制在朋友和家人身上:社交媒体内容的可见范围越广泛,信息泄露的风险就越大。
在防范AI语音诈骗方面,McAfee建议公众与家庭成员等亲密联系人约定一个“关键词”:一旦出现不同寻常的求助信息,可以用关键词来确认对方是真人还是AI语音。此外,公众对任何来电都应该保持理性,可通过询问具体信息、回拨号码等方式确认来电者身份,切忌因一时激动而盲目采取行动。
出品:南都大数据研究院 数据安全治理与发展研究课题组
采写:南都研究员 李伟锋