
研究发现AI与真人声音难以分辨 需谨防被骗
The Epoch Times
可能有不少人认为,人工智能(AI)生成的说话声听起来很不自然,就像语音助理Siri或Alexa一样。但英国的研究发现。AI技术已经发展到能让其仿制的声音酷似真人声音,一般人难以分辨。这引发了人们对不肖分子利用AI仿制声音从事诈骗等犯罪活动的担忧。
英国伦敦玛丽王后大学(Queen Mary University of London)在上个月发布的新闻稿中指出,该校心理学资深讲师拉班(Nadine Lavan)表示,AI生成的声音如今已遍布我们身边。我们都曾与苹果公司的Siri或亚马逊公司的Alexa对话,或让自动客服系统接听电话。
拉班说:“这些声音听起来不太像真正的人声,但AI技术开始产生自然、类似人类的语音只是时间问题。我们的研究表明,这个时刻已经到来,我们迫切需要了解人们如何看待这些逼真的声音。”
由拉班主导的研究团队将真人的声音与两种不同类型的合成声音进行了比较,这两种合成声音均由最先进的AI语音合成工具产生。
其中一些合成声音是从真人的录音中“克隆”(复制)而来,其目的在模仿真人的声音;另一些合成声音则由一个大型语音模型生成,没有模仿特定的人。
研究人员给参与者听80种不同的声音样本(40种AI生成的声音和40种真人的声音),并要求他们标明哪些是真实的,哪些是AI生成的。
就平均而言,只有41%、由语音模型生成的AI声音被误认为是人类声音。这表明在大多数情况下,人们仍然可以将它们与真人的声音区分开来。
然而,从真人的录音中仿制而来的AI声音大多数(58%)被错误地归类为人类声音。只有62%的真人声音被正确归类为人类声音。
研究人员因而得出结论说,人们在区分真人声音和仿制的AI声音的能力方面没有统计上的差异。换言之,一般人难以分辨真人声音和AI仿制的声音。
More Related News




