2、AI配音是音也是“药”
据国外媒体报道,有研究表明,年迈夫妇可能因为一方丧偶而增大死亡率,这种现象被称为“心碎综合症”。这项研究由哈佛大学和威斯康斯大学麦迪逊分校的两位科学家负责,研究结果显示,男性丧妻后“全因死亡率”的概率增大了18%,女性丧夫后“全死因死亡率”的概率增大了16%。并且我们还可以做一个合理推断,在其他丧子或者丧双亲的情况下,这种“心碎综合症”的表现也一定存在,比如在唐山大地震和汶川地震之后。心理学家表示,要想修复这种创伤是非常困难的。但是人工智能配音的AI或许可以做到呢,它能够利用过去已有的音频合成亲人的声音,如果心理医生说的话能够用亲人的声音来传达,也许可以帮助病人更快地走出阴霾。
AI 配音在舞台上也会唱“黑脸”
但是,一切技术都是刀子的翻版,人工智能配音技术解决问题的同时也会引发新的问题,智能相对论(aixdlun)分析师杨苏颖认为,这项技术在广泛落地之前还要接受不少拷问。
1、AI盗用声音却能“无罪释放”?
手机里高德地图我们足够熟悉,但大家不知道的可能是其导航应用所采用林志玲声音其实部分是采用了人工智能配音技术后期合成的。那么大家可能觉得语音合成必须得提前去技术公司录制这样一段纯净的声音。
但是事实上,语音合成却对音频质量没有那么高的要求,利用海量的互联网音频也可以实现人声模仿。Google Research软件工程师发表论文《Looking to Listen atthe Cocktail Party》采用的全新视听模型可以在不同噪音之中,把重叠的人声分离出来,形成每一位说话者单独纯净的音频信号。同时,讯飞也提出以全自动无监督方法快速得到单个目标发音人的纯净音库。
之前伯明翰阿拉巴马大学的一项调查表明,如果给予AI的的信息足够多,它可以生成任何人以假乱真的图片或者视频。现在个人的声音已经越来越成为个人身份的标志之一,对个人声音利益的侵害也同肖像一样可能造成个人人格尊严和财产利益上的损失。我们知道明星的形象拥有肖像权,如果他们的照片被他人私自用作商业用途时,他们可以一纸诉状将别人告上法庭维护自己的肖像权。但是目前在我国立法界及学界对声音权的保护却仍无统一定论,如果个人的声音被别人盗用是没有法律能够对其进行保护的。
2、AI配音搅局声纹识别
大家可能听说过声纹鉴定,一般来说人的发声具有特定性和稳定性,虽不能说完全达到了指纹那样精确的程度,却仍然有越来越多国家已经把声纹鉴定作为辨认犯罪嫌疑人的重要手段。
文章TAG:生活