为恶大过向善,AI换声你几时才能“为善而用”?

2019-09-10 16:45 来源:智安物联网

莫名来电,清晨惊魂

据网易新闻报道,9月5日杭州一位赵先生找到记者,他讲述了一件比较奇怪的事情,据赵先生反映,他父亲因为身体原因于8月25日在老家去世,当时赵先生正在杭州上班。家人打电话通知他父亲去世以后,赵先生急忙请假准备回老家。

就在赵先生收拾行李的时候,赵先生接到了一个不认识号码打来的电话。据赵先生反映,电话里的声音和他父亲的声音很像,对方说话的口气就像是他父亲,一直在电话里呼喊赵先生的小名,并且让他快点回家(此时赵先生的父亲已去世三个多小时)。

而接下来的返乡之路并不顺畅。在接下来的4天里,他每天早上6点都会接到那通“父亲”打来的电话。电话中对方也没说其他的事情,就是一个劲地呼喊赵先生的小名,并让他赶快回家。

据赵先生事后回忆,对方打过来的4通电话中,所说的内容都不同,因此他判断这不是录音。之后办完父亲的丧事后,他越想越觉得奇怪。但也只能初步判断这是网络电话,被重新编辑过,其他的一无所知。目前赵先生已报警,警方正在调查之中。

究竟是“鬼神”还是“人祸”?

经判断一个理论是否成熟、是否科学要经“能否重现原有理论的结果”;“能否解释与原有理论矛盾的结果”;“以及能否作出新的、可供检验的预测”这三大标准判定。由于无法验证,也无法预言如何验证,"鬼是存在的“不是科学理论,也不是科学假说,而是个人假说。 

f2ddddc1ce5440d1b72ba4fc093a94ce.jpg

为恶大过向善,AI换声你几时才能“为善而用”?

同时就本次事件来看,与其说是“怪力乱神”不如说是AI为我们又一次敲响了警钟。因为通过技术手段是完全可以进行这种“疑似鬼神来”的操作的。

先从网络电话说,虽然我国工信部在规范网络电话,无IP地址的电话都被作为非法流氓软件禁止上架,但是依然有一部分非法软件在一些别有心机的不法分子手中流通。而这些网络通信工具,是可以篡改电话号码归属地信息的。

至于赵先生反映,电话里的声音和他父亲的声音很像,对方说话的口气就像是他父亲,这点对于现阶段的AI技术来说也并不难。其实百度早在18年的3月份曾经宣布,百度开发的新 AI 算法Deep Voice可以通过3.7秒钟的录音样本数据就能完美的克隆出一个人的声音。Deep Voice是百度AI研究院一个由深度神经网络构建的高质量语音转(TTS )系统。除了利用少量样本克隆声音外,系统还能将女性声音转变成男性,英式声音变成美式。

而今年年初,“总统洋葱新闻”在Youtube和Reddit上引发了一波讨论。视频中,特朗普用它一贯懒散的声音播报了一组耐人寻味的新闻——“数据雨”。虽然其内容十分荒唐,但整个视频中的声音效果非常真实,而这个声音仅仅只需要登陆一个网站就可以一键生成。对于想定制声音的用户,只需要官网给出的联系方式联系作者就可以了。

难以想象?AI换声危害其实早已显现

是不是感觉很难以置信?但是事实还不止如此。美国一家网络安全公司赛门铁克表示,已经发生了至少三起对私营企业成功的音频诈骗,都是将自己伪装成 CEO 的声音要求财务进行紧急汇款。这三起诈骗让每家公司都损失了数百万美元。

然而目前并没有非常好的方式去监测这些造假音频,因为技术的越发成熟,这些Deepfakes 的音视频制作正在变得越来越容易,同时破绽也越来越少。但绝大多数企业都对此没有准备。更糟糕的是,从行业上说,目前来看尚没有高效的检测和抵御解决方案。甚至随着技术的进步,AI技术已经越来越成熟而破绽也越来越小。而令人担忧的是,以现有技术来看,没有一种技术能在短时间内针对这些虚假信息来做一个快速、准确的判断。

可见当前的AI语音技术还存在相当的安全风险,每项新技术在应用于社会生活和工作之前,都应该制定充足的管理、应对措施,确保新技术服务于人,并防止其“误入歧途”。AI换声不是简单的模仿,需要我们管住的,不是技术,而是那些不安分的“模仿者”。目前,《民法典人格权编(草案)》里,针对利用信息技术手段深度伪造他人肖像、声音作出规定,对于自然人声音的保护也有明确的条例。未来,还需要继续完善相关法律法规,系统规范包括语音、肖像等在内的AI新产品和应用,让AI语音技术真正做到为人所用,为善而用。

结语

警钟又一次被敲响,我们应当牢记因为声音传达的即时性,往往等到AI换声的骗局被揭穿时,损害已经发生。为了保护自己、保护家人,尽量减少自己的声音片段在社交网站(例如微信、QQ、微博等)的流传,让不法分子减少对AI的训练,才能有效减少被骗的概率。毕竟这种事情真的发生了,即使它并不害人但是它也恶心人。毕竟鬼神不可怕,可怕的是人心。

责任编辑:潘一大