下一页亚洲11p_国产精品亚洲第一页在线观看_麻豆影院在线观看免费视频_亚洲色播在线观看_激情亚洲欧美另类小说图片

您現(xiàn)在的位置 :

首頁  >  企業(yè)新聞 >  > 正文

人工智能 綁架了我的聲音 全球報(bào)資訊

時(shí)間 :2023-05-09 22:03:33   來源 : 鳳凰網(wǎng)

「AI」是2023年開年來最熱門的話題,當(dāng)人們?yōu)槿斯ぶ悄艿尼绕鸲械脚d奮之時(shí),一場危機(jī)也隨之而來。


(資料圖片僅供參考)

在過去幾個(gè)月時(shí)間里,我們見識到了「AI問答」、「AI制圖」和「AI換臉」,每一項(xiàng)技術(shù)的曝光,都引起不小的討論。在設(shè)想「AI」成為我們的得力助手之前,這些工具已經(jīng)率先成了不法之徒的「好伙伴」。

全球最大的專業(yè)安全技術(shù)公司McAfee不久前公開了一項(xiàng)調(diào)查數(shù)據(jù),在受到電話詐騙的人群中,有超過77%的受害者被「AI語音」所欺騙。這些受害者難以辨別來電中的聲音是否來自家人、朋友,于是,在陌生來電的請求下,向不法分子打去一筆又一筆錢款。

利用「AI」,人們可以輕松地克隆任何人的聲音,除了行騙之外,還可能出現(xiàn)在任何場合、任何地點(diǎn),乃至于網(wǎng)友們普遍認(rèn)為,「AI語音」遲早會出現(xiàn)在法庭上,成為偽證的主要來源。

這聽起來十分嚇人,對吧?

01.聲音是假的,詐騙是真的

經(jīng)常在網(wǎng)上沖浪的朋友,近期一定在不同的社交平臺中看到利用「AI」創(chuàng)作的歌曲,例如:

「AI孫燕姿《發(fā)如雪》Cover From周杰倫」

「AI霉霉《反方向的鐘》Cover From周杰倫」

「AI周杰倫《普通朋友》Cover From陶喆」

這些利用「AI」創(chuàng)作的歌曲,成為網(wǎng)友們熱捧的二次創(chuàng)作。

圖源:bilibili

事實(shí)上,「AI」創(chuàng)作歌曲和「AI語音」詐騙案,手法是一樣的。創(chuàng)作者通過某些工具,將語音素材導(dǎo)入其中,以高性能顯卡進(jìn)行訓(xùn)練,不需要花費(fèi)太多時(shí)間,即可輕易地獲得一段“以假亂真”的音頻內(nèi)容。

用「AI」創(chuàng)作歌曲,還需要調(diào)整音調(diào),使這些音頻與原曲的節(jié)奏、音高保持一致。當(dāng)然,在最新版本的創(chuàng)作工具中,已經(jīng)可以做到“一鍵處理”,效果不會太差。而「AI語音」的難點(diǎn)在于處理情緒,除了調(diào)整仿真音頻的節(jié)奏之外,還需要加上因不同情緒而產(chǎn)生的內(nèi)容變化。

圖源:Veer

在McAfee提到的兩個(gè)真實(shí)案例中,一位母親接到詐騙團(tuán)伙撥來的綁架電話,在電話那頭,她的女兒正聲嘶力竭地呼救。不僅聲音相似,就連情緒也十分到位,這正是受害者“上鉤”的重要原因。

今年3月,一款名為“Mocking Bird”的AI工具誕生,據(jù)開發(fā)者介紹,它能在電話、視頻中提取人聲,以AI算法進(jìn)行模擬匹配,最后根據(jù)分析出來的內(nèi)容,“拼湊”你所需要的語音內(nèi)容。經(jīng)網(wǎng)友實(shí)測,這款工具確實(shí)可以制作出「AI語音」,但要求并不算低。

制作「AI語音」,需要足量樣本,最好是清晰的人聲,因此想要在一通電話就提取到足夠的聲音素材,還是比較艱難的。不過,利用「AI語音」詐騙,或許并不需要逼真的聲音。

02.「AI」能詐騙,未必全靠「科技與狠活」

當(dāng)每個(gè)人都能輕而易舉地「克隆」他人的聲音,這個(gè)世界不就亂套了嗎?「AI語音」,真的做到人人都能隨手創(chuàng)作了嗎?

為了了解「AI語音」現(xiàn)階段的真實(shí)情況,我采訪了一位在該領(lǐng)域比較資深的創(chuàng)作者明治老師,聽聽他對「AI語音」的看法。

小雷:明治老師,看您在「AI」領(lǐng)域的研究頗為深入,您如何看待「AI語音」詐騙案?

明治:目前來說,光靠一通電話、一段視頻就能提取出足夠用于語言訓(xùn)練的素材,難度很大,從被報(bào)道出來的案例看,大多數(shù)被騙的用戶在當(dāng)時(shí)是處于緊張的狀態(tài)中,因?yàn)椴恢缹Ψ绞遣皇钦娴模?strong>大腦自動(dòng)匹配想象對象的聲音,這也是有可能的。

小雷:也就是說,現(xiàn)階段還不能單純依靠「AI」制作足以以假亂真的語音嗎?

明治:我們看到網(wǎng)絡(luò)上有很多AI翻唱的內(nèi)容,還有很多主播整活的語音音頻,但你有沒有發(fā)現(xiàn),這些二創(chuàng)內(nèi)容都有一個(gè)共同點(diǎn)——“樣本足量”。就像孫燕姿這類歌手,她能不斷被作為AI創(chuàng)作對象,正是因?yàn)樗凶銐虻穆曇羲夭?。即便有了足量的聲音素材,對硬件也有很高的要求,即便是最好的消費(fèi)級顯卡4090Ti,模型生成也需要耗費(fèi)很多時(shí)間。

小雷:假如說,只用一段音頻作為素材去制作「AI語音」,能實(shí)現(xiàn)以假亂真嗎?

明治:上面也說過了,聲音樣本不夠,是很難做出所謂的「AI語音」內(nèi)容的,就算強(qiáng)行制作,得到的成果質(zhì)量也不會很高。“以假亂真”,其實(shí)有很多判定標(biāo)準(zhǔn),例如童聲,大多數(shù)童聲聽起來都是差不多的,尤其是在電話中,不太清晰的語音加上比較普遍的聲線,混淆視聽也不足為奇。

圖源:Veer

從簡單的訪談中我們可以了解到一些關(guān)于「AI」內(nèi)容創(chuàng)作者的想法,總體來說,「AI語音」除了技術(shù)加持之外,更多還是利用了人們對于未知事物的恐懼、慌張。而「AI」工具,只是讓原本的電話詐騙提升了一點(diǎn)可信度。

在ChatGPT初代公開之時(shí),所有人都沒有預(yù)料到這樣一個(gè)人工智能問答平臺可以衍生出這么繁多且強(qiáng)大的功能。同樣地「AI語音」現(xiàn)階段還不算是全民化、普世化的工具,但即便是在這個(gè)階段,已經(jīng)足夠讓電話詐騙成功幾率大大提升。很難想象,當(dāng)「AI語音」工具簡化后,這個(gè)領(lǐng)域會被「玩」成什么花樣。

無論如何,「AI」確實(shí)正在對我們的安全造成威脅。

03.「AI」,實(shí)在太危險(xiǎn)!

在相應(yīng)的法規(guī)出臺前,「AI」在任何領(lǐng)域里,都稱不上是安全、可靠的工具。

不久前,一位全網(wǎng)擁有百萬粉絲的女網(wǎng)紅發(fā)布長文,痛斥「AI換臉」正在對她的名譽(yù)、精神造成傷害。文中,這名網(wǎng)紅揭露,有不法分子通過這項(xiàng)技術(shù),將其她的臉換在成人視頻里,讓她“成為”影片中的女主角。

圖源:Veer

不僅是「AI換臉」,利用「AI」工具,用戶可以隨時(shí)輸入相應(yīng)的關(guān)鍵詞,生成任何他們想要的內(nèi)容,「18禁圖片」、「名人」或是任何「沒有發(fā)生的事情」,精制的圖片難辨真?zhèn)?,影響了用戶們的判斷力?/p>

從前,“有圖有真相”,是我們判斷事情真?zhèn)蔚闹饕C據(jù),再后來,配合動(dòng)態(tài)視頻、真人語音,衍生出“視頻不能P”的判定標(biāo)準(zhǔn)。在「AI」蓬勃發(fā)展的今天,圖片可以自制、真人可以被移花接木,甚至是語音,也能被「AI」克隆。盡管「AI語音」并不能完全被認(rèn)定位電話詐騙成功的主因,但它提供的幫助,是被安全機(jī)構(gòu)所認(rèn)定為「具有風(fēng)險(xiǎn)」的。

目前,我國已經(jīng)出臺《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,對于“非真實(shí)音視頻信息”,應(yīng)當(dāng)予以標(biāo)識,禁止利用大數(shù)據(jù)深度學(xué)習(xí)制作、發(fā)布虛擬新聞。而這僅僅只是一個(gè)開始,想要給「AI」戴上鐐銬,任重道遠(yuǎn)。

McAfee出具的報(bào)告中提到,光是2022年這一年時(shí)間里,涉及「AI語音」詐騙的金額就達(dá)到了26億美元,約合人民幣180億元。

面對「AI語音」詐騙,我們該如何防范呢?

圖源:Veer

如前面提到的,「AI語音」的生成需要大量克隆對象的聲音樣本,減少在未知風(fēng)險(xiǎn)的社交平臺中發(fā)送帶有自己真實(shí)聲音的視頻、音頻內(nèi)容,其實(shí)是最保險(xiǎn)的方案。另外,「AI語音」詐騙成功率高達(dá)77%,與人們的恐懼心理離不開關(guān)系,在沒法確認(rèn)對方的真實(shí)身份前,盡量不要接受對方的要求,尤其是轉(zhuǎn)賬。

無論如何,現(xiàn)階段的「AI語音」并沒有如同網(wǎng)上流傳的那樣神乎其神,我們普通網(wǎng)民也沒必要過于著急自己的聲音被克隆,在遇到有可能是詐騙的情況,先保持冷靜,整理情緒,理清思路,才能更好地應(yīng)對。

標(biāo)簽:

推薦文章

X 關(guān)閉

X 關(guān)閉