|
特別關(guān)注
打傳動(dòng)態(tài)
在線客服
|
AI成造謠詐騙新方式?記者教你如何辨別真假 防范被騙 二維碼
發(fā)表時(shí)間:2024-03-05 12:02作者:岳群 朱江 王世玉 孫戈 王子新來源:央視新聞客戶端 近日,文生視頻模型“Sora”的推出引起廣泛關(guān)注。人工智能技術(shù)快速發(fā)展,其潛在的風(fēng)險(xiǎn)也隨之出現(xiàn),真假的界限似乎變得更加模糊。在網(wǎng)絡(luò)龐雜的信息里,哪些是真,哪些是假,面對AI正反兩面的作用,我們?nèi)绾巫鞒鱿鄬?zhǔn)確判斷?我們來看記者的觀察↓↓↓ “有圖”真有“真相”嗎?總臺央視記者 王世玉:是不是一切都很真實(shí)?但其實(shí)連這個(gè)“我”都是“假”的。通過人工智能替換了臉,用大模型制作模仿出跟我相似的聲音,以我的身份做了剛才一件件事情。
總臺央視記者 王世玉:現(xiàn)在我保證我是真實(shí)的。但是在真實(shí)世界里仍然有很多問題。我們統(tǒng)計(jì)了近期一些熱門話題,內(nèi)容很豐富。在我們的實(shí)驗(yàn)室里,有一套最新的鑒別系統(tǒng)。我們把這些話題錄入到鑒別系統(tǒng),它幫我們分析出了幾項(xiàng)有爭議性的信息。
總臺央視記者 王世玉:當(dāng)然,我們無法直接判定它們?yōu)橹{言,但是系統(tǒng)幫我們對比出了它和正常信息之間傳播的路徑,可以看到在這些節(jié)點(diǎn)出現(xiàn)了明顯不同。人工智能在謠言的傳播中起到了什么樣的作用?我們找到了幾位長期研究網(wǎng)絡(luò)數(shù)據(jù)和鑒別真?zhèn)蔚膶<摇?/p>
中國電信研究院戰(zhàn)略發(fā)展研究所所長 饒少陽:借助AI能夠分析用戶的一些情緒,通過一些爬蟲的技術(shù)可以分析網(wǎng)絡(luò)上正在討論什么熱點(diǎn),已有的內(nèi)容,利用AI可以進(jìn)行一些修改。比如說兩年前發(fā)生的一個(gè)事情,時(shí)間稍微改一下,換一部分場景,真假難辨的修改,快速引起新的討論。
中科睿鑒深度偽造檢測專家 葛星宇:前一段在湖北發(fā)生了凍雨的情況,我們第一時(shí)間注意到有謠言,發(fā)了一張圖,展示了當(dāng)時(shí)大量汽車擁堵在高速路上的情景,其實(shí)這張圖是由AI生成的。AI可以把很多抽象的概念具象化展示在觀眾的面前。形式非常夸張,這就在精神層面上對觀眾進(jìn)行沖擊,讓它的謠言變得更加可信。 總臺央視記者 王世玉:分析謠言的組成,我們發(fā)現(xiàn),人工智能技術(shù)不僅僅能夠精準(zhǔn)捕捉用戶的心理預(yù)期,還能針對性釋放出部分真實(shí)的信息,進(jìn)一步混淆視聽。
總臺央視記者 王世玉:以湖北凍雨為例,我們分析了從2023年1月至今,應(yīng)急管理部四級以上響應(yīng)的事件,謠言產(chǎn)生的比例達(dá)到70%,而把篩選條件調(diào)整到三級以上,謠言產(chǎn)生的概率甚至達(dá)到100%。突發(fā)情況越嚴(yán)重,出現(xiàn)謠言的概率就越高。 將時(shí)間拉近到2024年,我們分析了今年以來的幾次突發(fā)事件,謠言的產(chǎn)生手段也從過去的圖片拼接發(fā)展到了現(xiàn)在利用大模型生成文字信息和圖片視頻。 場景還原:AI世界的真假博弈記者通過場景還原了一個(gè)真假難辨的世界??梢钥吹饺斯ぶ悄芗夹g(shù)在其中不斷模糊真假界限,同時(shí)精準(zhǔn)找到掀起網(wǎng)友情緒和討論的內(nèi)容,進(jìn)一步增加辨別真?zhèn)蔚拇鷥r(jià)。 不過現(xiàn)在,人工智能技術(shù)同樣也可以成為檢測手段,兩股力量的博弈如何實(shí)現(xiàn)?我們再跟隨記者進(jìn)入一場視覺還原。 總臺央視記者 王世玉:幾天前,一個(gè)跨國公司的財(cái)務(wù)人員收到了一封郵件,是他所在公司的英國總部,邀請他參加一場涉密會議。加入之后,眼前的面孔果然十分熟悉。
香港特區(qū)政府警務(wù)處網(wǎng)絡(luò)安全及科技罪案調(diào)查科署理高級警司 陳純青:我們發(fā)現(xiàn)詐騙人員利用英國公司的各個(gè)職員在網(wǎng)上公開的視頻片段,配合后期人工智能生成技術(shù)、換聲技術(shù),配合預(yù)先錄制的對白,在線上會議里播放,播放的過程中就向這位報(bào)案人做出轉(zhuǎn)賬的指示。 總臺央視記者 王世玉:錄制好的視頻進(jìn)行換臉,已經(jīng)是當(dāng)前人工智能能做到的最基礎(chǔ)的情形了?,F(xiàn)在,動(dòng)態(tài)實(shí)時(shí)換臉、虛擬人物有來有往的對話,早已不是新鮮事。
既然是博弈,就一定有相應(yīng)的技術(shù)應(yīng)對。在實(shí)驗(yàn)室里,有一套最新的鑒定系統(tǒng)。我們將人工智能生成的視頻錄入系統(tǒng),后臺四十多個(gè)模型開始了實(shí)時(shí)分析測算。
中科睿鑒深度偽造檢測專家 葛星宇:光影是一個(gè)很重要的指標(biāo),光源打在環(huán)境里,人對于光的反射結(jié)果、環(huán)境和光影反射的結(jié)果應(yīng)該是一樣的。或者當(dāng)屏幕開始抖動(dòng),我們無論是人在動(dòng)還是背景的圖像在動(dòng),它們的運(yùn)動(dòng)軌跡應(yīng)該都是一樣的。
總臺央視記者 王世玉:分析結(jié)果很快就出現(xiàn)了,人工智能生成的視頻已經(jīng)被判定為假?!癝ora”等先進(jìn)技術(shù)生成的視頻同樣可以被鑒定出來。老百姓如何鑒定真?zhèn)涡畔?,或者更好判斷防止被騙呢?最簡單的方式可以在視頻過程中,讓對方用手遮擋一下面部,就會因?yàn)樗惴ú粔蚓_而出現(xiàn)破綻。未來,這些先進(jìn)的鑒別軟件也會嵌入手機(jī)系統(tǒng)進(jìn)行自動(dòng)防護(hù),提示真?zhèn)涡畔ⅰ?/p> AI的兩面 邊界需明晰可以看到,人工智能技術(shù)既可以成為制造虛假信息的手段,同時(shí)也可以成為判斷謠言、詐騙的新方式。那如何更好利用人工智能、在規(guī)范中發(fā)展人工智能技術(shù)?來聽專家的解讀↓↓↓ 中國電信研究院戰(zhàn)略發(fā)展研究所所長 饒少陽:輸出的內(nèi)容,在真正呈現(xiàn)給用戶之前,也可以做一些監(jiān)管控制。AI式生成的,那就要打上它是AI生成的。不管是工信部還是國資委、科技部,頻繁出一些政策在推動(dòng)AI產(chǎn)業(yè)的發(fā)展。反過來,個(gè)人的隱私、數(shù)據(jù)安全、生成內(nèi)容的法律法規(guī)也在推出,這兩面都在同時(shí)進(jìn)行。 總臺央視記者 王世玉:人工智能技術(shù)本身并沒有好壞之分,如何讓它被更好地使用,是當(dāng)前在規(guī)范中發(fā)展的重中之重。
2023年1月,我國《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》出臺;8月,《生成式人工智能服務(wù)管理暫行辦法》正式施行。2023年10月,我國率先發(fā)布《全球人工智能治理倡議》;同月,聯(lián)合國成立“人工智能高級別咨詢機(jī)構(gòu)”;11月,全球人工智能安全峰會發(fā)布《布萊奇利宣言》。當(dāng)前,在人工智能治理水平方面,從率先提出治理倡議,到躋身全球治理的第一梯隊(duì),中國方案始終在為人工智能的安全貢獻(xiàn)智慧。 [此文來源:央視新聞客戶端 記者 岳群 朱江 王世玉 孫戈 王子新,版權(quán)說明:以上文字及圖片來源于網(wǎng)絡(luò),僅供學(xué)習(xí)和交流使用,不具有任何商業(yè)用途,其目的在于傳遞更多的信息,并不代表本平臺贊同其觀點(diǎn)。版權(quán)歸原作者所有,如涉版權(quán)或來源標(biāo)注有誤,請及時(shí)和我們?nèi)〉寐?lián)系,我們將迅速處理,謝謝!]
文章分類:
非法集資/電信詐騙/騙局
|