(請提交驗證碼通過手機驗證)
時間:2023-06-01 10:23:01
21218近日,包頭市公安局電信網絡犯罪偵查局發佈一起使用智能AI技術進行電信詐騙的案件,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元。
4月20日中午,郭先生的好友突然通過微信影片聯繫他,自己的朋友在外地競標,需要430萬保證金,且需要公對公帳戶過帳,想要借郭先生公司的帳戶走帳。
基於對好友的信任,加上已經影片聊天核實了身份,郭先生沒有核實錢款是否到帳,就分兩筆把430萬轉到了好友朋友的銀行卡上。郭先生撥打好友電話,才知道被騙。
「從頭到尾都沒有和我提借錢的事情,就說會先把錢給我打過來,再讓我給他朋友帳戶轉過去,而且當時是給我打了影片的,我在影片中也確認了面孔和聲音,所以才放鬆了戒備」,郭先生說。
幸運的是,接到報警後,福州、包頭兩地警銀迅速啟動止付機制,成功止付攔截336.84萬元,但仍有93.16萬元被轉移,目前正在全力追繳中。( 相關閱讀:美國女子網遇「殺豬盤」 網路交友被騙200萬元 )
近年來,「AI換臉」騙局不斷。不法分子利用「AI換聲」「AI換臉」技術,偽裝成特定人物,即時與他人進行影片通話。更換後的面部表情自然,以假亂真,能夠冒充他人身份聯繫被害人,博取被害人信任後實施詐騙。
在人工智慧時代,我們眼睛見到的未必是真的。「AI換臉」技術的學術名詞叫做深度偽造技術(Deepfake),也就是深度學習(Deeplearning)+偽造(fake),是機器深度學習技術和人臉假冒的結合體。
然而AI技術不是原罪,而是利用技術手段進行非法操作的人。「AI換臉」檢測技術有多種手段,對於公眾而言,可以依據「AI假臉」的bug進行簡單識別。(延伸閱讀:殺豬盤是什麼 ? 浪漫騙局正悄悄入侵台灣)
比如,偽造後的影片人物的眼睛或牙齒輪廓細節容易不一致;兩只眼睛瞳孔的顏色不一樣或瞳孔中心反射的細節不一樣;或是很多偽造影片由於影片解析度低於原始影片解析度,偽造出來影片的牙齒邊緣過於整齊等。
「AI假臉」有可能不符合正常人的生理特徵,比如,一個健康成年人一般間隔2-10秒眨一次眼,每次眨眼用時0.1-0.4秒,而在偽造影片中,人的眨眼頻率可能不符合上述規律。
比如,由於人嘴部的運動是最為頻繁且快速的,因此AI軟體無法真實準確地渲染其連續動作。基於此,可以作為判斷影片真假的因素之一。
此外,偽造後的影片會造成一定的影片抖動,導致影片出現幀間不一致情況。
而作為普通民眾,每個人都要加強自身資訊安全的維護,工作、生活中不輕易向他人提供人臉、指紋等個人生物資訊給他人;在使用電子設備的過程中,不過度公開或分享動圖、影片等;其次是陌生連結不要點,陌生軟體不要下載,陌生好友不要隨便加,防止手機、電腦中病毒,個人社交帳戶被盜號;最後,當涉及金錢往來時,不管對方是誰,都要在第一時間通過電話等方式進行多重驗證,這樣的驗證,往往最容易讓騙子露出馬腳。(延伸閱讀:台南驚現龐氏騙局 詐騙金額逾新台幣億元)
更多FX110 影音內容
維權1時間、活動花絮、交易員採訪不定期更新中!歡迎前往 Youtube 觀看
FX110 網站功能探搜
暫時還沒評論,來留下你的印象吧
評論發表成功
評論