差點被深偽詐騙(AI換臉+AI仿聲):熟悉的面孔和熟悉的聲音,親朋好友突然視訊來電要錢

隨著人工智慧發展,「深僞(Deepfake)」技術恐遭有心人士利用於假訊息、影片、語音等媒體素材合成製作,達到「換臉、變聲」等效果,甚至用於強化詐欺手法的擬真性,再用ChatGPT軟體造謠,令民眾難辯真偽,因而受騙。為保障市民財產安全,臺北市政府警察局特製相關素材進行宣導,以有效強化市民識詐能力,避免受害,共維治安。

中國AI詐騙案例:換臉、變聲打視訊,10分鐘騙走台幣2千萬

「技術是無罪的,但人會犯錯」,許多詐騙犯開始利用 AI 進行詐騙,模仿朋友、親人的聲音以及容貌,讓受害者不疑有他,本文將介紹 AI 的詐騙案例,也呼籲讀者遇到「金錢」問題請再三確認。

快播創辦人王欣在法庭上發表的「技術無罪論」曾在 7 年前引發全民討論。出獄後的王欣修正了他的觀點:「技術是無罪的,但人會犯錯」。現在,AI 這個技術正在落入不法者手中。5 月 22 日,「AI 詐騙正在全國爆發」登上了微博熱搜榜首。包頭警方披露,不法分子利用 AI 換臉和仿聲,在微信影片中蒙混過關,10 分鐘內騙取事主 430 萬元。

類似事件頻頻在中國發生。行騙者用 AI 工具換臉、模擬聲音實施了多起詐騙,不少人中招。有網友用「幻術」形容可易容、能仿聲的 AI。此外,還有一些人瞅準了 ChatGPT 的文本能力,專用它生產謠言,博取眼球,吸引流量。

當 AI 被「黑化」,正邪攻防戰也打響了。

AI 換臉+仿聲 10 分鐘騙走 430 萬

當知根知底的微信好友撥來視訊通話,對面是熟悉的面孔和聲音,一番寒暄後,好友提出有朋友在外地投標,需要借用一下你的公司帳戶過一下款。過款方式是先把錢轉給你,再讓你給他的「朋友」帳戶匯款。你會對整件事情有所懷疑嗎?

福州市某科技公司法人代表郭先生沒有懷疑,10 分鐘內匯款 430 萬元,但他其實被騙了。根據「平安包頭」5 月 20 日發布的公眾號消息,郭先生的微信好友在要了卡號後,聲稱已經把錢匯到了郭先生的帳戶,還把銀行轉帳底單的截圖發給了郭先生。基於視訊聊天信任的前提,郭先生沒有核實錢是否到帳,就把錢打給了對方提供的陌生帳戶內。等郭先生再次聯繫該微信好友,表示事情已經辦妥,沒想到對方回覆了一個「?」。郭先生這才心生疑竇,打去電話兩人一對,這才意識到遇到了「高科技」騙局。

原來,和他微信視頻過的「好友」,從臉到聲音都是假的。郭先生為啥沒認出來?AI 換臉和仿聲發揮了作用。郭先生稱,「在視頻中確認了面孔和聲音,才放鬆了戒備」。回頭覆盤,郭先生唯一的操作失誤,就是沒仔細確認錢到帳,就給對方先打了款。而他之所以會這麽做,是因為已經在視訊裡看到了「好友」的臉、聽到了「好友」的聲。

更不可思議的是,騙子並非使用冒牌微信帳號與郭先生視訊,而是直接用其好友的真實帳號發起視訊聊天。這表明,朋友的微信帳號也在神不知鬼不覺間被騙子盜用了,這也是騙子成功施騙的另一個關鍵。不幸中的萬幸,識別騙局後郭先生第一時間報警,福州、包頭兩地警銀迅速啟動止付機制,成功止付攔截 336.84萬元,但仍有 93.16 萬元被轉移,目前正在追繳中。

這起詐騙案件一經披露,迅速引發了廣泛關注,「 AI 詐騙正在全國爆發 」更是登上了微博熱搜榜首。許多網友稱,當強大的 AI 被壞人利用,危害性比進步性帶來的威力還大。「臉不能信,聲音也不能信了,看來以後想不被騙只有兩種辦法,一是不借,二是沒錢」,有網友流露出擔憂,畢竟視頻連線都能騙人,「你沒法確定電話那頭跟你聊天的是誰」。

用 AI 軟體造謠、傳謠多人被刑拘

「AI 仿聲詐騙」這股風還是迅猛地吹到了中國。4月27日,《元宇宙日爆》曾發文「接到‘女兒’求救電話 親媽差點被AI仿聲騙了」,那時的案例還發生在美國亞利桑那州,騙子採集女兒的聲音,冒充綁匪,讓「女兒」在電話裡向母親求救。事後回憶起這一幕時,接到電話的母親依然對電話裡的女兒聲音深信不疑。

技術已經就位,AI 迅速在惡人手中「黑化」,成為掠奪普通人錢財的鬼影。

據財經網報導,近期,福州的李先生也遭遇了 AI 詐騙,騙子冒充其領導打來微信視訊電話,謊稱親戚參加競標需要資金,自己不便出面,想借李先生的名義轉給親戚。李先生因此被騙 48000 元。小李的大學同學通過 QQ 跟她借錢。對方打過來一段四五秒的視訊電話,小李看到確實是本人,便放心轉帳 3000元。然而,在她第二次轉帳時發覺異常,再次撥通對方電話,這才得知同學的帳號被盜。警方通過偵查發現,此段視訊是詐騙分子通過 AI 技術偽造。

類似案件不勝枚舉,微博網友「快樂大吉利」將AI比作幻術。被「黑化」的 AI 不止能通過換臉和仿聲詐騙,還成了謠言製造機,給被造謠者帶來困擾。今年 3 月,女孩一絲不掛搭地鐵的照片瘋傳,一些針對照片中人的不良評論出現。結果,有人在某平臺找到了與裸照同樣姿勢的原圖,只不過圖中的女性穿著衣服,傳播的裸照是用 AI「一鍵脫衣」生成的。而照片裡的女性本人在生活中已經被各種謠言纏身。

幾天前,網上流傳「上海市青浦區某幼兒園多名女教師因賣淫被警方處理」的資訊,後經青浦公安分局查證,該消息是憑空捏造的謠言,後續在傳播過程中,還有人在未經核實的情況下,通過 AI 軟體輸入關鍵詞,加工生成一篇題為「上海示範幼兒園教師賣淫被抓」的文章,引發大量網民討論。上述造謠和傳謠者已被警方依法刑事拘留。

另有鄭州市公安局航空港分局於 5 月 20 日公告稱,有人為了吸粉引流,利用 ChatGPT 人工智慧軟體生成虛假不實資訊,在公眾平臺發布「鄭州雞排店驚現血案,男子用磚頭砸死女子」等謠言,被依法採取刑事強制措施。
能幫忙寫文案、做策劃的AI工具,在不法分子手中成了造謠、傳謠的「助手」,AI 作為技術工具的黑色一面顯露出來。

當 AI 詐騙頻發、謠言滿天飛,正與邪的攻防戰打響了。包括 Google、微軟在內的科技公司推出了「鑒偽」的相關工具,用技術制裁技術。對於普通人來說,AI 詐騙的興起已經敲響了警鐘,面對借錢、匯款等請求,警惕心還需要再提高幾個等級,多管道核實身份成為必要防騙做法。
包頭警方提示,針對花樣翻新的智能 AI 詐騙,公眾要提高防範意識,不輕易提供人臉、指紋等個人生物資訊給他人,不過度公開或分享動圖、視頻等;網路轉帳前要通過電話等多種溝通管道核驗對方身份,一旦發現風險,及時報警求助。如果有人自稱「熟人」、「長官」通過社交軟體、短信以各種理由誘導你匯款,務必通過電話、見面等途徑核實確認,不要未經核實隨意轉帳匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等資訊。如不慎被騙或遇可疑情形,注意保護證據並立即報警。