
引言
想像一下,某天你突然收到一封來自上司的電郵,語氣急切地要求你即時轉帳到一個海外帳戶,語氣、字句與署名毫無破綻——你可能會不假思索地照辦。但事實上,這可能根本不是你真正的上司,而是一個由生成式人工智能(Generative AI,簡稱 GenAI)所產生的詐騙操作。近年來,GenAI 已成為詐騙集團的新寵,憑著幾分鐘錄音、公開社交媒體資料,甚至個人口音習慣,就能精確模仿我們的聲音和語氣,行騙如入無人之境。
這樣的詐騙不單對企業構成重大風險,連日常市民也可成為目標。你的聲音、你的圖像、甚至你的聊天風格,都可能在你不經意間被利用,造成金錢與名譽雙重損失。本文將深入探討GenAI詐騙的最新手法、實際案例、潛在風險,及我們該如何防範這類新型科技詐騙。讀完本文,你會了解:你是否已經正中圈套?或者,即將成為下一個目標?
目錄
什麼是 GenAI 詐騙?
GenAI(生成式人工智能)是一種利用人工智能模型產生文字、語音、圖像或影片的技術。它能以幾分類似人類的方式進行對話、撰寫文章、模仿聲音,甚至複製臉部影像。這項技術原本應用於創意產業、生產力工具或教育目的,但近年卻被不法分子濫用,用來詐騙、偽造身份,甚至操控人際信任。
GenAI詐騙就是指利用這種技術來實施詐騙行為,例如:
- 假冒人物語音或面貌:如合成上司的語音命令轉帳
- 合成假影片進行「深度偽造」:散播虛假資訊或敲詐勒索
- 模仿親友風格發送即時訊息:誆騙金錢援助
從 Whatsapp、Signal 到 Zoom 視訊會議,在不察覺的情況下,我們的數據與聲音就有可能早已落入不法之手。
防不勝防:熱門詐騙手法全披露
根據 Fox News 的專題報導,隨著 Deepfake 技術(深偽技術)與 AI 聲碼合成的進步,新的詐騙攻擊層出不窮。如果你以為只有財政總監或高層人員才會成為目標,那你就錯了。以下是當前最熱門且成功率最高的幾項詐騙手法:
語音冒充詐騙(Voice Phishing / Voice Deepfakes)
這是一種利用 AI 模仿某人聲音的技術,只需收集數分鐘的說話錄音,就能訓練出擁有類似語調及語速的語音模型。例如,一家美國能源公司曾被一通冒充CEO的 AI電話騙走了24萬美元。根據報導,騙徒甚至可模擬英國口音與微妙的語氣,使得接線人毫無疑心。
人物影像Deepfake
AI 也能將人臉或身體動作完全合成,製成短片或進行即時人物對話。社交媒體上不時湧現的”政要發言”,有時實際上根本是虛構。這類技術亦能用於詐騙交易,例如 Zoom會議上由Deepfake製成的「假老闆」親自說話,要求財務部門轉帳。
社交媒體模仿賬戶
騙徒建立與你朋友極為相似的賬號,利用 AI 模擬他們用語與行事風格,主動主動聯絡你,並以緊急為由要求資助、購買遊戲卡或支付醫療費用。
AI 煽動的投資騙局
不少TikTok與YouTube影片由AI合成美女聲音與動畫,引導觀看者投資虛構的股票或虛擬貨幣項目。這種操作幾乎不依賴真人出現,使傳統的詐騙警覺習慣無從可施。
震驚港人:香港與全球實際案例分析
GenAI詐騙並非空穴來風,香港也逐漸成為磨練這類新型詐騙的試驗場。警方公布的案例指出,一位中環女白領因收到一段「父母求救」語音短訊,於24小時內匯出了50萬元。錄音中的喊話、方言與情緒,一聽就知道是家人。事後才發現,整段聲音由AI模擬,來自網上的舊影片剪輯訓練數據。
全球典型案例一覽表
國家 | 類型 | 受害內容 | 損失金額 |
---|---|---|---|
香港 | 語音合成詐騙 | 模仿父母聲音求救 | HK$500,000 |
美國 | CEO聲音被冒充 | 要求會計轉帳 | US$243,000 |
英國 | Deepfake影片造假 | 發表虛假政治言論 | 社會信任度受損 |
為何我們容易成為目標?
GenAI攻擊的本質,在於運用我們在網上留下的數據進行反向「擬真」。問題在於,現代人習慣將自己的一切都公諸於社交平台,從聲音短片、自拍影片、Instagram生活細節,甚至連Zoom會議錄影亦儲存在雲端,成為詐騙者寶貴的素材。
此外,我們與熟人的對話常用固定措辭與標點,例如:
- 「搞掂」用於表示完成工作
- 「記得還我啊」表示提醒
- 尼龍袋文化、英文小詞混搭
這些語言特徵成為 AI 最高價值的模仿基礎,讓騙徒更輕易塑造可信情境。
風險如何迅速擴大?
隨著 GenAI 開源技術的快速普及,例如 OpenAI 的 Whisper、Meta 的 Voicebox、和 Synthesia 等生成平台使 AI 模擬工具變得門檻極低。今天,一個懂基本編程的青少年也能建立一個可用來進行語音合成與影像深偽的工具組。
風險擴大的三大推動因素:
- 成本下降:AI 模型成本與伺服器資源變得更平價
- 數據氾濫:短影音、語音內容無處不在,成為免費模擬素材
- 技術社群推動:GitHub、Reddit等技術社群持續交流生成技巧與方法
這個趨勢意謂著未來騙局將更加「貼地」、細膩逼真,僅憑肉眼與耳朵很難分辨真偽。
防範之道:你可以怎麼做?
面對日益精密的 GenAI 詐騙,我們多一分知識、多一分防守。與其等警方公佈個案提醒,不如事前建立防偽意識及實踐預防習慣。以下是實用建議:
1. 勿輕信語音或視訊的表面內容
即使手機來電或影像充滿「熟悉感」,也應斷線後重新致電官方號碼求證。
2. 設定「安全密語」
與家人朋友事先約定特別用語,一旦收到緊急求助,對方說不出暗號,即有機會是詐騙。
3. 限制公開社交資料
避免將太多聲音紀錄、生活細節公開或儲存於雲端,部分照片可設定限時或朋友限定觀看。
4. 主動關注新型科技詐騙模式
訂閱警方通訊、網絡安全新聞網站或參加社區的防詐騙講座,建立資訊優勢。
5. 企業應資助反詐騙培訓
尤其財務部及客服部門,應以模擬情境訓練識別AI語音與Deepfake情境。
常見問題 (FAQ)
不少市民在了解 GenAI 詐騙後,仍有不少疑問。以下彙整一些最常見的問題與解答,助你更深入掌握風險與自我保護之道。
1. 我沒有在網上公開聲音檔,是否就能避免被假冒?
未必。即使你自己沒上傳聲音內容,你與朋友的網上對話、會議錄影,甚至 WhatsApp 語音也可能藏在雲端或社交平台中。詐騙者可由他人帳號取得這些檔案,進行訓練與模仿。因此資料保護絕非「有心人才做」,而是全民皆需實踐。
2. 如何分辨 Deepfake 影片是真是假?
目前 Deepfake 技術越來越精細,肉眼難以分辨。不過,可以留意以下幾點:
- 嘴型與聲音是否同步
- 眨眼頻率是否正常
- 影像背景是否飄忽或重影
最有效的方式,是查證源頭,例如新聞發佈處、機構官網或正式發言渠道。如果影片來歷不明,切勿照單全收。
3. 騙徒是否需要很先進的技術才能做到這些詐騙?
錯!GenAI 平台門檻極低,YouTube 或開源論壇上有大量免費教學及介面工具。只需要數天學習,一位新手已能製作簡單語音模擬或影像 Deepfake。這也是風險擴大的主因之一。
4. 有沒有被詐騙後的求助熱線?
若你懷疑自己或親友受騙,可立即聯絡下列政府熱線:
- 防騙易 +「18222」反詐騙熱線:24小時提供人工支援
- 香港警務處網絡安全及科技罪案調查科:接受舉報及案件跟進
此外,可以瀏覽Scameter(防騙視伏器) 給網站或帳號進行安全評估。
5. 我可以怎樣保護年長家人免中伏?
針對長者用戶,建議:
- 協助設定強密碼與雙重認證
- 與他們建立「暗語制度」以作核實
- 分享詐騙新聞案例與真實對話錄音,提升辨識意識
特別提醒,年長族群常受所謂「孫子女出事求助」騙局影響,必須事先做好心理與技術準備。
結論與行動建議
隨著生成式人工智能(GenAI)的滲透程度日益加深,這種新型詐騙已逐成全球網絡威脅的核心。無論你是企業主管、家庭主婦或學生,只要你存在於數碼世界中,就有機會成為詐騙目標。
但科技不是洪水猛獸,正確認識才能轉危為機。防範 GenAI 詐騙的黃金守則包括:
- 提升警覺與查證習慣:不論語音、短訊或影片,都需查核來源與真偽。
- 限制個人資料公開程度:節約分享聲音畫面與私密內容的機會。
- 設立預警機制與安全流程:無論家庭或公司,都應有明確通報與求證制度。
- 不斷學習與資訊更新:關注內地與海外最新案例和技術演進。
在 AI 持續升級的今日,唯一值得投資的就是清醒的判斷能力與堅實的信任網絡。下一通來電,是孩子求助、還是詐騙陷阱?你,準備好了嗎?
如果你對數碼安全、防詐資訊或最新科技應用感興趣,歡迎造訪我們的資訊文章專頁或返回網站首頁,探索更多指南與資源。
想深入了解 Deepfake 技術與其社會影響,可以參考這篇由 Wired 發佈的權威報導:Deepfakes Are Getting Better. But They’re Still Easy to Spot—If You Know How。
「不是你變得容易受騙,而是詐騙變得與你難以分辨。」
—— 資訊安全顧問 麥啟洋
試想像,一通聲音相似的對話、一次視訊裡熟悉的面孔,都可能摧毀你多年累積的信任與財產。現在,就是學會守護自己的最好時機。不讓科技落入錯手,就是我們每一位使用者的責任與選擇。