跳到主要內容區塊

「AI會模仿,信任要驗證!」小心AI語音詐騙

近期,詐騙集團利用人工智慧AI技術,模擬親友的聲音,製造緊急情境,誘使受害者匯款。

由於模擬的聲音與真人極為相似,受害者在慌亂中往往難以分辨真偽。

 

一、常見的AI語音詐騙手法

1.緊急情境誘騙:詐騙者冒充親友,聲稱遭遇車禍、被綁架或其他緊急狀況,要求立即匯款。

2.冒充機構人員:假冒政府機關或銀行人員,聲稱受害者涉及案件或帳戶異常,要求提供個人資訊或匯款。

3.投資詐騙:冒充投資專家,聲稱掌握內線消息,誘騙受害者投資高風險的金融商品。

二、如何防範AI語音詐騙

1.設定家庭密語

2.保持冷靜,勿急於匯款

3.避免公開分享聲音資料

4.使用防詐工具

5.報案與求助

  • 宣導影片 https://www.youtube.com/watch?v=YVSOG2xIMlw
  • 如懷疑遭遇詐騙,可撥打165反詐騙專線