site logo: www.tvsmo.com

AI仿聲技術詐騙防不勝防 前射箭國手拍片反詐

由於AI技術越來越發達,不論是音檔或照片,都有可能不是真實的,民眾千萬別輕易匯款或提供任何銀行資訊。(桃園市大園警分局提供)
人氣: 28
【字號】    
   標籤: tags: , ,

【大紀元2024年06月03日訊】(大紀元記者徐乃義台灣桃園報導)桃園市政府警察局大園分局為推動「新世代打擊詐欺策略行動綱領」識詐1.5版宣導教育工作,邀請到前射箭國手「許嬿樺」拍影片宣導反詐騙,以真實的案例詳細解說以AI仿聲技術詐騙手法及其破解之道,有效提高民眾「識詐」能力。

許嬿樺指出AI技術只需要短短幾秒的音檔,就能複製一個人的聲音,也就是說我們分享到社群媒體上的各種音檔影片,都可能成為被模仿的元素。由於AI技術越來越發達,不論是音檔或照片,都有可能不是真實的,民眾千萬別輕易匯款或提供任何銀行資訊。

大園分局呼籲,針對這種新型詐騙手法,犯罪集團可能通過不明來電、市調電話等管道,收集民眾的聲音特徵,利用 AI 技術進行聲音偽造。資安專家也指出,僅需獲取 5 秒鐘的語音,就足以進行仿聲,且偽造程度高達7成相似度。科技的快速發展使得仿聲變得更加容易,這也給詐騙活動提供了新的工具和渠道,網路詐騙的形式不斷變化,這意味著我們需要時刻保持警惕,特別是當接到來路不明的電話時,更要提高警覺,避免受騙上當。

警方提醒,在面對任何可疑情況時,應該第一時間報警或向相關機構求助,以免造成不必要的損失,如有任何疑慮請撥打165反詐騙諮詢專線或110報案專線查證,全民一起杜絕詐騙。◇

責任編輯:杜文卿

評論