當前位置:吉日网官网 - 油畫收藏 - 人工智能是如何進行詐騙的

人工智能是如何進行詐騙的

據論壇內容顯示,機器學習、人工智能、大數據、人臉識別等熱點技術已被犯罪分子用於實施詐騙。比如上遊黑產利用機器學習、人工智能,突破互聯網企業的驗證碼體系,或是利用人工智能技術惡意註冊,獲取號碼資源,提供給犯罪分子實施詐騙。

隨著科技的進步,花樣翻新的電信網絡詐騙令人防不勝防。

“技術壹直以來都是雙刃劍,我們在享受技術帶來便利、新奇的同時,也會面臨技術被濫用帶來的風險。”中國傳媒大學政法學院法律系副主任鄭寧說。

詐騙手段不斷翻新,四種形式防不勝防

隨著技術的更新,詐騙手段也不斷翻新,那麽AI詐騙主要有什麽方式呢?

對此,鄭寧總結了四種AI詐騙形式,並詳細介紹了其中的原理。

據鄭寧介紹,第壹種是轉發微信語音。騙子通過盜取微信號,然後提出轉賬要求,多數人會選擇要求對方語音回復,這時騙子會轉發之前的語音,從而獲取信任,進而獲得錢款。雖然目前微信語音是不能轉發的,但騙子可以通過提取語音文件或者安裝增強版微信(壹般是基於xposed框架的插件),實現轉發語音。

“對於這種詐騙形式,群眾只需提高警惕,直接電話聯系,即可識破騙局。此外,即使要求對方語音回復,也可提出具體的要求,比如要求對方提供身份信息、說明轉賬原因等,避免騙子利用之前的語音蒙混過關。”鄭寧說。

鄭寧談到的第二種騙術是聲音合成。具體的操作是騙子通過騷擾電話等錄音來提取某人聲音,獲取素材後進行聲音合成,從而可以用偽造的聲音騙過對方。

鄭寧說,通過神經網絡和機器學習技術可以達到合成聲音的效果。第壹個利用神經網絡生成人類自然語音的,就是DeepMind的WaveNet。WaveNet(波網)是壹個用於生成原始音頻的深度神經網絡。它是由倫敦人工智能公司DeepMind的研究人員創建的。此技術通過使用用真實語音記錄訓練的神經網絡方法直接模擬波形,能夠生成聽起來相對真實的類人聲音。

據了解,2016年,谷歌在加拿大蒙特利爾大學建立的人工智能實驗室(MILA)。基於聲音合成技術,MILA在2017年4月成立了Lyrebird公司。在其網站DEMO部分,可以聽到官方合成的足以以假亂真的特朗普以及奧巴馬的聲音。美國有位記者用機器合成的句子和家裏人打電話做實驗,他的家人完全分不清楚真假。

“合成的聲音有明顯的痕跡,但WaveNet可以把合成痕跡明顯的機器語音,轉換成更加流暢自然的語音,與人類聲音之間的差異大幅降低,目前在鬼畜視頻界做得風生水起。而Lyrebird則更進壹步,它可以基於音色、音調、音節、停頓等多種特征,來定義某個人的聲音,然後生成更加擬真的聲音。”鄭寧說。

鄭寧補充說,第三種是AI換臉。視頻通話的可信度明顯高於語音和電話,但利用AI換臉,騙子可以偽裝成任何人。

第四種是通過AI技術篩選受騙人群,通過分析公眾發布在網上的各類信息,騙子會根據所要實施的騙術對人群進行篩選,從而選出目標人群。例如實施情感詐騙時,可以篩選出經常發布感情信息的人群;實施金融詐騙時,可以篩選出經常搜集投資信息的人群。

對此,中國人民大學法學院教授劉俊海說:“AI技術用於詐騙已經不是新鮮事,因為任何技術壹旦出現,不法分子就會想到利用新技術來實施犯罪。”

加強個人信息保護,提高警惕防範詐騙

詐騙手法在不斷翻新,那麽廣大群眾該如何預防,防止被騙呢?

鄭寧提出了兩點建議。第壹是驗證,提高警惕是防範詐騙的最好方式,在涉及錢款時,群眾要提高安全意識,通過電話、視頻等方式確認對方是否為本人,在不能確定真實身份時,可將到賬時間設定為“2小時到賬”或“24小時到賬”,以預留處理時間。此外,可以選擇向對方銀行匯款,避免通過微信等社交工具轉賬。因微信等工具均會綁定銀行卡,向對方銀行卡轉賬,壹方面便於核實對方信息,確認錢款去向;另壹方面,對方能通過短信通知得知轉賬信息,此外,即使是本人操作,也不影響對方提取錢款。

  • 上一篇:為什麽用玉器陪葬
  • 下一篇:佛山最美網絡名人打卡景點網絡名人五大攝影聖地
  • copyright 2024吉日网官网