安全動態(tài)

AI時代的網(wǎng)絡(luò)安全:探索AI生成的網(wǎng)絡(luò)攻擊

來源:聚銘網(wǎng)絡(luò)    發(fā)布時間:2024-04-12    瀏覽次數(shù):
 
人工智能在實現(xiàn)便利的同時,也為網(wǎng)絡(luò)安全帶來了諸多威脅。本文將揭示AI催生的關(guān)鍵網(wǎng)絡(luò)威脅。

長期以來,網(wǎng)絡(luò)攻擊一直是勞動密集型的,需要經(jīng)過精心策劃并投入大量的人工研究。然而,隨著人工智能技術(shù)的出現(xiàn),威脅行為者已經(jīng)成功利用它們的能力,以非凡的效率策劃攻擊。這種技術(shù)轉(zhuǎn)變使他們能夠大規(guī)模地執(zhí)行更復(fù)雜、更難以檢測的攻擊,甚至可以操縱機(jī)器學(xué)習(xí)算法來破壞操作或敏感數(shù)據(jù),從而擴(kuò)大其犯罪活動的影響。

惡意行為者越來越多地轉(zhuǎn)向人工智能來分析和完善其攻擊策略,這大大提升了攻擊活動的成功率。這些人工智能驅(qū)動的攻擊具有隱蔽性和不可預(yù)測性的特點(diǎn),使它們能夠熟練地繞過依賴于固定規(guī)則和歷史攻擊數(shù)據(jù)的傳統(tǒng)安全措施。

在獵頭公司海德思哲(Heidrick & Struggles)進(jìn)行的《2023年全球首席信息安全官(CISO)調(diào)查報告》中,人工智能已成為未來五年最常見的重大威脅。因此,組織必須優(yōu)先提高對這些人工智能網(wǎng)絡(luò)威脅的認(rèn)知,并相應(yīng)地加強(qiáng)防御。

人工智能驅(qū)動的網(wǎng)絡(luò)攻擊特征

人工智能驅(qū)動的網(wǎng)絡(luò)攻擊通常表現(xiàn)出以下特征:

  • 自動目標(biāo)分析:人工智能簡化了攻擊研究,利用數(shù)據(jù)分析和機(jī)器學(xué)習(xí),通過從公共記錄、社交媒體和公司網(wǎng)站上收集信息,有效地分析目標(biāo)。
  • 高效的信息收集:通過在各種在線平臺上自動搜索目標(biāo),人工智能加速了偵察階段,提高了效率。
  • 個性化攻擊:人工智能分析數(shù)據(jù),以高精度創(chuàng)建個性化的網(wǎng)絡(luò)釣魚消息,增加欺詐成功的可能性。
  • 針對性的目標(biāo):人工智能會識別組織內(nèi)有權(quán)訪問敏感信息的關(guān)鍵人員。
  • 強(qiáng)化學(xué)習(xí):人工智能利用強(qiáng)化學(xué)習(xí)(Reinforcement Learning)對攻擊進(jìn)行實時適應(yīng)和持續(xù)改進(jìn),根據(jù)之前的交互調(diào)整策略,以保持敏捷性,提高成功率,同時保持領(lǐng)先于安全防御。

人工智能支持的網(wǎng)絡(luò)攻擊類型

1.高級網(wǎng)絡(luò)釣魚攻擊

網(wǎng)絡(luò)安全公司SlashNext最近的一份報告顯示了令人震驚的統(tǒng)計數(shù)據(jù):自2022年第四季度以來,惡意網(wǎng)絡(luò)釣魚郵件激增了1265%,憑據(jù)網(wǎng)絡(luò)釣魚飆升了967%。網(wǎng)絡(luò)犯罪分子正在利用ChatGPT等生成式人工智能工具來制作高度針對性和復(fù)雜的商業(yè)電子郵件欺詐(BEC)和網(wǎng)絡(luò)釣魚信息。

用蹩腳的英語編寫“尼日利亞王子”(Prince of Nigeria)電子郵件的日子已經(jīng)成為過去。如今的網(wǎng)絡(luò)釣魚郵件高度逼真,甚至能夠成功模仿來自可信來源的官方通信的語氣和格式。威脅行為者利用人工智能來制作極具說服力的電子郵件,這對區(qū)分其真實性構(gòu)成了挑戰(zhàn)。

人工智能網(wǎng)絡(luò)釣魚攻擊防御策略

  • 實施先進(jìn)的電子郵件過濾和反網(wǎng)絡(luò)釣魚軟件,以檢測和阻止可疑電子郵件。
  • 教育員工如何識別網(wǎng)絡(luò)釣魚指標(biāo),并定期進(jìn)行網(wǎng)絡(luò)釣魚意識培訓(xùn)。
  • 實施多因素身份驗證并定期更新軟件以減少已知漏洞。

2.高級社會工程攻擊

人工智能生成的社會工程攻擊涉及通過人工智能算法編造令人信服的人物角色、信息或場景,來操縱和欺騙個人。這些方法利用心理學(xué)原理來影響目標(biāo),使其透露敏感信息或采取某些行動。

人工智能生成的社會工程攻擊示例包括以下幾種:

  • 人工智能生成的聊天機(jī)器人或虛擬助手能夠與人類進(jìn)行類似的互動,并在此過程中收集敏感信息或操縱他們的行為。
  • 人工智能驅(qū)動的深度造假(Deepfake)技術(shù)通過為虛假信息活動生成真實的音頻和視頻內(nèi)容,構(gòu)成了重大威脅。惡意攻擊者可以利用人工智能語音合成工具,收集和分析音頻數(shù)據(jù),以準(zhǔn)確模仿目標(biāo)的聲音,便于在各種場景中實施欺詐活動。
  • 通過人工智能生成的個人資料或自動機(jī)器人來操縱社交媒體,傳播虛假新聞或惡意鏈接。

人工智能社會工程攻擊防御策略

  • 高級威脅檢測:實施人工智能驅(qū)動的威脅檢測系統(tǒng),能夠識別表明社會工程攻擊的模式。
  • 電子郵件過濾和反網(wǎng)絡(luò)釣魚工具:利用人工智能解決方案在惡意電子郵件到達(dá)用戶收件箱之前阻止它們。
  • 多因素身份驗證(MFA):實現(xiàn)MFA以增加額外的安全層,防止未經(jīng)授權(quán)的訪問。
  • 員工培訓(xùn)和安全意識計劃:通過持續(xù)的意識活動和培訓(xùn)課程,教育員工識別和報告社會工程策略,包括人工智能驅(qū)動的技術(shù)。

3.勒索軟件攻擊

NCSC評估報告指出,包括勒索軟件組織在內(nèi)的威脅行為者已經(jīng)在偵察、網(wǎng)絡(luò)釣魚和編碼等各種網(wǎng)絡(luò)操作中利用人工智能技術(shù),來提升攻擊速度和成功率。而且,預(yù)計這些趨勢將持續(xù)到2025年以后。

人工智能勒索軟件攻擊防御策略

  • 高級威脅檢測:使用人工智能驅(qū)動的系統(tǒng)來發(fā)現(xiàn)網(wǎng)絡(luò)活動中的勒索軟件模式和異常。
  • 網(wǎng)絡(luò)分段:劃分網(wǎng)絡(luò)以限制勒索軟件的橫向移動能力。
  • 備份與恢復(fù):定期對關(guān)鍵數(shù)據(jù)進(jìn)行備份,并驗證恢復(fù)過程。
  • 補(bǔ)丁管理:保持系統(tǒng)更新,以修復(fù)被勒索軟件利用的漏洞。

4.對抗性人工智能

逃逸攻擊(Evasion Attack)和投毒攻擊(Poisoning Attack)是人工智能和機(jī)器學(xué)習(xí)模型背景下的兩種對抗性攻擊。

  • 投毒攻擊:這些攻擊涉及將惡意數(shù)據(jù)插入AI或ML模型的訓(xùn)練數(shù)據(jù)集中。目標(biāo)是通過微妙地改變訓(xùn)練數(shù)據(jù)來操縱模型的行為,從而導(dǎo)致有偏差的預(yù)測或性能受損。通過在訓(xùn)練過程中注入有毒數(shù)據(jù),攻擊者可以破壞模型的完整性和可靠性。
  • 逃逸攻擊:這些攻擊的目的是通過偽造輸入數(shù)據(jù)來欺騙機(jī)器學(xué)習(xí)模型。目標(biāo)是通過對輸入的細(xì)微修改來改變模型的預(yù)測,使其對數(shù)據(jù)進(jìn)行錯誤分類。這些調(diào)整經(jīng)過精心設(shè)計,使人類在視覺上無法察覺。逃逸攻擊在不同的人工智能應(yīng)用中很普遍,比如圖像識別、自然語言處理和語音識別。

對抗性人工智能防御策略

  • 對抗性訓(xùn)練:使用可用的自動發(fā)現(xiàn)工具訓(xùn)練模型識別對抗性示例。
  • 切換模型:在系統(tǒng)中使用多個隨機(jī)模型進(jìn)行預(yù)測,增加攻擊者實施惡意操作的困難度,因為他們無法確定正在使用的當(dāng)前模型是哪一種。
  • 一般化模型:將多個模型組合起來創(chuàng)建一般化模型(Generalized Model),使威脅參與者難以欺騙所有模型。
  • 負(fù)責(zé)任的AI:利用負(fù)責(zé)任的AI框架來解決機(jī)器學(xué)習(xí)中獨(dú)特的安全漏洞,因為傳統(tǒng)的安全框架可能遠(yuǎn)遠(yuǎn)不夠。

5.惡意GPT

惡意GPT涉及操縱生成式預(yù)訓(xùn)練模型(GPT)以達(dá)到攻擊目的。利用大量數(shù)據(jù)集的定制GPT可以潛在地繞過現(xiàn)有的安全系統(tǒng),從而加劇人工智能威脅。

知名的惡意GPT包括(但不僅限于)以下幾種:

  • WormGPT:用于生成欺詐性電子郵件、仇恨言論和分發(fā)惡意軟件,為網(wǎng)絡(luò)犯罪分子執(zhí)行商業(yè)電子郵件欺詐(BEC)攻擊提供服務(wù)。
  • FraudGPT:能夠生成無法檢測的惡意軟件、網(wǎng)絡(luò)釣魚頁面、未公開的黑客工具、識別泄漏和漏洞,并執(zhí)行附加功能。
  • PoisonGPT:PoisonGPT通過在歷史事件中注入虛假細(xì)節(jié)來傳播錯誤信息。這一工具使惡意行為者能夠捏造新聞,歪曲事實,并影響公眾認(rèn)知。

結(jié)語

人工智能引發(fā)的攻擊構(gòu)成了嚴(yán)重威脅,能夠造成廣泛的傷害和破壞。為了應(yīng)對這些威脅,組織應(yīng)該投資防御性人工智能技術(shù),培養(yǎng)安全意識文化,并不斷更新其防御策略。通過保持警惕和積極主動,組織可以更好地保護(hù)自身免受這種新的和不斷發(fā)展的威脅影響。

 
 

上一篇:國家互聯(lián)網(wǎng)信息辦公室關(guān)于發(fā)布第五批深度合成服務(wù)算法備案信息的公告

下一篇:2024年4月12日聚銘安全速遞