安全動態(tài)

開源AI的安全隱患:如何在數(shù)字化時代確保軟件供應(yīng)鏈的安全

來源:聚銘網(wǎng)絡(luò)    發(fā)布時間:2024-05-20    瀏覽次數(shù):
 

在開源社區(qū)開發(fā)的應(yīng)用程序往往面臨很大的安全挑戰(zhàn),因為它們是免費的、廣泛可用的,并且由志愿者支持。即使一個主要的開源AI項目尚未被入侵,也只是時間問題而已。

因此,讓我們探討為什么開源AI缺乏安全性,以及安全專業(yè)人員可以采取哪些措施來改善這一情況。

回到未來:AI即軟件

首先,必須承認AI并不是與軟件不同的東西;它本質(zhì)上是軟件。因此,它是IT系統(tǒng)操作的一部分,也屬于軟件供應(yīng)鏈的一部分。AI應(yīng)該像對待任何其他代碼或工件一樣對待。

同樣值得注意的是,軟件供應(yīng)鏈安全不僅僅是關(guān)于Web應(yīng)用程序、命令行工具或其他通常被認為是軟件的東西,它保護企業(yè)在開發(fā)、分發(fā)和部署軟件時的每一個組件和過程,可以將其視為應(yīng)用于系統(tǒng)交付生命周期(SDLC)的網(wǎng)絡(luò)安全。軟件開發(fā)的每個階段,從編碼和構(gòu)建到生產(chǎn)、部署和維護,都涉及其中,并且需要確保安全。

AI軟件供應(yīng)鏈中可能出錯的地方

AI供應(yīng)鏈中的挑戰(zhàn)與更廣泛的軟件供應(yīng)鏈中的挑戰(zhàn)相似,但在將大型語言模型(LLM)或機器學習(ML)模型集成到企業(yè)的框架中時,增加了復雜性。

例如,考慮一個金融機構(gòu)希望利用AI模型進行貸款風險評估的場景,這個應(yīng)用程序需要仔細審查AI模型的軟件供應(yīng)鏈和訓練數(shù)據(jù)來源,以確保符合監(jiān)管標準,例如禁止在貸款審批過程中使用受保護類別。

舉例來說,讓我們看看銀行如何將AI模型整合到其貸款風險評估程序中。法規(guī)要求嚴格遵守貸款審批標準,禁止使用種族、性別、國籍等人口統(tǒng)計數(shù)據(jù)作為決定性因素。因此,銀行必須考慮和評估AI模型的軟件和訓練數(shù)據(jù)供應(yīng)鏈,以防止可能導致法律或監(jiān)管問題的偏見。

這個問題超出了個別企業(yè)的范圍。更廣泛的AI技術(shù)生態(tài)系統(tǒng)面臨著令人擔憂的趨勢。最近的研究表明,開源AI軟件工具的安全狀態(tài)與其受歡迎程度呈反比。簡而言之,開源AI工具或模型的采用越廣泛,其可能存在的安全漏洞就越多。

此外,基于潛在非法或不道德數(shù)據(jù)訓練的開源AI模型的普遍存在,給用戶帶來了重大的法律和監(jiān)管風險,這種風險突顯了在AI供應(yīng)鏈中采取加強措施以確保安全使用的必要性。盡管AI的未來充滿希望,但解決這些挑戰(zhàn)對其負責任的采用和持續(xù)成功至關(guān)重要。

安全專業(yè)人員可以采取的措施

確保開源安全需要在多個方面進行關(guān)注,包括:

  • 安全規(guī)范:倡導在開源社區(qū)內(nèi)實現(xiàn)更大的透明度和責任制,要求提供必要的安全元數(shù)據(jù),例如軟件物料清單(SBOM)、SLSA(軟件工件供應(yīng)鏈級別)和SARIF(靜態(tài)分析結(jié)果交換格式)。
  • 開源安全工具:與支持安全項目的公司合作,如Allstar、GUAC和in-toto聲明,以分擔一些責任,同時仍然從開源創(chuàng)新中受益。
  • 行業(yè)貢獻和開源資金:支持像開源安全基金會(OpenSSF)這樣的組織,該基金會開發(fā)規(guī)范、工具和倡議以確保關(guān)鍵開源項目的安全性。

CISO及其安全團隊需要了解其企業(yè)環(huán)境中的軟件信息,以確保其安全性,有了這些信息,CISO可以就集成到環(huán)境中的軟件組件做出明智的、基于風險的決策。僅依賴志愿者的安全努力而不進行貢獻或投資是不可持續(xù)且無效的。

 
 

上一篇:關(guān)于印發(fā)《數(shù)字鄉(xiāng)村建設(shè)指南2.0》的通知

下一篇:多模態(tài)大語言模型的致命漏洞:語音攻擊