隨著企業依靠人工智慧來獲得競爭優勢,針對人工智慧模式的駭客對商業構成了越來越大的威脅。最近的報告顯示,數千個惡意檔案已上傳到人工智慧工具的關鍵儲存庫 Hugging Face,危及零售、物流和金融等行業使用的模式。國家安全專家警告稱,薄弱的安全措施可能導致專有系統被盜,正如 OpenAI 洩漏事件中所見。被盜的人工智慧模型可以被逆向工程或出售,從而削弱企業的投資並侵蝕信任,同時使競爭對手能夠實現跨越式創新。人工智慧模型是一種數學系統,經過資料訓練來識別模式並做出決策,就像告訴電腦如何完成特定任務(例如識別照片中的物件或編寫文字)的食譜一樣。
暴露的人工智慧模型北卡羅來納州立大學 海外數據 的研究人員展示了一種透訊號來提取人工智慧模型的新方法,精度高達 %。透過將探針放置在 Google Edge 張量處理單元 (TPU) 附近,他們可以分析揭示模型結構關鍵資訊的訊號。據推測,該攻擊不需要直接存取系統,這對人工智慧智慧財產權構成了安全風險。調查結果強調,隨著人工智慧技術在商業和關鍵系統中的使用,需要改進保障措施。人工智慧模型很有價值,我們不希望人們竊取它們,該研究論文的合著者、北卡羅來納州立大學電氣和計算機工程副教授 Aydin Aysu 在一篇部落格文章中表示。
建置模型成本高昂,並且需要大量的運算資源。但同樣重要的是,當模型被洩露或被盜時,該模型也變得更容易受到攻擊——因為第三方可以研究該模型並識別任何弱點。人工智慧訊號安全漏洞技術顧問 Suriel Arellano 告訴 PYMNTS,人工智慧模型容易受到攻擊,這可能迫使企業重新考慮使用某些設備進行人工智慧處理。他補充說,公司可能會轉向更集中和安全的計算,或考慮不易被盜的替代技術。這是一個潛在的場景。但更有可能的結果是,從人工智慧中獲得顯著收益並在公共環境中工作的公司將大力投資於提高安全性。