暴露的人工智慧模型北卡羅來納州立大學 海外數據 的研究人員展示了一種透訊號來提取人工智慧模型的新方法,精度高達 %。透過將探針放置在 Google Edge 張量處理單元 (TPU) 附近,他們可以分析揭示模型結構關鍵資訊的訊號。據推測,該攻擊不需要直接存取系統,這對人工智慧智慧財產權構成了安全風險。調查結果強調,隨著人工智慧技術在商業和關鍵系統中的使用,需要改進保障措施。人工智慧模型很有價值,我們不希望人們竊取它們,該研究論文的合著者、北卡羅來納州立大學電氣和計算機工程副教授 Aydin Aysu 在一篇部落格文章中表示。

建置模型成本高昂,並且需要大量的運算資源。但同樣重要的是,當模型被洩露或被盜時,該模型也變得更容易受到攻擊——因為第三方可以研究該模型並識別任何弱點。人工智慧訊號安全漏洞技術顧問 Suriel Arellano 告訴 PYMNTS,人工智慧模型容易受到攻擊,這可能迫使企業重新考慮使用某些設備進行人工智慧處理。他補充說,公司可能會轉向更集中和安全的計算,或考慮不易被盜的替代技術。這是一個潛在的場景。但更有可能的結果是,從人工智慧中獲得顯著收益並在公共環境中工作的公司將大力投資於提高安全性。