報告:敏感資料大量分享至生成式 AI 工具的風險

約 1 分鐘閱讀 71 次瀏覽

敏感數據的洩漏風險

一份由 Harmonic Security 今天發布的報告指出,與生成式人工智慧(AI)工具共享的數據量正在以指數級速度增加,這將不可避免地導致更多的安全漏洞和合規問題。2025年,有分析顯示,使用在六種生成式 AI 應用中的22.4億次提示中,71%的數據暴露涉及 ChatGPT。

數據暴露的具體分析

在所發現的數據暴露中,17%涉及個人或免費帳戶,這些帳戶中組織無法監控,沒有審計追蹤,且數據可能用於訓練公共模型。在涉及敏感數據的98,034個實例中,大多數(87%)是通過 ChatGPT Free 分享的,其次是 Google Gemini(6%)、Microsoft Copilot(3.5%)、Claude(2.5%)和 Perplexity(1.3%)。

在分析的22.4億次提示中,有579,000次(2.6%)含有公司敏感數據。其中,代碼暴露佔30%,其次是法律文件(22.3%)、合併與收購數據(12.6%)、財務預測(7.8%)、以及投資組合數據(5.5%)。

數據存儲地點的隱患

Harmonic Security 的產品行銷副總裁 Michael Marriott 指出,許多數據最終儲存在不尊重數據隱私的國家數據中心。例如,能夠追蹤的生成式 AI 工具中,4%的使用涉及將數據儲存在中國的應用程式。許多應用並未明確標示其數據儲存位置。

預防措施與建議

網路安全團隊面臨的挑戰在於,與生成式 AI 工具共享的數據可能需數月甚至數年後才會被察覺出現漏洞。若最終敏感數據出現在生成的 AI 模型輸出中,可能會導致重大罰款。理想情況下,更多組織應依賴有防護措施的商業版工具,這些工具能幫助防止敏感數據被分享。即便如此,許多防護措施可能被繞過,因此需要監控員工如何使用這些工具,以減少數據洩漏事件的發生。

分享文章
需要主機服務?

專業 DDoS 防禦主機

立即諮詢

相關文章

專業分析:零信任架構實作指南:現代企業資安防護最佳實踐

隨著企業面臨的資安威脅日益複雜,零信任架構成為現代企業資安防護的重要策略。本文深入探討零信任架構的基本概念、實作過程及其在企業資安中的應用,並提供實用建議以幫助...

最新資訊安全趨勢與企業防護策略

在數位化浪潮下,資訊安全成為企業面臨的重要挑戰。本文探討最新的資安趨勢,包括網路安全威脅的演變,並提供企業在技術層面的防護策略,確保數據與系統的安全。從端點防護...

時間:網路安全的全新攻擊面—可信時間同步的重要性

在零信任架構和日益精密的網路威脅時代,時間同步不再僅僅是技術細節,而是網路安全的基石。本次研討會將探討如何利用 Stratum 1 網路時間伺服器進行安全、精確...