
根据Netskope的员工数据,企业与GenAI应用共享的变成部威数据量激增 ,一年内增长了30倍 。无意现在 ,员工平均每个企业每月与AI工具共享的变成部威数据超过7.7GB,而一年前仅为250MB,无意这一数字大幅增长。员工
这包括源代码、变成部威受监管数据、无意密码和密钥以及知识产权等敏感数据 ,员工从而极大地增加了发生昂贵的变成部威数据泄露事件 、合规性违规和知识产权被盗的无意风险 。模板下载75%的员工企业用户正在使用具有GenAI功能的应用程序 ,这给安全团队带来了一个必须解决的变成部威大问题:即无意的内部威胁。
GenAI应用带来了日益增长的无意网络安全风险90%的企业有用户直接访问ChatGPT、Google Gemini和GitHub Copilot等GenAI应用 。98%的企业有用户使用提供GenAI功能的应用 ,如Gladly 、Insider 、Lattice、建站模板LinkedIn和Moveworks等。
根据许多不同的衡量指标 ,GenAI在企业中的采用率正在上升 。然而 ,从数据安全的角度来看,发送到GenAI应用的数据量最为重要 :每一次发布或上传都是数据暴露的机会 。
Netskope的CISO James Robinson表示:“尽管各企业都在努力实施公司管理的GenAI工具,但我们的源码下载研究表明,影子IT已经演变成影子AI,近四分之三的用户仍然通过个人账户访问GenAI应用。这一持续趋势 ,再加上所共享的数据,突显了需要先进的数据安全能力 ,以便安全和风险管理团队能够重新获得对企业内GenAI使用的治理、可见性和可接受使用的控制 。”
企业对GenAI数据缺乏控制许多企业无法全面甚至部分地了解在间接使用GenAI时 ,数据是如何被处理 、香港云服务器存储和利用的。通常,它们会选择采用“先阻止再询问”的策略,即明确允许某些应用并阻止其他所有应用 。然而 ,随着员工寻求这些工具带来的效率和生产力效益 ,安全负责人必须寻求一种安全赋能策略 。
以DeepSeek为例 ,Netskope发现,在2025年1月发布后的几周内,91%的企业有用户试图访问DeepSeek AI 。源码库当时 ,大多数企业还没有为DeepSeek制定安全策略 ,这使它们面临未知的风险。此外,员工可能会在不知情的情况下向AI提供专有业务数据,将源代码 、知识产权 、受监管数据甚至密码输入到生成式AI应用中。
Netskope威胁实验室总监Ray Canzanese表示 :“我们的最新数据显示 ,GenAI不再是一种小众技术,它无处不在 。它正日益融入从专用应用到后端集成的免费模板方方面面。这种无处不在的特性带来了日益严峻的网络安全挑战 ,要求企业采取全面的风险管理方法 ,否则其敏感数据可能会被第三方获取 ,用于训练新的AI模型,从而造成更大范围的数据泄露。”
在过去的一年中 ,Netskope还观察到,运行本地GenAI基础设施的企业数量大幅增加 ,从不到1%增加到54%,这一趋势预计将持续下去 。尽管这降低了云中的第三方应用造成数据泄露的风险 ,但转向本地基础设施带来了新的数据安全风险,包括供应链风险、数据泄露、不当的数据输出处理、prompt注入、越狱和meta prompt提取。因此,许多企业在已经使用的基于云的GenAI应用之上 ,又增加了本地托管的GenAI基础设施。
影子AI的兴起虽然大多数企业都在使用GenAI,但只有一小部分但持续增长的用户正在积极使用GenAI应用。在过去的一年里,企业中使用GenAI应用的人数几乎翻了一番 ,每个企业中平均有4.9%的人在使用GenAI应用。
GenAI应用在企业中的采用遵循了新云服务的典型模式:单个用户使用个人账户访问应用。结果是 ,企业中使用GenAI应用的大多数都可以归类为影子IT ,这是一个用于描述未经IT部门了解或批准即被使用的解决方案的术语 。
“AI不仅正在重塑边界和平台安全 ,它还在改写规则 ,”Netskope的安全与情报运营副总裁Ari Giguere表示。
99%的企业都在执行政策以降低与GenAI应用相关的风险。这些政策包括阻止所有或大多数用户访问所有GenAI应用 、控制哪些特定用户群体可以使用GenAI应用以及控制允许哪些数据进入GenAI应用 。以下部分将详细阐述最受欢迎的政策 。