网络安全

AI安全的头等大事:建立AI资产清单

时间:2010-12-5 17:23:32  作者:数据库   来源:人工智能  查看:  评论:0
内容摘要:随着人工智能AI)技术的迅猛发展,企业首席信息安全官CISOs)正面临前所未有的挑战,既要满足企业业务快速迈向智能化的需求,同时又要防御爆炸式增长的AI安全威胁。风靡全球的DeepSeek只是AI工具

随着人工智能(AI)技术的安全迅猛发展,企业首席信息安全官(CISOs)正面临前所未有的头等大单挑战,既要满足企业业务快速迈向智能化的事建需求  ,同时又要防御爆炸式增长的产清AI安全威胁。

风靡全球的安全DeepSeek只是AI工具潮的一朵浪花,未来还将有更多类似工具快速涌现 。头等大单这些未经授权的事建(消费级)AI应用如同一颗颗定时炸弹 ,潜伏在企业内部,产清威胁着数据安全与合规性 。免费模板安全那么 ,头等大单如何应对这一危机?事建答案的起点在于建立一个全面的AI资产清单。

AI资产清单:AI安全治理的产清基石

AI资产清单的建立不仅是必要的 ,而且正成为强制性要求 。安全没有这一清单  ,头等大单企业如同盲人摸象,事建无法准确识别AI使用带来的敏感数据暴露风险  ,也无法应对日益严格的合规性要求 。模板下载

欧盟《AI法案》(EU AI Act) 、ISO 42001标准以及美国国家标准与技术研究院(NIST)的AI风险管理框架(AI RMF)等监管框架已明确将AI资产清单视为治理AI的基础性步骤 。

例如 ,欧盟《AI法案》于2024年8月正式生效 ,其覆盖范围极为广泛,几乎囊括了所有AI系统 ,要求企业对其使用的AI技术进行全面登记和风险评估。ISO 42001则为企业提供了一个AI管理系统标准,强调通过清单化管理确保AI的透明性和责任性。而NIST AI RMF虽然是自愿性框架,但其“MAP”功能明确要求企业绘制AI使用图谱 ,亿华云识别潜在风险。

这些框架共同表明 ,AI资产清单不仅是合规的起点 ,更是安全治理的核心 。

然而,定义“AI资产”本身就是一大难题。欧盟《AI法案》采取广义方法,将几乎所有AI增强功能纳入监管范围;而企业则需自行判断是否应监控每一项AI特性,还是聚焦于生成式AI、建站模板大语言模型(LLM)和内容创建系统等高风险领域。专家建议,缩小关注范围至特定AI类别可显著降低清单编制的复杂性 ,使其更具可操作性 。

影子AI:暗中的杀手

除了监管压力,第三方供应商评估也日益要求企业提供AI资产清单,常称之为“审计”或“服务目录”。但合规只是表象,真正的挑战在于识别“影子AI”——那些未获正式批准却已被员工融入日常工作的AI工具 。据网络安全公司ZScaler的2024年报告,服务器租用企业中超过60%的员工承认使用过未经授权的AI工具 ,其中许多工具通过个人账户或免费版本接入 ,绕过了IT部门的监控 。

影子AI的泛滥使得传统IT治理工具捉襟见肘 。员工可能在不知情的情况下将敏感数据暴露给第三方模型,而这些工具的风险往往瞬息万变——一款昨天看似安全的工具,可能因新增AI功能而在一夜之间变成高危对象 。例如,DeepSeek的源码下载快速流行就暴露了企业对新兴工具的反应滞后 ,其数据存储政策引发了广泛争议。

AI资产追踪的六大方法

目前,企业采用的AI资产清单编制方法主要有以下六种 ,每种方法各有优劣:

基于采购的追踪:通过监控新AI工具的采购有效,但无法检测现有工具新增的AI功能或员工自带工具(BYOT)的使用 。手动日志收集 :分析网络流量和日志可发现AI相关活动 ,但耗时且覆盖面有限 。身份与OAuth验证 :审查Okta或Entra等身份管理平台的访问日志可追踪部分AI应用,但仅适用于集成这些服务的工具 。云安全访问代理与数据防泄漏(DLP)  :ZScaler和Netskope等解决方案提供一定可见性 ,但AI分类功能有限 ,难以强制执行政策。云安全态势管理(CSPM):Wiz等工具在AWS和谷歌云中对AI使用有较好洞察 ,但无法覆盖本地或非云环境 。扩展现有清单:基于风险对AI工具分类可与企业治理对齐,但难以跟上AI采用的快速变化 。

这些方法虽能提供一定可见性  ,却普遍依赖手动操作 ,效率低下且难以应对动态风险。网络安全专家指出 ,AI资产清单不仅是列出工具清单,更需评估其风险:这些工具是否从员工输入中学习 ?其数据保留政策如何 ?是否符合GDPR  、HIPAA等隐私法规  ?

自动化AI资产工具的崛起

为应对上述挑战,业界正转向更自动化、可重复的AI资产追踪工具 。这些工具通过持续监控检测AI使用,包括个人和免费账户,并识别哪些应用在训练企业数据 。例如 ,2025年初推出的Darktrace AI Guardian能够实时扫描网络流量,标记未经批准的AI工具,并生成动态资产清单 。此类工具还支持企业制定防护策略 ,防止员工无意中泄露机密信息 。

此外,自动化工具还推动了员工教育。例如,微软在2024年为其企业客户推出了AI使用仪表板,显示员工使用的AI工具并标注其安全性 ,帮助员工分辨哪些工具获批使用。这种透明性不仅降低风险,还增强了员工对合规工具的信任。

安全创新与合规的双赢

AI治理不应仅被视为风险管理任务,更是一个抓住创新机会的窗口 。领先建立AI资产清单的企业能够主动接触员工,了解其真实需求和用例,引导他们转向安全、批准的AI解决方案。安全领导者通过与AI委员会和高层分享这些数据 ,可提供基于现实的洞察,超越理论政策讨论 。

例如 ,谷歌在其2024年AI安全报告中提到 ,通过资产清单识别员工对生成式AI的高需求后,该公司迅速部署了内部批准的生成工具,不仅提升了生产力 ,还降低了外部工具带来的风险。这种做法表明 ,AI资产清单不仅是防御性措施 ,更是推动企业安全使用AI ,在这场人工智能革命中取得竞争优势的的战略举措 。

copyright © 2025 powered by 创站工坊  滇ICP备2023000592号-21sitemap