
安全领导者必须成为AI的保障倡导者 、风险专家、业务优先数据管理员 、安全教育者和研究者 ,事项以下是保障如何引领你的企业走向更安全、更有效的业务优先AI使用之路。
当ChatGPT首次问世时,安全我询问了一个由CISO组成的事项小组,这对他们的保障网络安全计划意味着什么。他们认识到了即将到来的业务优先变化 ,香港云服务器但回顾了过去的安全颠覆性技术 ,如iPods 、事项Wi-Fi接入点和SaaS应用程序进入企业界的保障情况 。大家的业务优先共识是 ,安全AI将成为一个类似的安全颠覆者,因此他们认为80%(或更多)的AI安全要求已经到位。诸如强大的资产清单、数据安全、身份治理、云计算漏洞管理等安全基础 ,将作为AI网络安全的基础 。
快进到2025年,我的CISO朋友们说得对——但又不完全对。确实,一个健全且全面的企业安全计划可以作为AI安全的锚点,但剩下的20%比最初想象的要更具挑战性 。AI应用正在迅速扩大攻击面,同时还将攻击面扩展到第三方合作伙伴,以及深入到软件供应链内部 ,模板下载这意味着有限的可见性和盲点。AI通常根植于开源和API连接性,因此可能到处都存在影子AI活动。最后,AI创新正在迅速推进,使得负担过重的安全团队难以跟上步伐 。
除了AI的技术方面外,值得注意的是 ,许多AI项目最终都以失败告终 。根据标准普尔全球市场情报(S&P Global Market Intelligence)的研究,源码下载2025年有42%的企业关闭了大部分AI倡议(相比之下,2024年这一比例为17%) 。此外,近一半(46%)的企业在AI概念验证还未进入生产阶段就已叫停 。
为什么这么多AI项目会失败?行业研究指出,成本 、数据质量差、缺乏治理、人才缺口以及扩展问题等是主要原因。
随着项目的失败和一系列安全挑战的出现 ,企业在确保稳健的源码库AI创新和安全战略方面有一长串且不断增长的任务清单。当我最近与我的CISO朋友们会面时,他们经常强调以下五个优先事项 :
1. 以强大的治理模型为起点需要明确的是,我所说的不仅仅是技术或安全。事实上,AI治理模型必须始于业务和技术团队之间就AI如何以及在哪里用于支持企业使命达成的一致。
为了实现这一点 ,CISO应与CIO合作 ,免费模板对业务领导者以及法律、财务等业务职能部门进行教育,以建立一个支持业务需求和技术能力的AI框架,该框架应遵循从构思到生产的生命周期 ,并包括伦理考虑 、可接受的使用政策、透明度 、监管合规性以及成功指标 。
在此过程中,CISO应审查现有的框架 ,如NIST AI风险管理框架 、ISO/IEC 42001:2023 、联合国教科文企业关于人工智能伦理的建议,以及RockCyber的RISE(研究、实施、维持 、评估)和CARE(创建、采用 、运行、进化)框架。企业可能需要创建一个适合其特定需求的“最佳”框架 。
2. 全面且持续地了解AI风险要掌握企业的AI风险 ,首先要从基础做起,如AI资产清单、软件物料清单、漏洞和暴露管理最佳实践以及AI风险登记册。除了基础卫生外 ,CISO和安全专业人员必须了解AI特有的威胁 ,如模型中毒 、数据推断、提示注入等。威胁分析师需要跟上新兴的战术 、技术和程序(TTP),这些用于AI攻击。MITRE ATLAS是一个很好的资源 。
随着AI应用扩展到第三方,CISO将需要对第三方数据、AI安全控制、供应链安全等进行定制审计 。安全领导者还必须关注新兴且经常变化的AI法规。欧盟AI法案是目前最全面的,强调安全性、透明度 、非歧视性和环境友好性。其他法规,如科罗拉多州人工智能法案(CAIA) ,可能会随着消费者反应 、企业经验和法律判例法的演变而迅速变化。CISO应预期其他州、联邦、地区和行业法规的出现 。
3. 关注不断发展的数据完整性定义你可能会认为这是显而易见的 ,因为机密性 、完整性和可用性构成了网络安全的CIA三要素,但在信息安全领域,数据完整性一直侧重于未经授权的数据修改和数据一致性等问题。这些保护措施仍然是必要的 ,但CISO应扩大其视野,以包括AI模型本身的数据完整性和真实性 。
为了说明这一点,这里有一些著名的数据模型问题示例 。亚马逊创建了一个AI招聘工具 ,以帮助其更好地筛选简历并选择最合格的候选人 。不幸的是 ,该模型主要使用男性导向的数据进行训练,因此它歧视女性申请者 。同样,当英国创建一个护照照片检查应用程序时 ,其模型是使用白皮肤的人进行训练的,因此它歧视深色皮肤的人。
AI模型的真实性不是CISSP认证的一部分,但CISO必须将其作为AI治理责任的一部分来掌握 。
4. 在所有层面追求AI素养每个员工 、合作伙伴和客户都将在某种程度上与AI合作 ,因此AI素养是一个高度优先事项。CISO应从自己的部门开始 ,对整个安全团队进行AI基础知识培训 。
已建立的软件安全开发生命周期(SDLC)应进行修订 ,以涵盖AI威胁建模、数据处理 、API安全等内容。开发者还应接受AI开发最佳实践的培训,包括大型语言模型(LLM)的OWASP十大安全风险、谷歌的安全AI框架(SAIF)以及云安全联盟(CSA)的指导 。
最终用户培训应包括可接受的使用 、数据处理 、错误信息和深度伪造培训。来自Mimecast等供应商的人类风险管理(HRM)解决方案可能是跟上AI威胁并为不同个体和角色定制培训所必需的 。
5. 对用于网络安全的AI技术保持谨慎乐观的态度我会将今天的AI安全技术归类为更像是“驾驶员辅助” ,如巡航控制 ,而非自动驾驶 。尽管如此,事情正在迅速推进 。
CISO应要求其员工识别离散的任务 ,如警报分类、威胁狩猎、风险评分和创建报告 ,在这些任务中他们可能需要一些帮助,然后开始研究这些领域的新兴安全创新 。
同时,安全领导者应与领先的安全技术合作伙伴安排路线图会议 。参加这些会议时 ,要准备好讨论具体需求,而不是听那些不切实际的PowerPoint演示。CISO还应直接询问供应商AI将如何用于现有技术的调优和优化 。创新正在不断涌现,因此我认为值得在现有合作伙伴 、竞争对手和初创企业中广泛寻找。
然而 ,要小心谨慎,许多AI“产品”实际上只是产品功能,AI应用需要大量资源 ,且开发和运营成本高昂。一些初创企业将被收购,但许多可能会迅速衰落 。买家要当心!
未来的机遇我将以一个预测来结束这篇文章,目前,约70%的CISO向CIO汇报工作 ,我相信 ,随着AI的普及 ,CISO的汇报结构将迅速发生变化,更多地将直接向CEO汇报,那些在AI业务和技术治理中发挥领导作用的人很可能会成为首批被提拔的人。
(责任编辑:数据库)