本文是“网络弹性剧本:威胁新时代的导航”特刊的一部分。从此处了解更多特刊。
由于在所有企业中都加速了人工智能的引入,因此其闪电适应性创造了安全悖论,团队如何保护在其企业规模中不断发展的系统?
Adverslar AI目前主导着威胁,为神圣的网络水供水。开始快速武装AI的各个方面,包括大语言模型(LLMS)。 AI的迅速采用为安全团队无法跟上当前安全技术的攻击开辟了新的表面。
最重要的是,对抗性AI和保护性AI之间的差距迅速增长,企业的安全性和财务稳定性悬挂在资产负债表中。从数据中毒到快速注射攻击,对手已经使用了AI漏洞,将该技术变成了虚假信息,安全障碍和业务障碍的矢量。
思科如何帮助缩小差距
Cisco保护策略旨在缩小AI的对抗性媒体及其对企业造成伤害的潜力之间的这些不断扩大的差距。由于通用艺术中的大多数人工智能部署在2028年将无法获得足够的安全性,因此Cisco Time是初步的。
Gartner也是 领导电子广告在其发展的技术影响范围内:云安全性,在2028年,到2028年,AI Gen Gen Gen Sualtion将部署在没有足够安全覆盖的基础架构中,并受到企业的企业,受到了企业的企业,该企业受到了前所未有的范围。
没有任何企业能够捍卫人工智能模型 – 他们需要帮助解决这种高度适应资产的悖论,这可以在不知情的情况下轻松武装。
一月份发起的思科防御广告防御措施解决了这个谜语,整合了实时监控,检查模型并确保符合规模的规模。
无形战争:AI作为攻击的表面
AI的最大力量及其为企业提供最大价值的地方是它独立学习和适应的能力。但这也是他最大的弱点。人工智能模型不是界定的,这意味着他们的行为会随着时间的流逝而变化。这种不可预测性创造了攻击者操作的保护性盲点。
当悖论变得更宽时,Hiberva -Stels弹出的证据表明。训练数据集损坏了数据中毒攻击,迫使AI产生偏见,有缺陷或危险的输出。操作攻击旨在在披露客户的机密数据或损坏模型和数据的命令时欺骗AY聊天机器人。渗透模式旨在旨在专有人工智能模型,窃取知识产权并破坏公司的竞争优势。
阴影AI – 或未经授权使用人工智能工具与对外部人工智能模型(例如Chatgpt和Copilot)的无意(或不)敏感数据的员工,也有助于越来越大的问题。
根据思科的EVP和CPO Jeetu Patel的说法:“在接受AI时,商业和技术领导者无法为速度牺牲安全。在竞争激烈的动态景观中,速度解决了胜利者。”
简单地说:没有安全性的速度是一个失败的游戏。
思科AI防御:一种新的人工智能安全方法
AI Cisco保护是专门建造的,将安全性引入网络基础架构中,以便它可以扩展和保护人工智能的开发,启动和使用的各个方面。
该平台以其核心提供:
- AI的可见性和AI阴影的检测:安全团队在人工智能的授权和未经授权的应用中实时可见,跟踪谁使用AI,如何研究以及它是否与安全政客相对应。
- 自动模型检查和红色命令:根据其可靠收集的情报思维的基础开发的思科算法红色团队通过了数万亿个攻击建模,揭示了对手面前的脆弱性。
- AI的安全和适应性执行时间执行:AI模型经过持续验证,以实时检测和阻止快速引入,数据中毒和竞争的漏洞。
- 访问控制和预防数据丢失(DLP):企业可以防止未经授权使用AI,确保遵守安全策略,并提供机密数据,以免进行AI的外部模型。
对人工智能的保护将AI的安全性引入思科网络结构,确保人工智能的安全是企业不可或缺的一部分,而不是迟来的思想。
人工智能防御引入了由人工智能管理的企业DNA的安全
令人震惊的结果并担心落后于竞争者的滞后,越来越多的组织试图按规模部署AI。由于结果充其量,“现在的部署,现在是安全的,以后安全”是有风险的,有助于以打算随意攻击目标组织的形式喂养Cybervo Water。
Cisco于2024年的AI准备就绪指数发现,只有29%的企业感到能够检测和防止未经授权的AI伪造。这意味着71%的企业容易受到网络攻击,受控的AI,合格障碍和AI灾难性失败的影响。
Gartner警告说,企业应实施保护AI执行的机制,因为终点的传统安全工具无法保护AI模型免受对抗性攻击。
要保持领先地位,企业必须:
- 接受安全AI的联合框架:安全解决方案应该是不可或缺的,自动化的,并内置在基础架构中。
- 引入情报威胁和持续验证:AI模型需要持续监控,因为威胁景观的变化太快而无法进行静态保护。
- 确保在不同环境中遵守人工智能:监管框架在世界各地都被收紧。企业必须遵守安全政策,并具有制定合规性的授权,例如欧盟法律AI和NIST AI框架。
思科AI防御:命令AI Enterprise AI发展威胁
AI是企业创新的未来,但无抵押的AI是责任。可以通过网络犯罪分子操纵,操作和武装的左保护,AI。
国防思科AI不仅是安全工具,这是企业量表上的安全策略。实时集成对人工智能的监视,自动化模型测试并确保符合网络,思科为人工智能制定了新标准。
正如帕特尔(Patel)所警告的那样:“ AI安全问题由新的复杂和脆弱的模型,应用和供应链代表。我们必须以相反的方式思考。 AI的保护是专门的,以确保企业可以安全地引入创新,而无需妥协。