《连线》杂志的一篇文章提到,一些人认为生成式AI像原子弹一样,具备改变世界的强大能力,但也有人注意到,生成式AI比原子弹更危险。
在曼哈顿计划中,只有奥本海默等少数物理学家了解这项技术,技术发明以来也一直被全球严格控制。而现在,生成式AI则是所有人都触手可及的能力,可以被轻易滥用。
当然,技术本身是中立的,它的使用和影响取决于使用它的人。对于更多企业来说,既要应对生成式AI带来的安全威胁,也要正确合理地确保生成式AI安全落地,保障生成式 AI 系统的安全。
在网络安全领域,生成式AI是不折不扣的双刃剑
在网络安全领域,生成式AI会被黑客用滥用在网络攻击领域,也会被安全工作人员当做绝佳的防御工具。我们能看到,2023年上半年,市场上出现WormGPT和FraudGPT这样的工具,可以用于网络诈骗和网络勒索等恶意活动,能让黑客发起更复杂的攻击。
Darktrace 的研究显示,自 ChatGPT 为代表的生成式AI技术兴起以来,复杂的网络钓鱼攻击数量上升了 135%。我们也欣喜地看到,2023年3月,微软推出了Security Copilot工具,这是一个可以强化安全防护能力的工具,该工具可以通过自动化任务,汇集来自多个来源的安全数据和警报,从而快速检测和响应威胁,以帮助安全团队提升工作效率。
2023年6月,OpenAI宣布计划投入超过100万美元来启动一项网络安全创新扶持计划。该项目为的是提升由人工智能技术驱动的新一代网络安全能力建设,并促进高水平人工智能技术和网络安全应用间的协同效应。
企业安全领域的工作者应该意识到,生成式 AI 已成为网络安全领域不可忽视的重要组成部分。它既带来了更严重的安全威胁,同时也开辟了新的安全防护路径,只有充分认识到生成式AI的影响力,才能在不断变化的威胁环境中为企业保驾护航。
生成式AI带来强大而高效的安全工具
生成式AI不仅可以创建逼真的图像、文本或视频,能极大地提升我们处理和分析信息的能力,还能不断学习和进化,准确地理解和执行复杂任务。在安全领域,这种能力将带来强大而高效的工具,更好地识别和应对威胁,保护数据和系统不受侵害。
具体而言,生成式AI在六个方面都能提供很大帮助。
首先,生成式AI可以提高威胁检测和响应的有效性。与刚才提到的Security Copilot类似一样,生成式AI可以快速分析海量数据,快速检测到网络流量中的异常,反常的用户行为,可疑的电子邮件,从而快速识别恶意软件、钓鱼攻击或内部攻击等威胁。
同时,生成式AI的预测能力能更主动地做出预防措施。通过从以往的事件和网络安全趋势中汲取经验,生成式 AI 可以预测未来威胁或识别潜在的漏洞。从而使组织能够积极主动地采取安全措施,在漏洞被利用之前就加以解决。
生成式AI提高了安全防护的自动化程度和工作效率。通过自动执行的威胁检测,生成式 AI 可以加快发现和应对威胁的速度,从而减少潜在损失。此外,大量日常网络安全任务也可以自动化来执行。这不仅能提高效率,还能让安全人员专注于更具战略性和更复杂的任务。
生成式AI提高取证分析的效率和准确性。通过与威胁情报平台和数据库集成,生成式AI利用模式检测和识别代码相似性等功能来揭示可能会被手动操作遗漏的隐藏证据,快速分析恶意软件样本,解决一系列复杂的数字取证调查问题。
生成式 AI 也可用于个性化安全培训。生成式 AI 还可以根据员工的角色、过往行为和可能面临的威胁,为员工设计个性化的安全意识培训内容。这有助于减少人为错误,而人为错误是造成许多安全漏洞的重要因素。
生成式 AI 还有助于扩大安全运营规模。生成式 AI 在安全方面提供的诸多便利,让安全团队可以更快地获取更丰富的见解,并据此采取行动,将更多精力放在更重要的事项上。
如何保障生成式 AI 系统的安全
生成式 AI 在带来巨大安全优势的同时,也带来了新的挑战。企业希望生成式AI在企业落地并帮助企业构建竞争优势时,还应该注意如何确保生成式AI安全运行。因为生成式AI系统也可能会成为网络攻击的目标,如果得不到适当的保护,它们的功能可能被恶意利用。
由于生成式 AI 系统依赖于海量数据进行学习和决策,因此,对于数据的隐私和完整性有很高要求。通常需要对数据实施数据分类加密,需要有强有力的访问控制机制以及安全的数据存储和传输技术。
戴尔科技作为全球大型IT基础设施服务商,不仅有久经考验的企业级服务器、存储系统技术方案,还提供了备份、容灾和Cyber Recovery数据避风港“三位一体”的数据保护解决方案。无论是存储、处理还是传输过程,都能够帮助企业将数据隐私和数据完整性提高到很高的水平。
在解决数据隐私和数据完整性问题的同时,还应该注意“对抗攻击”的问题,防范通过恶意操纵 AI 系统的输入数据来欺骗 AI 系统,让系统发生故障或做出错误的决定。因此,企业还需要执行强有力的测试和验证程序,并研究如何防御此类攻击。
同样的,还要防止AI系统被恶意滥用。企业必须监视生成式 AI 系统的使用,并采取措施来检测和应对滥用行为。比如,要验证视频或音频的真实性,防止利用生成的虚假内容制造假新闻或者用于诽谤、欺诈等,从而造成负面影响。
此外,与所有 AI 一样,生成式AI系统基于大量数据训练而来,如果这些数据中包含了某些偏见,生成式 AI 系统也受到影响,从而作出不公平或歧视性的决策。要解决这个问题,需要定期审计,采用减少偏见的技术并遵守道德准则。
最后,生成式AI是非常强大的智能系统,企业应该对落地的生成式AI 系统实施强有力的访问控制措施,以零信任架构来管理访问权限,这对于防止未经授权的访问和阻止潜在的系统滥用有积极作用。
戴尔科技集团可显著简化零信任的落地,不仅在产品方案中内置了零信任架构,而且还在构建集成的零信任架构。戴尔科技提供零信任相关服务,可协助制定路线图、集成关键技术并实施主动管理。同时,还有专业的安全咨询服务以及广泛的合作伙伴生态帮助企业落地零信任架构。
结束语
总之,AI 对网络安全来说是一把双刃剑。一方面,它将带来新的安全威胁,另一方面,它可以帮助企业安全体系提高威胁检测和响应能力,提高预测能力和安全运营效率。
随着生成式 AI 时代的到来,AI 与网络安全将相互影响。考虑到生成式AI的强大能力,企业需要通过强有力的安全措施来持续监视、定期更新和修补来应对风险,保护好生成式AI系统,让生成式AI为企业产出更多价值。