亚马逊网络服务公司今日在其年度re:Inforce 2025大会上宣布了一系列增强功能,旨在简化企业级云安全管理。
AWS首席信息安全官Amy Herzog在活动中表示,公司专注于大规模简化安全管理,同时展示AWS如何帮助各种规模的组织更有效地管理风险和应对威胁。基于这一愿景,大会发布了Security Hub、Shield和GuardDuty XTD三大产品的重要更新。
首要发布的是AWS Security Hub新版本预览,该版本能够优先处理关键安全问题,帮助用户大规模响应以降低安全风险、提高生产力并保护云环境。新版本将GuardDuty、Inspector、Macie、CSPM和第三方工具的发现结果关联并情境化,整合为一个可操作的信息流。
新版Security Hub还基于综合威胁和漏洞情报优先处理"活跃风险",支持批量修复工作流程。AWS表示,在测试中,客户的警报量减少了高达60%,新版本显著提升了可见性和事件响应效率。
AWS Shield正在升级,新增网络态势管理功能,目前处于预览阶段。更新版本自动发现跨账户的虚拟私有云资源,分析SQL注入和分布式拒绝服务漏洞等配置问题,并在可视化丰富的控制台中呈现优先级拓扑图。值得注意的是,修复步骤现在与Amazon Q驱动的对话式指导集成,帮助团队处理发现的问题而无需查阅文档。
第三个重大发布是Amazon GuardDuty扩展威胁检测现在将覆盖范围扩展到容器化环境,特别是EKS。GuardDuty XTD能够通过关联Kubernetes审计日志、运行时信号、应用程序编程接口使用情况和恶意软件检测,发现跨边界的多阶段攻击序列,规避更简单的检测。
新的攻击序列发现功能涵盖多个资源和数据源,时间跨度更长,让用户能够减少一级分析时间,将更多时间用于响应关键严重级别威胁,从而最大限度地减少业务影响。
除了三大重要发布外,AWS还宣布了其服务组合中十多项补充更新。
AWS WAF的控制台经过重新设计,配备专家策划的保护包和引导式工作流程,配置时间减少高达80%,同时提供规则性能的清晰可见性。Amazon CloudFront也通过统一的入门体验获得可用性提升,在由WAF集成规则包驱动的单一控制台中捆绑TLS证书颁发、DNS设置和推荐的内容分发网络设置。
身份和访问控制也得到升级,IAM Access Analyzer扩大了范围,能够高效确定内部和外部主体谁有权访问S3、DynamoDB和RDS,提供跨账户权限的清晰视图。同时,AWS现在对所有独立和成员账户的根用户强制执行多因素身份验证。
在基础设施安全方面,AWS网络防火墙已升级,现在能够摄取全球威胁情报,自动阻止威胁妥协指标,如命令控制域和恶意URL。备份恢复能力也通过气隙保险库的多方批准得到提升,确保恢复操作中没有单点故障。
大会还见证了AWS增强其开发安全产品,Amazon Inspector现已正式上线。该服务提供代码扫描功能,与GitHub和GitLab集成,在代码部署前捕获漏洞。开发者还通过Amazon Verified Permissions获得支持,该服务提供开源Express.js授权库,加速安全策略实施。
针对Express.js开发者,AWS还发布了@verifiedpermissions/authorization-clients-js开源包,允许开发者在几分钟内为其Express.js网络应用API实现授权。与传统的将授权逻辑嵌入应用程序的方法相比,该包通过显著减少自定义授权代码简化了开发并提高了应用程序安全性。
好文章,需要你的鼓励
模型上下文协议(MCP)服务器是连接概率性大语言模型和确定性微服务工作流的关键节点,充当推理引擎与外部数据工具的翻译层。在生产环境中部署AI智能体时,MCP服务器承担着定义智能体能力、管理上下文数据和执行操作三大核心职责。由于其非确定性客户端特性,传统单元测试无法有效验证,需要通过端到端测试来确保系统可靠性,这使得MCP服务器成为智能体架构中不可或缺的关键基础设施。
SimWorld是由UCSD等多所顶尖院校联合开发的革命性AI仿真平台,基于虚幻引擎5构建了具备真实物理规律的虚拟城市环境。该平台支持无限扩展的程序化世界生成和自然语言交互,让AI智能体能够在复杂环境中学会生存、合作和竞争,为通用人工智能的发展提供了前所未有的训练平台。
英伟达推出Vera Rubin计算平台,专为驱动具备思考和推理能力的智能AI系统而设计。该平台采用NVL72液冷机架系统,集成六种芯片包括新Vera CPU和Rubin GPU。相比Blackwell架构,Rubin GPU推理速度提升5倍,训练速度提升3.5倍。平台还推出推理上下文内存存储解决方案,性能提升5倍。此外,英伟达还发布了面向自动驾驶的开源Alpamayo模型系列。
浙江大学联合华为提出C2DLM,这是一种因果概念引导的扩散语言模型,通过自动提取因果关系并融入注意力机制来增强AI推理能力。相比传统方法,C2DLM在推理任务上平均提升1.31%-12%,训练效率提高3.2倍,为解决语言模型推理能力不足开辟了新路径。