Google Cloud托管式Lustre现已正式上线,该服务基于DDN的EXAScaler软件构建。
该项目最初于今年4月宣布,旨在为Google Cloud提供文件存储和快速访问服务,面向构建AI、生成式AI和高性能计算应用的企业和初创公司。Lustre是一个开源并行文件系统,具备高吞吐量和低延迟特性。作为Lustre的主要维护者,DDN利用该技术运行其横向扩展的EXAScaler阵列硬件。
DDN联合创始人兼总裁Paul Bloch表示:"通过将我们的EXAScaler技术以完全托管服务的形式提供给Google Cloud客户,我们正在帮助各行业组织加速创新,而无需承担管理复杂基础设施的负担。"
Google Cloud托管式Lustre专为紧密耦合的高性能计算工作负载以及AI训练和推理而设计。该服务可提供高达1TBps的读取吞吐量,延迟小于1毫秒,存储容量可从18TiB扩展至8PiB以上。通过多个性能层级(125MBps/TiB到1,000MBps/TiB),客户可以根据其AI、仿真或分析工作负载的特定需求定制性能。
该服务具备POSIX兼容性,并与Google Cloud计算引擎、Google Kubernetes引擎(GKE)、IAM、VPC服务控制以及Vertex AI平台等Google服务实现原生集成,同时支持Google Cloud的Nvidia GPU服务器。Vertex AI是一个综合的数据工程、数据科学和机器学习工程工作流平台,用于训练、部署和定制大语言模型以及开发AI应用。
Google Cloud托管式Lustre支持Terraform、与Google Cloud Storage的批量数据传输,以及用于GKE的托管CSI驱动程序。该服务提供99.9%的可用性服务级别协议。
Nvidia加速计算产品总监Dave Salvator表示:"通过整合DDN的企业级数据平台和Google的全球云能力,组织可以轻松访问大量数据,并在Google Cloud上利用Nvidia AI平台释放AI的全部潜力——缩短洞察时间,最大化GPU利用率,降低总体拥有成本。"
Google Cloud表示,它还提供另外两个并行文件系统——DDN Infinia和基于IBM Storage Scale的Sycomp Storage。Infinia和Storage Scale都在Google Cloud市场中提供,但都不是Google托管服务。
本地DDN客户能够根据需要将其EXAScaler工作负载迁移到Google云端。
客户可以直接通过Google Cloud控制台部署实例,或与Google Cloud或DDN代表联系获得定制化指导和支持。
好文章,需要你的鼓励
Xbench是知名投资机构红杉中国推出一款全新的AI基准测试工具,旨在真实地反映AI的客观能力,其在评估和推动AI系统提升能力上限与技术边界的同时,会重点量化AI系统在真实场景的效用价值,并采用长青评估的机制,去捕捉AI产品的关键突破。
这项研究首次将在线强化学习成功应用于流匹配模型,通过巧妙的ODE到SDE转换和去噪减少策略,显著提升了AI图像生成的精确度和可控性。在复合场景生成、文字渲染等任务上取得突破性进展,为AI生成领域开辟了新的技术路径。
Atlassian总裁Anu Bharadwaj在Transform 2025大会上分享了公司AI智能体规模化的实践经验。她强调,成功部署AI智能体需要营造实验文化,而非仅依靠自上而下的指令。Atlassian通过Rovo Studio平台为各团队提供了构建定制化智能体的环境,创造心理安全的工作氛围,鼓励员工大胆尝试和迭代。公司客户通过该平台显著提升了工作效率,建筑行业客户将路线图创建时间缩短75%。
这篇由阿里巴巴集团联合多所知名高校发表的综述论文,系统梳理了统一多模态理解与生成模型的最新发展。研究将现有模型分为扩散、自回归和混合三大类型,详细分析了不同图像编码策略的特点,整理了相关数据集和评估基准,并深入探讨了当前面临的技术挑战。