OpenAI已与亚马逊云服务(AWS)签署了一项为期七年、价值380亿美元的协议,在微软Azure之外增加了另一个超大规模云服务提供商,以满足其不断增长的AI计算需求。该公司获得如此巨额资金的来源尚未披露。
就在OpenAI完成营利性重组不到一周后,该公司已经与AWS签署了这项380亿美元的协议,开始在另一个云平台上进行数据处理。在上周二完成的重组之前,如果OpenAI要将其云计算需求转移到其他地方,微软保留了优先拒绝权,但随着这家AI巨头正式转型为营利性公共利益公司,这部分合作关系已经消失。
根据双方联合发布的新闻稿,该协议将使OpenAI"立即开始"获得AWS EC2 UltraServers的访问权限。OpenAI在AWS上的计算能力将在未来七年内逐步扩大,最终扩展至"数千万个CPU",该公司将用这些资源"快速扩展智能体工作负载"。
AWS首席执行官Matt Garman在谈到这项新合作时表示:"优化计算的广度和即时可用性证明了为什么AWS在支持OpenAI庞大AI工作负载方面具有独特优势。"
除了获得现有AWS资源的访问权限外,OpenAI还将在未来几年获得一些为其定制部署的基础设施,这将涉及一些传统的英伟达GPU。根据新闻稿,AWS正在使用英伟达Blackwell GB200和GB300芯片集群构建"一个为最大AI效率和性能而优化的复杂架构设计"。AWS补充说,这些英伟达GPU将与EC2 UltraServers在同一网络上进行集群化。
这一宣布不仅紧随OpenAI转为营利性公司之后,AWS也宣布了自己与OpenAI的Stargate项目竞争的平台。Stargate项目旨在与甲骨文、英伟达和软银等OpenAI合作伙伴一起为AI处理构建大量计算能力。虽然Stargate的启动进展缓慢,但AWS的Rainier项目已经启动并运行,AWS将此归功于其对从芯片到数据中心设计整个技术栈的完全控制。正如上周的情况一样,AWS将其"在云基础设施方面的领导地位"列为OpenAI选择其作为最新云计算合作伙伴的原因之一。
需要注意的是,考虑到OpenAI已经向甲骨文和英伟达等公司承诺了大量资金,很难确定它将从哪里再找到380亿美元。要知道,该公司仅在上个季度就亏损了约120亿美元。
虽然这项合作规模庞大,但我们被告知它不会包括OpenAI计算和Rainier项目的任何混合,亚马逊告诉The Register这与其与OpenAI的协议完全分离。
而且,Sam Altman并非完全脱离微软:雷德蒙德可能无意中透露了OpenAI上季度的估计亏损,但那是在微软已经获得OpenAI新公共利益公司27%股份以及这家AI新贵承诺在Azure上花费2500亿美元以继续满足其大部分云计算需求之后。
与此相比,感觉更像是OpenAI正在经历一个青少年时刻,象征性地伸展双腿,测试其独立性,同时仍然依赖萨提亚这位父亲。
Q&A
Q1:OpenAI与AWS签署的协议具体内容是什么?
A:OpenAI与AWS签署了一项为期七年、价值380亿美元的协议。OpenAI将获得AWS EC2 UltraServers的访问权限,计算能力将扩展至数千万个CPU,用于快速扩展智能体工作负载。AWS还将使用英伟达Blackwell GB200和GB300芯片为OpenAI构建定制基础设施。
Q2:这个协议对OpenAI与微软的关系有什么影响?
A:OpenAI完成营利性重组后,微软失去了对其计算资源的优先拒绝权,但微软仍持有OpenAI新公司27%的股份,并且OpenAI承诺在Azure上花费2500亿美元。这更像是OpenAI在测试独立性,而非完全脱离微软。
Q3:OpenAI目前的财务状况如何?
A:OpenAI的财务状况令人担忧,仅在上个季度就亏损了约120亿美元。考虑到该公司已经向甲骨文、英伟达等公司承诺了大量资金,现在又签署了380亿美元的AWS协议,其资金来源成为一个问题。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。