对于三大超大规模云服务提供商来说,人工智能既是增长的动力,也是未来的隐忧,因为高端 AI 加速器和电力供应持续面临限制。
Microsoft 率先发布了 2024 年第四季度财报,1 月 29 日披露其智能云部门收入增长 19%,总计 255 亿美元。2 月 4 日,Alphabet 报告 Google Cloud 收入为 119.6 亿美元,同比增长 30%。作为三大云服务商中的最后一位,Amazon 在 2 月 6 日报告称 Amazon Web Services (AWS) 云业务收入为 288 亿美元,同比增长 19%。
Synergy Research Group 首席分析师 John Dinsdale 指出,2024 年第四季度云服务整体表现强劲,他认为 AI 是催化剂。
"我们评估认为,自从 ChatGPT 推出以来,生成式 AI 至少贡献了云服务收入增长的一半,"Dinsdale 表示,"这些增长来自新推出的生成式 AI/GPU 服务,或者是 AI 驱动的现有云服务改进。"
Microsoft 扩大"可替代性机群"数据中心容量 云计算的持续增长意味着需要更多容量。在 Microsoft 的财报电话会议上,CEO Satya Nadella 表示公司已显著扩大了数据中心容量。
"过去三年,我们的整体数据中心容量增长了一倍多,去年增加的容量更是创下历史新高,"他说。
该公司的云基础设施战略专注于构建 Nadella 所说的"可替代性机群",确保训练和推理能力之间的适当平衡,同时保持地理分布。
Google 同样在扩建数据中心容量 Google 的云业务增长不仅来自现有客户支出增加,还来自首次使用的新客户不断增长。
在公司财报会议上,Alphabet CEO Sundar Pichai 指出,Google Cloud 部门新客户承诺显著增长,首次承诺数量较 2023 年增长了一倍多。
Pichai 还详细介绍了基础设施的大规模扩张,报告称 2024 年 Google 在南卡罗来纳州、印第安纳州、密苏里州等地以及国际站点开工建设了 11 个新的云区域和数据中心园区。公司还宣布了七个新的海底电缆项目计划,以加强全球连接。
然而,仅仅建设新数据中心是不够的,这就是为什么效率成为 Google 的一个关键主题。
"与五年前相比,Google 数据中心每单位电力提供的计算能力提高了近四倍,"他说。
这种效率,加上可扩展性和性能,推动了客户采用。Google Cloud 客户现在用于训练和推理的计算容量比 18 个月前增加了八倍多。
不过,也存在一些担忧。在需求激增的情况下,特别是对 AI 产品的需求,云业务部门面临产能限制。正如 CFO Anat Ashkenazi 所说,"我们在年底时的需求超过了可用产能。"
Amazon 的云计算 AI 业务同样面临产能限制 在 Amazon 的财报电话会议上,CEO Andy Jassy 强调了 AI 在云计算中的变革潜力。
"我们认为,我们今天所知道的几乎每个应用程序都将通过内置 AI 重新发明,推理将成为核心构建模块,就像计算、存储和数据库一样,"Jassy 说。
虽然 AWS 正经历显著的 AI 驱动需求,但 Jassy 承认一些产能限制影响了增长潜力。"如果不是因为一些产能限制,我们可能会增长得更快,"他说,并提到来自第三方合作伙伴的芯片供应和电力限制带来的挑战。不过,他预测这些限制将在 2025 年下半年开始缓解。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。