Alphabet 首席执行官 Sundar Pichai 承诺将继续投资其云计算业务。公司第四季度业绩报告显示,截至 2024 年 12 月 31 日的三个月内,谷歌云收入增长 30% 至 120 亿美元。
据 Alphabet 在财务报告中表示,谷歌云季度收入同比增长主要得益于公司核心云基础设施业务的增长,以及市场对其人工智能基础设施和生成式 AI 解决方案需求的不断增加。
Pichai 表示,公司此前预计 2024 年底云计算和 YouTube 部门的年收入将超过 1000 亿美元,但两个部门的表现都超出预期。
Pichai 在声明中表示:"我们基于 AI 的谷歌云产品组合正面临更强劲的客户需求,YouTube 在流媒体观看时长和播客方面继续保持领先地位。"
"云计算和 YouTube 在 2024 年底的年收入达到 1100 亿美元...我们对未来的机遇充满信心,为加快发展进程,我们计划在 2025 年投入约 750 亿美元的资本支出。"
在讨论公司财务业绩的电话会议上,Pichai 表示公司正以"前所未有的速度"推出产品,这反映在产品使用量和收入的持续增长上。
他在 Seeking Alpha 转录的评论中说:"我们sophisticated的全球云区域和数据中心网络为我们和客户提供了强大的基础,直接推动收入增长。"
"我们拥有独特的优势,因为我们开发技术栈的每个组件,包括硬件、编译器、模型和产品。这种方法使我们能够在每个层面提高效率,从训练和服务到开发者生产力。"
这带来的连锁效应是,公司在 2024 年在美国和世界其他地区建设了 11 个新的云区域和数据中心园区,同时在此期间不断提升这些设施中硬件的性能。
Pichai 继续说道:"与五年前相比,谷歌数据中心现在每单位电力可提供近 4 倍的计算能力。这些效率提升,加上我们提供的可扩展性、成本和性能优势,是组织increasingly选择谷歌云平台的原因。"
"事实上,如今云客户用于训练和推理的计算容量比 18 个月前增加了 8 倍以上。我们将继续投资云业务,以确保能够满足不断增长的客户需求。"
关于这一点,Pichai 表示,2024 年新谷歌云客户的"首次承诺"数量是 2023 年的两倍多。
他补充说:"我们还加深了与现有客户的关系。去年,我们达成了几笔超过 10 亿美元的战略交易,超过 2.5 亿美元的交易数量比上一年翻了一番。"
IT 市场观察机构 Forrester 的首席分析师 Lee Sustar 表示,Pichai 在业绩中特别强调谷歌云和 YouTube 的表现,表明他试图向市场和投资者传达 Alphabet 的业绩不仅仅依赖于公司的搜索广告业务。
Sustar 说:"如果谷歌云是一家独立的公司,其由 AI 驱动的盈利增长会让投资者满意,并向客户证实该公司是企业 IT 市场的长期创新者。"
"然而,谷歌云是 Alphabet 投资组合中复杂反馈循环的一部分,这也需要在 AI 方面进行大量投资,比如广告驱动的搜索业务和 YouTube。"
"这显然就是为什么 Alphabet 首席执行官 Sundar Pichai 将云计算和 YouTube 包装成一个联合成功案例,引用 1100 亿美元的年收入数字 —— 向投资者传达 Alphabet 对搜索广告的依赖度比过去更低的信息。"
Sustar 补充说:"寻求在 AI 云服务方面进行长期投资的企业客户需要仔细研究和评估谷歌云及其竞争对手的投资计划。"
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。