根据 IT 分析机构 Synergy Research Group 的研究显示,随着运营商为满足日益增长的生成式 AI 服务需求而扩充其设施的 IT 负载能力,超大规模数据中心的规模正在不断扩大。
Synergy Research Group 分享的预测数据显示,未来四年内,超大规模数据中心的平均规模将增长一倍。
Synergy 在一份研究报告中指出:"超大规模数据中心的关键 IT 负载规模一直呈增长趋势,但生成式 AI 技术和服务的高能耗特性让这一趋势加速发展。"
"与此同时,随着单个数据中心的平均 IT 负载不断提升,运营中的超大规模数据中心数量也将持续稳定增长。"
该公司的数据确认,目前全球已有 1,103 个超大规模数据中心在运营,未来四年内还将新增 497 个。
Synergy 补充道:"考虑到超大规模数据中心数量的持续增长和显著增加的平均规模,我们预测到 2030 年底,超大规模数据中心的总容量将增长近两倍。"
该公司的超大规模研究基于对全球 19 家主要云计算和互联网服务公司的数据中心足迹和运营分析。
Synergy Research Group 首席分析师 John Dinsdale 表示:"运营中的超大规模数据中心数量持续增长,在过去五年中翻了一番。这一基数将继续增长,但市场最显著的变化是新建数据中心容量的不断提升。"
"考虑到超大规模数据中心的组合在不断变化 - 新旧更替、区域差异以及自有与租赁的比例 - 这个计算很复杂,但总的来说,我们将看到以 GPU 为导向的基础设施使新建超大规模数据中心的容量翻倍。"
这是 Synergy Research Group 近期第二次发布数据,指出生成式 AI 需求对数据中心市场的变革性影响。
数据显示,生成式 AI 服务需求是 2024 年数据中心硬件和软件支出创历史新高的原因之一,因为数据中心运营商在去年投入大量资金建设支持 AI 的服务器集群。
Dinsdale 说:"虽然公共云的持续成功一直是过去十多年推动数据中心投资的主要力量,但没有人预想到 2024 年数据中心设备市场规模会超过 2,800 亿美元。"
好文章,需要你的鼓励
香港大学和加州大学伯克利分校的一项新研究显示,在没有人工标注数据的情况下,语言模型和视觉语言模型能够更好地泛化。这一发现挑战了大型语言模型社区的主流观点,即模型需要手工标注的训练样本。研究表明,过度依赖人工示例反而可能对模型的泛化能力产生负面影响。
OpenAI 发布了一款名为 Operator 的网络自动化工具,该工具使用名为计算机使用代理 (CUA) 的新 AI 模型来控制网络浏览器。Operator 通过视觉界面观察和交互屏幕元素,模仿人类操作方式执行任务。这项技术目前仍处于研究预览阶段,OpenAI 希望通过用户反馈来改进系统功能。
大型语言模型如 ChatGPT 展现了对话能力,但它们并不真正理解所使用的词汇。研究者们在冲绳科学技术大学构建了一个受大脑启发的人工智能模型,虽然其学习能力有限,但似乎掌握了词汇背后的概念。通过模仿婴儿学习语言的方式,研究团队将人工智能训练在一个能够与世界互动的机器人中,探索如何让人工智能实现类似人类的语言理解。
这篇文章介绍了利用人工智能设计新酶的成功案例,这种酶有潜力分解塑料。尽管生物学告诉我们,简单的化学反应可能非常复杂,但通过AI驱动的蛋白质设计,研究人员能够创造出与自然界不同的酶。研究表明,设计酶的过程虽然复杂,但可以在计算机上完成,未来可能会有更多的应用。