微软CEO萨蒂亚·纳德拉周四在推特上发布了一段视频,展示了公司首个部署的大规模AI系统——英伟达喜欢称之为AI"工厂"。他承诺这是将在微软Azure全球数据中心部署的"众多"英伟达AI工厂中的"第一个",用于运行OpenAI工作负载。
每个系统都是一个由超过4600台英伟达GB300机架计算机组成的集群,搭载备受追捧的Blackwell Ultra GPU芯片,并通过英伟达名为InfiniBand的超高速网络技术连接。(除了AI芯片,英伟达CEO黄仁勋还具有前瞻性地在2019年以69亿美元收购Mellanox时垄断了InfiniBand市场。)
微软承诺,随着在全球范围内推出这些系统,将部署"数十万颗Blackwell Ultra GPU"。虽然这些系统的规模令人瞩目(公司还分享了更多技术细节供硬件爱好者研究),但这一公告的时机也值得注意。
这一消息发布正值OpenAI——微软的合作伙伴兼众所周知的亦敌亦友——与英伟达和AMD签署两项备受瞩目的数据中心协议之后。据估计,OpenAI在2025年已经获得了1万亿美元的承诺来建设自己的数据中心。CEO萨姆·奥特曼本周表示,还有更多协议即将到来。
微软显然希望让世界知道,它已经拥有数据中心——在34个国家拥有超过300个数据中心——并且在"满足当今前沿AI需求"方面具有"独特优势"。公司表示,这些巨型AI系统还能够运行拥有"数百万亿参数"的下一代模型。
我们预计本月晚些时候将听到更多关于微软如何加速服务AI工作负载的消息。微软首席技术官凯文·斯科特将在TechCrunch Disrupt大会上发言,该大会将于10月27日至29日在旧金山举行。
Q&A
Q1:微软部署的AI工厂具体配置是什么?
A:每个AI工厂系统都是由超过4600台英伟达GB300机架计算机组成的集群,搭载Blackwell Ultra GPU芯片,通过英伟达InfiniBand超高速网络技术连接,微软承诺将部署数十万颗Blackwell Ultra GPU。
Q2:微软为什么在这个时候宣布AI数据中心建设?
A:这一公告正值OpenAI与英伟达和AMD签署大型数据中心协议,并获得1万亿美元承诺建设自己数据中心之后。微软希望强调自己已经在34个国家拥有超过300个数据中心的优势地位。
Q3:这些AI系统能处理多大规模的模型?
A:微软表示这些巨型AI系统能够运行拥有"数百万亿参数"的下一代模型,并且在满足当今前沿AI需求方面具有独特优势,可以有效服务OpenAI等AI工作负载。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。