生成式AI公司的爆发式增长将计算能力需求推向了新的极端,CoreWeave、Together AI和Lambda Labs等公司抓住了这一需求,凭借提供分布式计算能力获得了巨大关注和资本青睐。
然而,大多数公司仍然将数据存储在三大云服务提供商——AWS、谷歌云和微软Azure上,这些存储系统是为了将数据保持在靠近自身计算资源的位置而构建的,而非分布在多个云平台或区域。
"现代AI工作负载和AI基础设施正在选择分布式计算而非大型云服务,"Tigris Data联合创始人兼CEO Ovais Tariq告诉TechCrunch。"我们希望为存储提供同样的选择,因为没有存储,计算就什么都不是。"
Tigris由开发Uber存储平台的团队创立,正在构建本地化数据存储中心网络,声称能够满足现代AI工作负载的分布式计算需求。这家初创公司的AI原生存储平台"与您的计算同步移动,数据自动复制到GPU所在位置,支持数十亿个小文件,并为训练、推理和智能体工作负载提供低延迟访问",Tariq说。
为了实现这一切,TechCrunch独家获悉,Tigris最近完成了2500万美元的A轮融资,由Spark Capital领投,现有投资者包括Andreessen Horowitz参与投资。这家初创公司正在挑战Tariq称之为"大云服务商"的在位者。
Tariq认为这些在位者不仅提供更昂贵的数据存储服务,而且效率也较低。AWS、谷歌云和微软Azure历来收取出口费用(在行业内被称为"云税"),如果客户想要迁移到另一个云提供商,或者下载和移动数据以使用更便宜的GPU或在世界不同地区同时训练模型。这就像如果你想停止去健身房,还要额外付费一样。
据Tigris客户之一Fal.ai的工程主管Batuhan Taskaya表示,这些费用曾经占到Fal云支出的大部分。
除了出口费用,Tariq说大型云提供商还存在延迟问题。"出口费用只是一个更深层问题的症状:集中式存储无法跟上去中心化、高速AI生态系统的步伐,"他说。
Tigris的4000多个客户大多像Fal.ai一样:构建图像、视频和语音模型的生成式AI初创公司,这些公司往往拥有大型、对延迟敏感的数据集。
"想象一下与执行本地音频处理的AI智能体对话,"Tariq说。"你希望延迟最低。你希望计算资源在本地、距离很近,同时也希望存储在本地。"
他补充说,大型云服务商没有针对AI工作负载进行优化。为训练流式传输大规模数据集或跨多个区域运行实时推理可能会产生延迟瓶颈,降低模型性能。但能够访问本地化存储意味着数据检索更快,这意味着开发者可以使用去中心化云更可靠、更具成本效益地运行AI工作负载。
"Tigris让我们能够在任何云中扩展工作负载,通过从所有这些地方提供对相同数据文件系统的访问,而不收取出口费用,"Fal的Taskaya说。
公司希望将数据放置在更接近分布式云选项的位置还有其他原因。例如,在金融和医疗保健等高度监管的领域,采用AI工具的一个重大障碍是企业需要确保数据安全。
Tariq说,另一个动机是公司越来越希望拥有自己的数据,他指出Salesforce今年早些时候阻止其AI竞争对手使用Slack数据。"公司越来越意识到数据的重要性,它如何为大语言模型提供动力,如何为AI提供动力,"Tariq说。"他们希望拥有更多控制权。他们不希望别人控制它。"
凭借新资金,Tigris打算继续建设其数据存储中心以支持不断增长的需求——Tariq说自2021年11月成立以来,这家初创公司每年增长8倍。Tigris已在弗吉尼亚、芝加哥和圣何塞设有三个数据中心,希望继续在美国以及欧洲和亚洲扩张,特别是在伦敦、法兰克福和新加坡。
Q&A
Q1:Tigris Data是什么?它解决了什么问题?
A:Tigris Data是一家分布式数据存储初创公司,由开发Uber存储平台的团队创立。它构建本地化数据存储中心网络,解决传统云服务商存储集中化导致的高延迟和高出口费用问题,为AI工作负载提供更高效的分布式存储服务。
Q2:传统云服务商存在什么问题?
A:传统云服务商如AWS、谷歌云和微软Azure主要存在两个问题:一是收取出口费用(云税),客户迁移数据需要额外付费;二是延迟问题,集中式存储无法跟上去中心化、高速AI生态系统的需求,影响模型性能。
Q3:Tigris的AI原生存储平台有什么特点?
A:Tigris的AI原生存储平台能与计算资源同步移动,数据自动复制到GPU所在位置,支持数十亿个小文件处理,为训练、推理和智能体工作负载提供低延迟访问。目前已有4000多个客户,主要是生成式AI初创公司。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。