生成式AI公司的爆发式增长将计算能力需求推向了新的极端,CoreWeave、Together AI和Lambda Labs等公司抓住了这一需求,凭借提供分布式计算能力获得了巨大关注和资本青睐。
然而,大多数公司仍然将数据存储在三大云服务提供商——AWS、谷歌云和微软Azure上,这些存储系统是为了将数据保持在靠近自身计算资源的位置而构建的,而非分布在多个云平台或区域。
"现代AI工作负载和AI基础设施正在选择分布式计算而非大型云服务,"Tigris Data联合创始人兼CEO Ovais Tariq告诉TechCrunch。"我们希望为存储提供同样的选择,因为没有存储,计算就什么都不是。"
Tigris由开发Uber存储平台的团队创立,正在构建本地化数据存储中心网络,声称能够满足现代AI工作负载的分布式计算需求。这家初创公司的AI原生存储平台"与您的计算同步移动,数据自动复制到GPU所在位置,支持数十亿个小文件,并为训练、推理和智能体工作负载提供低延迟访问",Tariq说。
为了实现这一切,TechCrunch独家获悉,Tigris最近完成了2500万美元的A轮融资,由Spark Capital领投,现有投资者包括Andreessen Horowitz参与投资。这家初创公司正在挑战Tariq称之为"大云服务商"的在位者。
Tariq认为这些在位者不仅提供更昂贵的数据存储服务,而且效率也较低。AWS、谷歌云和微软Azure历来收取出口费用(在行业内被称为"云税"),如果客户想要迁移到另一个云提供商,或者下载和移动数据以使用更便宜的GPU或在世界不同地区同时训练模型。这就像如果你想停止去健身房,还要额外付费一样。
据Tigris客户之一Fal.ai的工程主管Batuhan Taskaya表示,这些费用曾经占到Fal云支出的大部分。
除了出口费用,Tariq说大型云提供商还存在延迟问题。"出口费用只是一个更深层问题的症状:集中式存储无法跟上去中心化、高速AI生态系统的步伐,"他说。
Tigris的4000多个客户大多像Fal.ai一样:构建图像、视频和语音模型的生成式AI初创公司,这些公司往往拥有大型、对延迟敏感的数据集。
"想象一下与执行本地音频处理的AI智能体对话,"Tariq说。"你希望延迟最低。你希望计算资源在本地、距离很近,同时也希望存储在本地。"
他补充说,大型云服务商没有针对AI工作负载进行优化。为训练流式传输大规模数据集或跨多个区域运行实时推理可能会产生延迟瓶颈,降低模型性能。但能够访问本地化存储意味着数据检索更快,这意味着开发者可以使用去中心化云更可靠、更具成本效益地运行AI工作负载。
"Tigris让我们能够在任何云中扩展工作负载,通过从所有这些地方提供对相同数据文件系统的访问,而不收取出口费用,"Fal的Taskaya说。
公司希望将数据放置在更接近分布式云选项的位置还有其他原因。例如,在金融和医疗保健等高度监管的领域,采用AI工具的一个重大障碍是企业需要确保数据安全。
Tariq说,另一个动机是公司越来越希望拥有自己的数据,他指出Salesforce今年早些时候阻止其AI竞争对手使用Slack数据。"公司越来越意识到数据的重要性,它如何为大语言模型提供动力,如何为AI提供动力,"Tariq说。"他们希望拥有更多控制权。他们不希望别人控制它。"
凭借新资金,Tigris打算继续建设其数据存储中心以支持不断增长的需求——Tariq说自2021年11月成立以来,这家初创公司每年增长8倍。Tigris已在弗吉尼亚、芝加哥和圣何塞设有三个数据中心,希望继续在美国以及欧洲和亚洲扩张,特别是在伦敦、法兰克福和新加坡。
Q&A
Q1:Tigris Data是什么?它解决了什么问题?
A:Tigris Data是一家分布式数据存储初创公司,由开发Uber存储平台的团队创立。它构建本地化数据存储中心网络,解决传统云服务商存储集中化导致的高延迟和高出口费用问题,为AI工作负载提供更高效的分布式存储服务。
Q2:传统云服务商存在什么问题?
A:传统云服务商如AWS、谷歌云和微软Azure主要存在两个问题:一是收取出口费用(云税),客户迁移数据需要额外付费;二是延迟问题,集中式存储无法跟上去中心化、高速AI生态系统的需求,影响模型性能。
Q3:Tigris的AI原生存储平台有什么特点?
A:Tigris的AI原生存储平台能与计算资源同步移动,数据自动复制到GPU所在位置,支持数十亿个小文件处理,为训练、推理和智能体工作负载提供低延迟访问。目前已有4000多个客户,主要是生成式AI初创公司。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。