Pure Storage公司今日推出企业数据云(Enterprise Data Cloud),称其为组织在混合环境中存储、管理和使用数据方式的全面架构升级。
该公司表示,EDC使组织能够在本地、云端和混合部署中统一管理块、文件和对象工作负载。
这家全闪存存储子系统制造商表示,传统的孤立存储方法已无法满足现代工作负载的需求,特别是在需要大量结构化和非结构化数据的人工智能环境中。
"我们希望通过缓解与数据管理碎片化方式相关的一些限制,帮助客户控制他们的数据,"Pure Storage技术副总裁Chadd Kenney说道。
EDC的核心是Pure Fusion,这是一个存储即代码控制平面,将所有阵列视为统一数据网格中的端点。这让管理员能够通过单一界面管理存储设备集群,并使用智能预设部署工作负载,自动化服务质量、保护级别和性能要求等部署变量。
**自动化工作流**
Pure还发布了其自动化和编排能力的重大升级。其核心平台现在支持工作流配方,将存储与计算、网络和应用程序集成,以实现复杂部署,如通过单一服务工单将SQL数据库跨多个数据中心复制到公有云服务中。这些工作流可以扩展到第三方工具,已被合作伙伴Rubrik Inc.用于勒索软件恢复标记,以及CrowdStrike Holdings Inc.用于历史分析。
Kenney表示,自动化功能解决了部署新阵列的一些繁琐工作。"如果有人的应用程序需要Oracle部署,管理员必须查看存储阵列集群,找出哪个能够承担新工作负载,然后创建设置以确保它通过复制得到保护,具有快照和正确标记的服务质量策略,"他说道。"工作流允许您在一个集合中创建所有配置,因此您只需提供少量信息,它就会自动部署,为您提供第一天的合规性。"
该公司的AI Copilot对话助手已与来自整个EDC的遥测数据集成。该公司表示,这使其能够即时响应集群级性能查询,提供配置脚本,并支持无需人工干预的快速策略调整。
"在10秒内,它将处理100个不同系统的所有数据,给出答案并提供实际完成该任务所需运行的脚本,"Kenney说道。
**更快的阵列**
与EDC发布同时,Pure还扩展了其存储阵列产品组合。新的FlashArray//XL R5每机架单元的每秒输入/输出数比其前代产品增加一倍,原始容量增加高达50%。
对于内存数据库和向量搜索引擎等对延迟敏感的工作负载,Pure推出了新的FlashArray//ST,这是一个基于内存的系统,该公司表示可以在五个机架单元中提供超过1000万IOPS。
该公司还推出了FlashBlade//S R2,这是其FlashBlade//S的最新版本,旨在支持大规模数据管道和AI工作负载。在一个显著的转变中,对象存储支持已添加到FlashArray中,允许组织将块、文件和对象存储整合到单一系统中。
"我们构建自己的设备,这些设备经过精简,只做我们希望它们做的事情,"Kenney说道。"我们现在通过软件层管理与闪存交互的所有功能。"
**降低托管服务准入门槛**
在服务方面,Pure扩展了其Evergreen One即服务产品,提供自适应性能层级和与客户工作流程相匹配的基于使用量的计费。例如,在医学影像中,客户现在可以按扫描次数付费而不是按容量付费,Kenney表示,这更好地匹配了基础设施成本与业务运营。该公司还将入门级客户的最低承诺从1.5PB降低到750TB,并引入了固定费率快照保护定价。
Pure表示,客户可以在不更换硬件的情况下访问这些功能中的许多。"迁移不涉及任何事情,"Kenney在谈到EDC时说道。"您只需升级系统固件并开始创建集群。然后您可以构建工作流来改变部署系统的方式,并利用一些编排功能。"
通过EDC,Pure表示正在重新思考企业存储,同时将自己定位为不仅仅是存储供应商,而是自主数据操作平台。"我们已经在存储层解决了很多简单性问题,但现在我们要将这种简单性提升到更高的层次,"Kenney说道。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。