未来 12-18 个月,AI 概念验证将演变为突破性技术。这一进展将得益于对庞大私有数据的访问和利用能力,这些数据量是互联网可用数据的 9 倍。克服访问这些数据的挑战对实现 AI 的真正潜力至关重要。
AI 中数据的不可或缺作用
快速且可访问的数据是成功 AI 的基石。如果无法以可用格式无缝可靠地访问数据,AI 开发和部署的根基就会崩塌。
现实是,组织数据分散在多个平台和位置,跨越了 AWS 和 Microsoft 等主流生态系统的边界。AI 应用需要强大可靠的网络来确保一致的延迟、性能和实时数据交换。因此,连接性成为释放这些分散数据源价值的关键。
董事会经常忽视连接性的重要性,错误地认为它"理所当然"。这种疏忽可能会对 AI 计划造成灾难性后果。即使是配备强大计算能力的最先进 AI 应用,也可能因为 10 毫秒的数据检索延迟而瘫痪。在 2025 年,在没有强大连接性策略的情况下部署 AI 不仅是一个错误,更是一个会带来严重后果的战略失误。
云计算争议重现
连接性挑战凸显了专门支持 AI 需求的新一波云计算模型的关键需求。这重新引发了关于云计算未来的更广泛讨论。
AI 模型与传统软件应用有根本的不同。早期云基础设施无法处理 AI 的巨大规模和复杂性,包括其数十亿个参数和持续的实时数据流。这需要云设计和支持基础设施进行范式转变,以充分释放 AI 的潜力。
虽然由地理分布式网络实现的安全性、连接性和弹性仍然是基础,但在公有云中运营的成本攀升正迫使组织重新评估对 AWS 和 Microsoft 等供应商的依赖。工作负载向私有云回迁的激增凸显了标准化数据迁移流程的关键需求,以确保平稳高效的转型。
标准在 AI 优化中的作用
AI 的云迁移挑战类似于更换银行账户的复杂性。正如银行法规简化了这一流程,关于云迁移的立法指导可能成为组织的重大变革。通过建立标准化的数据迁移实践,组织可以更轻松地采用完全适合其 AI 需求和更广泛业务目标的混合云模型。
面对日益分布式的 AI 工作负载,标准化方法至关重要。它不仅会加速 AI 采用和培养最佳实践,还会随着市场的成熟巩固 AI 领导者的地位。
提升认知和协作
AI 对基础设施日益增长的需求要求技术行业提高对连接性、云模型和更广泛生态系统相互作用的认识。在现实世界中成功实施 AI 需要组织、供应商和合作伙伴之间的强有力协作。
在这个 AI 新时代,连接性和云计算考虑因素不再是次要关注点 - 它们是成功的基础。通过在规划和执行中优先考虑这些因素,企业可以有效应对 2025 年及以后的复杂挑战。
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。