12月17日, GTC China 2020大会上,阿里云异构计算产品负责人潘岳表示,人工智能行业需求发生了明显的变化,云上AI业务的推理需求占比首次超过50%,阿里云GPU云服务器从四年前的gn4到今年新发布的gn7,单实例异构算力提升了100倍。
异构计算是最能发挥AI效率的计算方式。潘岳介绍,阿里云提供了超大规模的云上异构计算集群,每秒可支撑100亿亿次的异构运算,能够在1秒内看懂超过5.3亿张图片;识别3.3亿秒/9.2万小时长的语音,相当于听写了1723本《红楼梦》长篇小说或者26万篇短篇小说;1秒内可以翻译4千万句话,相当于翻译了42本《哈姆雷特》。
4年前,云上80%的AI需求来自训练业务。但在2020年,云上AI推理业务的占比已经超过一半。潘岳表示,这也标志着阿里云异构计算进入新的阶段,即软硬一体的云上异构基础设施。
具体来说,用户不仅需要深度学习框架软件,更需要与之适配的硬件来发挥GPU的算力,例如阿里云神龙AI加速器和FastGPU等极速部署工具,就通过池化算力带来灵活的计算调度,云服务器从特定配置向serverless方向发展。这些可帮助客户在训练场景下提升2倍到10倍的性能,在推理场景下提升2倍到4倍的性能,节省至少50%的成本。
以阿里云IoT的图像分类业务为例。阿里云神龙 AI 加速AIACC团队,和IoT智能业务研发团队紧密合作,将大规模图像分类分布式训练性能提升5倍,让算法研发效率得以显著的提升,成本得以大幅下降。
“AI业务从最早的推理占比不到20%,到今天占比过半;原来只有人工智能初创公司探索,到落地各行各业;云上异构业务从单一深度学习训练场景,到今天的训练推理、云桌面、图形图像设计等多元化场景。阿里云异构计算是企业数字化、智能化转型的见证者,也是实践者。”潘岳表示。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。