12月17日, GTC China 2020大会上,阿里云异构计算产品负责人潘岳表示,人工智能行业需求发生了明显的变化,云上AI业务的推理需求占比首次超过50%,阿里云GPU云服务器从四年前的gn4到今年新发布的gn7,单实例异构算力提升了100倍。
异构计算是最能发挥AI效率的计算方式。潘岳介绍,阿里云提供了超大规模的云上异构计算集群,每秒可支撑100亿亿次的异构运算,能够在1秒内看懂超过5.3亿张图片;识别3.3亿秒/9.2万小时长的语音,相当于听写了1723本《红楼梦》长篇小说或者26万篇短篇小说;1秒内可以翻译4千万句话,相当于翻译了42本《哈姆雷特》。
4年前,云上80%的AI需求来自训练业务。但在2020年,云上AI推理业务的占比已经超过一半。潘岳表示,这也标志着阿里云异构计算进入新的阶段,即软硬一体的云上异构基础设施。
具体来说,用户不仅需要深度学习框架软件,更需要与之适配的硬件来发挥GPU的算力,例如阿里云神龙AI加速器和FastGPU等极速部署工具,就通过池化算力带来灵活的计算调度,云服务器从特定配置向serverless方向发展。这些可帮助客户在训练场景下提升2倍到10倍的性能,在推理场景下提升2倍到4倍的性能,节省至少50%的成本。
以阿里云IoT的图像分类业务为例。阿里云神龙 AI 加速AIACC团队,和IoT智能业务研发团队紧密合作,将大规模图像分类分布式训练性能提升5倍,让算法研发效率得以显著的提升,成本得以大幅下降。
“AI业务从最早的推理占比不到20%,到今天占比过半;原来只有人工智能初创公司探索,到落地各行各业;云上异构业务从单一深度学习训练场景,到今天的训练推理、云桌面、图形图像设计等多元化场景。阿里云异构计算是企业数字化、智能化转型的见证者,也是实践者。”潘岳表示。
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。