2021 年 2 月 4 日,全球顶级开源社区云原生计算基金会(Cloud Native Computing Foundation,简称 CNCF)正式宣布其新一届技术监督委员会(Technical Oversight Committee,简称 TOC)席位改选结果。来自阿里云的张磊入选,成为全球9名代表之一,为社区提供技术指导。加上上一届成员来自阿里云李响,CNCF已经连续两届有中国面孔入选。
CNCF在官方公告中表示,张磊的入选是因为其在Kubernetes领域所做出的突出贡献:“张磊是 Kubernetes社区的共同维护者,也是CNCF App Delivery SIG 的 Co-chair,在阿里巴巴主导Kubernetes和大型集群管理系统等工作。”
CNCF 成立于 2015 年 ,隶属于 Linux 基金会,围绕“云原生”服务云计算,致力于维护和集成开源技术,支持编排容器化微服务架构应用。目前,CNCF 有会员公司超过 300 家,其中包括AWS、Azure、阿里巴巴、Google等大型云计算厂商。CNCF 的技术监督委员会由 9 位具有丰富技术知识和行业背景的代表组成,为云原生社区提供技术领导。
89年出生的张磊,是Kubernetes社区最年轻的早期维护者之一,曾发起和参与设计了Kubernetes多个基础特性如 CRI(容器运行时接口)、等价类调度、拓扑资源管理等。因在Kubernetes社区的持续影响力,张磊于2016年就被推举为CNCF官方大使,连续担任多届KubeCon评审、KeynoteSpeaker。2019年,张磊以最高票当选为CNCF应用交付领域小组co-chair,是至今为止CNCF 7大领域小组中唯一的华人co-chair。
阿里云容器平台高级技术专家张磊
加入阿里云后,张磊重点参与设计了阿里云云原生应用基础设施,参与维护了国内最大公共云容器集群。他提出的“以应用为中心”的标准应用交付体系,催生出了一系列前瞻性的云原生应用管理领域头部开源技术。
此外,张磊还带领团队联合微软云CTO Office共同提出了“开放应用模型”开源项目(OAM),这是业界第一个云原生应用交付与管理领域的标准模型与框架项目,已经迅速成为了包括MasterCard、第四范式等国内外十余家企业构建云原生应用平台的基础模型,并被工信部信通院标准化立项“云计算开放架构通用需求和参考框架”,被知名科技媒体TheNewStack 评选为“Top Cloud Native Technology Trends from 2020”。
阿里云一直致力于回馈社区、积极拥抱开源,深度参与到ETCD、Kubernetes、ContainerD 等多个顶级开源项目的开发与维护当中,并通过云原生技术栈完成了整体基础架构体系的自我升级,如自主开源 Dubbo、RocketMQ 等项目,捐献给 Apache 基金会并以顶级项目的身份毕业;Spring Cloud Alibaba 开源两年已经成为Spring Cloud最活跃、开发体验最好的 Spring Cloud 实现;Serverless Devs 开发者平台源,成为国内首个进驻 CNCF Landsacpe Tools 的 Serverless 工具等。
截至2020年底,阿里云整体开源项目超过40个,开源项目Star总数超过数十万,主导维护的 etcd、containerd、dragonfly等多个项目成为CNCF 明星项目,有超过10个项目进入CNCF Landscape;对Kubernetes项目的贡献量也位居全球前10。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。