在前段时间的南京云栖大会上,被一张图刷屏了。
阿里云副总裁李津在南京云栖大会上的一句“自主可控”,正可谓“风乍起,吹皱一池春水”。怎样才算是自主可控?需要如何去进行判断?下面我们就来谈一下如何判断云计算的自主可控。
美国发起对我国企业的芯片制裁,就像一记响亮的耳光,打醒了人们拿来主义的美梦。不掌握核心科技,就算拥有再高的市场占有率,也终是镜花水月,空欢喜一场。自主可控要如何进行实现,下面先从生态的角度来简单的分析一下:
自主可控不是无中生有,首要面对的是具有数十年技术积累、具备数量众多专利壁垒、并且打败了无数竞争对手的国外厂商。一手是操作系统,一手是芯片,自20世纪80年代来微软与英特尔的wintel联盟依靠这一软、一硬两项最底层技术的把握,主宰了全球的PC市场,打造出了难以撼动的个人电脑生态环境。此次美国的芯片制裁与其说是一个噩耗,还不如说是一次契机,可以让我们有机会弥补上芯片这一块的重要短板。但是硬件上的自主可控,在目前看来,还有相当长的一段路要走。哪么在软件方面,做为最基础的底层操作系统,我们的技术发展又是如何?
在个人电脑领域,现在基本上是一家独大,虽然现在它们所推出的操作系统让很多人诟病,但毕竟有一个完善的生态体系,短时间内很难被取代。
移动端操作系统现在是两雄争霸,现在他们两家也都有各自比较完善的生态系统存在,给第三方留下的可操作空间也一样非常的小,很难从中获得突破。
但是服务器端的生态圈建设,却可以给我们一些启迪。在最初的时候,服务器端的各个厂商也是各自做自己的生态。但是有的操作系统厂商凭借在PC端的技术优势,占据了大部分市场份额。这时候,开源出现了,Linux的发展史很多人已经耳熟能详,这里也就不再多说。凭借着源代码的开源,Linux迅速获得众多用户的认可,并成功建立了自身的生态,现在服务器端的操作系统Linux占有着绝大部分的份额,其中开源技术的功不可没。
开源领域最出名的还要数OpenStack,正是OpenStack的开源,奠定了当前国内云计算的基础。国内也有很多云计算厂商,在向OpenStack贡献代码的同时,也壮大了自身,甚至由此获得了不菲的风险投资。
OpenStack的优势在于,国内公司可以利用这些的开源技术迅速补足自身底层基础技术不足的缺陷。但是它有很大的不足之处,现在的OpenStack实在是太过庞大了,它的技术导向很难进行控制,甚至版本的连续性也不好保障,还有稳定性和可靠性的问题也很难去系统进行验证。因此,目前国外的OpenStack项目已经开始变冷,很多云厂商正在力推的也是自身的云技术和品牌。例如微软的Azure和亚马逊的AWS等。
国内情况正好相反,因为OpenStack确实是拿来就可以用,所以有很多企业都在为之进行追捧,但是能否将OpenStack变成一个成熟可用的云计算基础设施产品,就需要好好考量一下这个云厂商的技术能力了。这也是南京云栖大会上李津提出中国只有两种云的一个根本原因。
因此我们认为:用开源不是问题,没有把开源技术转化为自主可控的技术能力才是企业最大的原罪。
了解到问题的背景,就可以回到题目上的问题来了,如何判断云计算的“自主可控”?哪就是看生态、看技术。
看生态:厂商是否建立了可持续发展的云计算生态体系,这方面阿里确实给我们做出了一个榜样。别的不说,依托于淘宝打造出的新零售云计算体系已经使其立于了不败之地。在这个基础之上,会再进一步向政务、工业、金融、医疗等多个行业去进行渗透。从生态的角度来讲,阿里的先天优势基本上已经建成了。
看技术:阿里的双十一,与其说是营销的展示,不如说是对阿里云技术的展示。交易额三分钟破百亿背后是阿里云网络、计算、存储应用处理能力的最佳宣传手段。
但是“双十一”这种展示方式并不是判断或评测厂商云计算技术能力的最佳方法。首先是验证方法无法复现,其次展示成本过高,占用资源过大。(云计算资源毕竟还是有限的,用在一处资源过高,必竟会对其它应用造成影响。)
对“自主可控”的判断问题,归结到一点还是缺乏有效的云计算评估办法。做为一个第三方媒体,至顶网去年就曾经对对公有云主机的网络及应用处理性能进行了评测,并尝试对其基础测试指标进行归纳。但是第三方媒体的主要作用应该是监督与评估,防止厂商的自卖自夸,而不是搞测试研发才对。如果一项技术的评估测试,是由第三方媒体来进行推动,只能说明这个技术还有太多不成熟的地方存在!
我们在这里也真诚的希望,自身具有自主可控技术实力的厂商,可以更多的将自身的评测方法、测试成绩展示出来,让第三方媒体回规监督的本职中去,从而更好的判断,到底谁是真正的“自主可控”。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。