不知从何时开始
公司里的电脑突然变得很卡
明明没开几个网页
CPU使用率却高得离谱
可能是设备太老了吧?
当心,恶意软件可能已经顺着那朵云到了您的个人或公共设备上,您的服务器可能已沦为“矿机”。
诚然,上云为企业提供了高弹性、低成本的IT资源,但复杂多变的多云环境也变相提高了管理成本,同时也面临着来自网络的各种威胁。近日,VMware威胁分析部门(TAU)在其最新的威胁报告中表示:活跃在Linux上的恶意软件正呈上升趋势,安全环境不容乐观。

对于IT从业者来说Linux并不陌生,它是一种免费使用和自由传播的类UNIX开源操作系统。在众多操作系统中,Linux以稳定可靠的系统性能和高效简洁的安全性能而闻名,作为世界范围内顶级的操作系统,它为全球超过78%的网站提供支持。
尽管破解基于Linux的多云环境十分困难,但成功破解后的高收益也驱使着黑客们不断地“前仆后继”:针对云计算的批量入侵要比单一破解一台PC的收益要高的多。因此,一旦黑客在用户的多云环境中占领一席之地,他们就会尝试运行勒索病毒或者加密文件,直到将原本不属于他们的钱或重要数据收入囊中。
根据VMware的调查,目前不少于9个勒索软件家族正在针对Linux,其中就包括臭名昭著的REvil、DarkSide以及Defray77。
这些针对Linux系统的勒索软件正变得越来越复杂,有不少勒索软件已演变为针对主机映像的层面,而为了应对此等勒索软件攻击需要用户开启动态分析和主机监控,这就意味着你很难搞清楚勒索软件会带来怎样的影响。除此以外还有不少类型的网络攻击正虎视眈眈。
常见的云环境攻击
加密劫持
随着数字货币市场的水涨船高,黑客们也渐渐加入到“矿潮”之中,网络罪犯发现窃取计算能力比窃取实际数据更有利可图。对于Linux来说,89%的加密劫持者使用XMRig的相关库,利用恶意软件直接窃取受害者的钱包;或者利用偷来的CPU周期挖掘加密货币。
数据库劫持
为了躲避云上的恶意软件检测,黑客们往往不会直接破解云上环境,例如TeamTNT团体会针对开放的Kubernetes pods和Docker来部署XMRig加密软件,劫持数据库加载机制,将恶意软件隐藏在特定目录中,以达到隐藏加密的目的。
跨云攻击
当用户将工作负载在多种云之间转移时,这个过程就是最脆弱的环节,黑客们通常利用公有云传统的漏洞渗透进本地数据中心中,一旦得手,就可以在安全工具的检测下横向移动,尤其是在由公有云转移到私有云的过程中,这样的威胁会更加严重。
为了应对日益严重的云威胁,用户需要不断强化自身的网络安全意识,培养良好的容器安全性是必须的,除此以外,还有以下三种方式降低云威胁的影响。
1、完善应用程序白名单并定期对组织使用中的应用程序进行风险评估。
2、及时修补系统漏洞并优先处理修补程序的部署
3、强化管理访问权限和管理权限,保证操作系统权限及时更新。
当然,您也可以直接选择戴尔科技与VMware共同打造的戴尔科技云平台,它由资源平台、数据平台、创新平台三大平台组合而成,通过机器学习的端到端监控管理以及一致性的架构、管理和服务,构建安全、高效的多云环境。

使用VMware Cloud Foundation(VCF)集成式软件堆栈。其中的VMware NSX和微分段功能,能够强化戴尔科技云平台的安全防控,减少攻击面,从而降低云威胁。

安全的云基础架构也是必要的,戴尔科技云平台使用全球“首屈一指”的VxRail超融合系统,而在去年六月的全面升级中也得到了英特尔至强处理器的全面加持,支持PCle Gen4带来的大幅带宽提升,满足更加严苛的工作负载。

网络安全从来都不是一个陌生的话题,尤其是在脆弱的云环境中,企业若想实现安全的跨多云、混合云的管理,就必须重视日益严重的网络安全隐患,而戴尔科技则会持续利用自身科技优势,为您的数据安全保驾护航。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。