微软对Windows 11系统的稳定性和安全性如此"自信",以至于现在为企业提供一项服务:当用户的台式机和笔记本电脑不可避免地出现故障时,可以快速将用户转移到其云端的临时虚拟机上。
"在当今永远在线的工作环境中,即使是单个设备故障也会波及整个组织——阻碍生产力、延误交付,给IT团队带来压力,"微软的Logan Silliman在一份充满行业术语的公告中写道。
"将这种干扰扩大到数千名员工,影响就会变得巨大。在网络攻击的加剧下,员工和设备停机的成本不再是理论上的——它已经成为业务关键问题。这就是我们推出Windows 365 Reserve的原因:一个现代化、安全且可扩展的解决方案,帮助员工在意外情况发生时保持高效和连接。"
Windows 365 Reserve最初由微软现代工作副总裁Stefan Kinnestrand在6月份宣布,旨在在发生桌面相关灾难时让商业用户快速恢复运行。注册该服务的用户(该服务独立于主要的Windows 365产品)可以在其主要物理机器出现故障时,为用户提供长达10天的"临时、安全且专用的云端PC"访问权限。
这些虚拟机托管在微软的云平台上,可通过Microsoft Intune进行管理,公司承诺可以预配置以便快速部署。
当然,这里有个问题:这些临时PC虽然是云端性质的,但需要一个完整的"辅助设备",配备网络浏览器或Windows应用程序才能访问。因此,有一个明显的问题:如果你必须为用户提供一台新PC来访问他们的临时"专用云端PC",为什么不直接为新PC配置本地、云端无关的使用,而且没有10天的期限?
截至发稿时,微软尚未回应我们对这一点的澄清请求。不过公平地说,我们注意到Windows应用程序也可在移动设备上使用——如果你想尝试在5英寸触摸屏智能手机上与桌面界面交互10天的话。
那些幸运拥有公司批准平板电脑的人可能会发现体验更愉快。
对于任何希望使用Windows 365 Reserve的人来说,还有另一个障碍:扩展性,特别是在更新失败、勒索软件攻击、雷击或其他大范围灾难同时让超过少数用户受影响的情况下。
"虽然Windows 365 Reserve提供了增强的可用性,"Silliman承认,"但它仍然受到扩展限制,如Azure容量约束,并且需要网络连接才能连接和使用Windows 365 Reserve云端PC。"
有兴趣自己试用Windows 365 Reserve的人可以提交访问封闭测试版的申请;参与者需要是微软客户、MVP或合作伙伴,拥有Windows E3、Intune和Azure Active Directory P1(AADP1)许可证覆盖。
此外,他们还必须"承诺完成一系列管理员和最终用户验证场景,并提供体验反馈。"
成功的申请将获得长达12周的平台免费访问权限。
Q&A
Q1:Windows 365 Reserve是什么服务?
A:Windows 365 Reserve是微软推出的云端备份解决方案,当企业用户的台式机或笔记本电脑出现故障时,可以为用户提供长达10天的临时、安全且专用的云端PC访问权限,帮助用户在设备故障期间保持工作连续性。
Q2:使用Windows 365 Reserve需要什么条件?
A:用户需要有一个"辅助设备"(配备网络浏览器或Windows应用程序)来访问云端PC,还需要稳定的网络连接。企业用户需要拥有Windows E3、Intune和Azure Active Directory P1许可证覆盖。
Q3:Windows 365 Reserve有什么限制?
A:该服务存在扩展性限制,如Azure容量约束,在大规模灾难情况下可能无法满足所有用户需求。此外,云端PC的使用期限最长为10天,且必须依赖网络连接才能使用。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。