业务挑战
ESDIP 动画工作室计划进行一个大型项目 — 创作一部包含大量图形的3D 动画短片,但是,ESDIP 现有的计算能力和美术设计师不足以完成这个项目。
转型
IBM 业务合作伙伴 SimpleCloud 为 ESDIP 提供了一种在 IBM® Cloud® 上运行的虚拟桌面解决方案,让来自世界各地的近 200 位艺术家能够使用快速、同步的图形渲染功能进行协作,共同创作这部将真人实景与 3D 动画相结合的最新动画电影。
成果
ESDIP 是 ESDIP 艺术学院旗下的一家动画工作室。ESDIP 位于西班牙马德里,拥有 20 多年的创作经验,工作室制作的动画短片曾在众多电影节上获奖。工作室拥有一个非常专业的创作部门,其在国际市场上的占有率也逐年提高。ESDIP 创作的短片体现了 ESDIP 艺术家的才华和热情,是他们忘我工作换来的成果。工作室成立于 1989 年,目前拥有约 50 名员工。
“对于这种规模的项目来说,SimpleCloud 至关重要。这部影片更像是知名工作室的作品,艺术家们以分布式的工作方法完成了创作。” —ESDIP Animation Studio 导演兼编剧 Abraham Lopez
动画需要计算能力
动画电影创作是难度最大的艺术创 作门类之一。它不仅需要非常高端的显卡或图形处理器 (GPU),而且还需要非常复杂的并行流程,因此,多个工作流必须同时进行,无缝对接。在专业工作站内工作的美术设计师必须能够立即感知画笔的精确 度和压力。在这方面不能有丝毫延迟,否则,他们就无法充分表达自己的艺术风格。然后,最终的渲染过程需要多台高端服务器进行并行处理,这样才能创作出我们在3D动画电影中看到的流畅画面、精美效果和逼真光线。
除了少数大规模动画工作室以外, 其他工作室根本不具备如此强大的 计算能力。现在,这种情况终于改 变。
ESDIP 动画工作室是西班牙马德里 ESDIP 艺术学院旗下的一家动画工作室,目前,该工作室正在制作一部 3D 动画电影短片《Blue and Malone: Impossible Cases》。”这部电影不仅包含以真人实景照片为基础制作的 3D 动画镜头,而且,真人演员、动画角色(包括一只重达 数吨的巨型蓝猫)以及机器人和其 他虚构角色还会在电影中进行充分的互动。ESDIP 首先用大约两年的 时间进行前期制作,艺术家一边对摄制过程进行 3D 预览,一边塑造电影中的角色、制作动画并为影片所需的两个全 3D 场景进行设计和建模。
为了完成这部电影,工作室需要确保来自世界各地的近 200 位艺术家能够互相协作。在过去,这就意味着工作室需要投入巨资购买专业硬件和软 件。即使资金不是问题,工作室依然需要想办法协调来自世界各地的艺术家,确保他们能够同时工作。
SimpleCloud 首席运营官兼销售总监 Fernando Viñuales 说:“要想让来 自世界各地的艺术家同时工作, ESDIP 只能采用一种基于云的解决方案,让他们能够通过离自己最近的数据中心实现连接,实时利用工作室的各种艺术工具来共同完成创作。”
虚拟服务器可实现基于云的协作
ESDIP 希望 SimpleCloud 能够帮助 工作室构建一个虚拟工作室环境,让艺术家们能够在虚拟工作室里完成这 部名为《Impossible Cases》的动画电影。SimpleCloud 在 IBM Cloud 上部署其虚拟桌面解决方案。
SimpleCloud 用 VMWare Workstation 软件创建虚拟桌面,用 IBM Aspera® 软件快速共享文件,甚至包括那些最大的文件。借助这个解决方案,ESDIP 能够与来自世界各地的众多艺术家并行完成电影创作, 而且还不会出现分布式工作通常会导致的延迟。
没有 SimpleCloud,就没 有《Impossible Cases》。” —ESDIP 动画工作室导演兼编 剧 Abraham Lopez
了解更多IBM Cloud海外公有云信息请访问:
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。