GTC 2022大会:英伟达AI动作系统颠覆认知,让开发工作秒变“拍戏”

GameLook专稿,未经授权不得转载

GameLook报道/3月22日晚11点,NVIDIA在官网直播举行了NVIDIA GTC 2022开发者大会。CEO黄仁勋又带着一众新黑科技如约而至。

在本次大会上,黄仁勋着重介绍了NVIDIA在AI领域所取得的成就,还推出了大量为AI领域专门研发的图形处理器。在软硬件的加持下,AI的研究涉及了包括加速计算、开发工具、自动驾驶、计算机视觉/视频分析、游戏开发、数字孪生等数十项行业主题。

但真正让游戏、动画开发者眼前一亮的,无疑是大会上演示的一套AI驱动虚拟角色系统。

该系统能为动画、游戏开发者提供一整套动作非常真实的虚拟角色。但需要指出的是,这些真实的动作却并非是NVIDIA自掏腰包利用动捕设备和演员制作而成,而是由AI驱动的虚拟角色基于物理规则的强化学习模型制作而成。

换句话说,这些AI虚拟角色能通过自主模仿人类的动作数据,来学习执行行走、跑动和挥剑等逼真的动作,从而变成更加栩栩如生、反应灵敏的虚拟人。甚至,经过训练的虚拟角色还可以利用这些技能来执行更复杂的任务。

例如,你可以指挥一个经过训练的虚拟角色冲过去放倒目标对象。当然,你还可以像操纵游戏角色一样引导虚拟角色往不同的方向移动。

即便是面对一些颇为复杂的任务,虚拟角色仍能通过AI学习模型,在新环境中自动生成自然连贯的行为。

在执行命令的过程中,开发者与虚拟用户的交互也因AI而变得更简单。不同于以往与虚拟角色的交互只能通过一套相对规范化的计算机基础语言才能执行。如今,在AI学习模型的帮助下,开发者可以直接利用自然语言去命令角色。

举个例子,当你要指挥角色进行右方向盾击时,你可以直接输入符合日常语言逻辑的文本“shield bash to the right”即可。而当你想要角色进行左右挥剑是,同样可以输入“swing the sword to the left and right”,角色便会用堪比真人高精度动捕的动作执行命令。

这项技术让基于虚拟角色的动画、游戏制作,变得十分简单、流畅,极大程度缩短了开发流程。用官方的说,它让开发变成了一次导演与现实演员的沟通。

为了完成如此高精度的动作学习,虚拟角色所花费的训练时间自然不低。官方表示,这些演示的虚拟角色其实已在模拟环境中经历了长达10年的强化训练,但借助NVIDA GPU驱动的大规模并行模拟器,完成如此量级的训练只需要花费3天即可。

也难怪有网友调侃,若放在拍电影上,这速度可比找一个群演快多了。

如若转载,请注明出处:http://www.gamelook.com.cn/2022/03/477159

关注微信