不只降本增效!文生图以后,AI正在帮助净化游戏环境

图源:Pixabay

【GameLook专稿,未经授权不得转载!】

GameLook报道/AIGC正在潜移默化地改变全行业,而技术人才云集的游戏行业更是应用AI技术的排头兵。

在过去的一年中,AI美术、文生3D、智能NPC、AI文案生成等游戏开发用例已经进入探索乃至落地阶段,Unity引擎、Adobe等生产力平台中目前已开始实装AIGC工具,将人工智能逐步融入工业级的游戏开发工作流中。

以往的AI游戏用例大多集中在开发侧,不过GameLook注意到,多家海外游戏大厂在近期不约而同地推出了一类全新的AI驱动产品:战局语音监管系统。

Unity在7月推出了一款名为Safe Voice的产品,帮助游戏开发者管理游戏对局中的有害语音;动视暴雪旗下的《使命召唤》则与AI公司Modulate合作,推出了游戏内的语音实时监管功能。Xbox在8月推出了语音举报功能,通过AI和真人审核员双管齐下,对Xbox平台之内PVP游戏的对局语音进行监管。此外,一家名为GGWP的AI公司凭借类似的平台类产品在7月获得了千万美元的投资。

对主营竞技游戏和社交游戏的公司来说,语音监管一直是老大难问题。在高涨的肾上腺素驱使下,竞技游戏的玩家极易通过言语行为宣泄自身的负面情绪,进而对游戏的对战环境造成破坏。欧美游戏产品面临的挑战则更加突出,一方面玩家更有可能匹配到语言不通的队友或对手,进而产生文化冲突,另一方面,海外玩家的情感表达更加外露,极易爆发言语上的交锋。

据AI公司Modulate所做的调查,83%的成年游戏玩家曾在对局中遭遇过有害的语音对话,而67%的玩家表示在游戏环境恶劣的情况下,他们会选择离开游戏。毫无疑问,如果不对玩家的攻击性行为进行监管,游戏的营收表现会受到负面的影响。

除开对流水的影响之外,部分地区的监管机构还对游戏语音环境的维护提出要求。如FTC在今年对Epic的《堡垒之夜》产品依据儿童在线隐私保护法(COPPA)进行了5亿美元的罚款,其中一条指控便是”默认开启战局语音可能会对游戏中的未成年玩家造成负面的伤害“。欧盟的《数字服务法》也对游戏平台方提出了类似的监管要求。

相较于对文本聊天的监管,对语音内容的监管难度要高上许多。因而不少游戏公司采取的仍是玩家举报+人工审核的传统监管方法。相比较而言,借助AI对游戏语音进行识别能够有效节省审核工作量,在高效抓取有害行为的同时降低误判风险。

以Unity的Safe Voice为例,在AI深度学习算法的助力之下,该产品除了可以识别对话的内容之外,还可通过语调、音量变化、语境、情绪等多个维度的行为数据判断玩家的语音内容是否违规。系统将自动对语音识别出行为标签后,送至审核人员处进行进一步处理。

从官方演示可以看到,一名玩家持续四秒钟的发言被Safe Voice系统识别出了”骚扰、威胁、低俗的语言“,并由系统判断其语气为”强烈的“,进而被打上标记。

与此同时,Unity Safe Voice还提供宏观的数据分析,帮助开发者从全局角度掌握玩家对局中的有害行为发生频率,帮助开发者通过游戏系统设计从源头消灭有害语音行为。

其它的AI监管类产品在功能上也与其类似,并拥有各自特色。如Modulate的ToxMod宣称支持18种语言,并提供合规支持,为游戏的全球化运营打下良好的基础。GGWP则提供从用户名、聊天框到语音对话的全场景监管。

GGWP

在谈及AI+游戏的时候,我们往往联想到更多的是AI对游戏开发的增效。但GameLook认为,实际的赛道并非只有这么几条。正如本文所说的AI语音监管一样,随着AI技术探索的逐渐深入,越来越多非核心的场景也开始表现出较高的AI应用潜力。

举一反三,在买量、社区运营等方面,AI也将能够大有作为。在探索AI用例的路上,不妨对游戏从立项到发行的全工具链进行一个拆解,或许其中就暗藏未被发现的新机会。

如若转载,请注明出处:http://www.gamelook.com.cn/2023/09/526848

关注微信