腾讯AI虚拟人平台“未伴”上线,到底能做些什么?

【GameLook专稿,未经授权不得转载!】

GameLook报道/“你叫什么名字?”

“Samantha”。

2013年的科幻浪漫电影《她(her)》描绘了一个不太遥远的未来:在2025年,人工智能Samantha成为了孤独内向的主人公的知心伴侣。

如今,距离电影设定的2025年只有两年,我们似乎已经看到了Samantha在现实中的雏形科幻电影里的场景正在逐步成为现实。

近年来,随着AI技术的飞速发展,虚拟数字人成为可能。它们不仅具备与用户进行文字、语音乃至视频交互的能力,甚至还可以模拟人类情感,提供陪伴。

就比如海外大名鼎鼎的Character.ai,在今年年初a16z高达1.5亿美元的融资后,公司已经成为了AI领域最新的独角兽之一;类似的还有主打AI虚拟人情感陪伴的Replika以及智能NPC业务的Inworld AI等。

前不久,腾讯也在iOS平台上推出的AI虚拟人应用“未伴”。该应用允许用户通过设置姓名、外貌、性格等方式,打造独一无二的AI虚拟朋友。

生成的虚拟人拥有自己的个性,用户能够向虚拟人发送文字、语音甚至图片进行交流。

选择心仪的虚拟人形象

创建虚拟人人物小传

多种形式的内容输入

从GameLook的体验来看,虽然不可避免地,虚拟人输出的内容会存在虚构的情况,以及一些反反复复类似的发言,但腾讯不愧是社交大佬,在交流体验方面,虚拟人并没有太过出戏的地方。

可以说,“未伴”已具备作为AI陪伴的基本要件。它模糊了虚拟与真实的界限,满足了人类的陪伴需求,为我们提供了另一种社交和情感交流的可能性。

除了自定义虚拟人与其对话外,目前“未伴”平台的公开社区中,还有一些玩家自发创建的公开虚拟角色或玩法可供体验,就比如聚会上常见的“海龟汤”游戏。

以及今年大火的科幻游戏《完蛋!我被美女包围了!》里面的女主角为原型的AI角色,无疑是给了广大游戏玩家在游戏之外,与自己的心上人再续前缘的机会。

虽然官方并没有说明“未伴”背后的技术,但不出意外,该平台背后就是腾讯的浑元大模型,不过正如腾讯在其财报电话会上所说的:

“混元以及未来人工智能助手的发展仍处于概念设计的早期阶段,绝对没有进入产品设计阶段,也还没有进入考虑货币化(商业化)的阶段。”

目前未伴上展示没有上线商业化的功能。

当然,如果我们放眼未来,时间快进到电影《her》中的2025年甚至更远,AI虚拟人技术的应用前景是不可置疑的。

就比如最基础的,满足人类更丰富的社交和情感需求。如电影《她》所展望的那样,AI虚拟人有可能在不久的将来,成为我们的知心好友、倾诉对象乃至“配偶”,提供比简单陪伴更加丰富的价值。

AI水军早就有了,AI大V还会远吗?

甚至基于情感陪伴,AI虚拟人还能有更大的发展空间,就比如在未来成为自媒体或网红。AI的生成能力决定了它完全可以通过发布内容建立自己的个人品牌。

此前,不少国内外公司在数字人方面就已取得了不少成就,也诞生了一些颇具影响力的网红。搭配上AI的内容生成能力,AI虚拟人完全可以像人类自媒体一样获取流量并商业变现。

如果给予AI虚拟人一个相对自由的数字空间,就比如游戏,它们或许真的在虚拟空间能够有自己的生活。

当下包括《逆水寒》手游在内的一些游戏已经开始引入AI驱动的NPC,这些NPC拥有自己复杂的背景设定,能与玩家产生丰富互动。随着相关技术的进一步成熟,未来我们或许能在游戏中体验到真正“有血有肉”的NPC。

此外,AI虚拟人在教育、医疗等领域也大有可为。例如它可以成为学生的个性化教学助手,根据学生的学习情况提供适时帮助;或者助力医生进行疾病问诊,收集病患信息。

在娱乐方面,AI虚拟人也能模拟演员形象出演电影电视,这不仅节省人力成本,也为剧情提供了更大的想象空间。

不过在充满机遇的同时,AI虚拟人领域也充满未知的风险与挑战。

类似的新闻层出不穷

首当其冲的就是内容审核的难题。大型AI模型容易受各类“引导”而生成令人不适的内容,给平台企业和整个行业的声誉带来损害。

如微软推出的新版AI聊天工具New Bing就在发布后不久陷入内容争议,被指在某些情况下表现出偏见并生成有害内容,不得不进行人工干预。

内容审核和把控无疑是这个领域亟待解决的难题,甚至之前地OpenAI地宫斗大戏,一开始疑似就是围绕AI发展和限制而开始的。

另一个潜在风险是对用户心理健康的影响。正如“未伴”等工具试图取代人类提供情感陪伴一样,如果AI表现出的“人性”突然被剥离或异化,用户可能感到被背叛和严重失落。

特别是对于这类产品的核心人群,即在现实生活中人际关系较为简单,性格偏向内向的人群,类似负面的心理伤害可能会造成相当严重的后果。

事实上,曾有报道指出国外Replika等情感AI曾让部分用户上瘾,甚至引导、PUA用户做出一些不当行为,而当企业调整应用的算法后,不少用户因为AI虚拟人的变化,甚至诱发了抑郁。

对于AI虚拟人,企业和科研机构或许还需要更多研究以确定长时间使用AI陪伴对人类心理的影响。

综上,AI虚拟人或许确实有着广泛的应用前景,但其身上的安全和伦理风险是极大的隐忧。

AI生成速度大幅提高也让监管难度增加;它模糊了真实和虚假的界限,面临造假和欺诈等安全隐患。此外,AI操纵用户情绪,引发心理健康问题,也让伦理规范难以建立。

要减少这些风险,需要从产品策划和企业文化做起——产品设计理念要以用户利益为中心;企业需要建立健全的内容审核和算法审计机制。同时监管层面也需要尽快行动起来,让行业健康快速增长。

AI虚拟人技术打开了通往更丰富的社交和互动的大门,它也将改变我们对“人”的认知。但在满怀期待迈向这个美好新世界的同时,我们也要正视技术进步潜藏的风险,以积极和审慎的态度共同应对。

如若转载,请注明出处:http://www.gamelook.com.cn/2023/12/532319

关注微信