当前位置:首页 > 动态 > 综合精选 > 正文

Nvidia正在利用人工智能将游戏角色变成聊天机器人

发布时间:2024-03-20 10:30:48 编辑:虞悦媛 来源:

导读 英伟达正在展示开发人员如何开始使用其人工智能数字人类工具为视频游戏角色进行语音、动画制作和生成对话。在周一的游戏开发者大会上,该公...

英伟达正在展示开发人员如何开始使用其人工智能“数字人类”工具为视频游戏角色进行语音、动画制作和生成对话。在周一的游戏开发者大会上,该公司发布了CovertProtocol的一段视频,这是一个可玩的技术演示,展示了其AI工具如何允许NPC以独特的方式响应玩家交互,生成适合实时游戏玩法的新响应。

在演示中,玩家扮演私家侦探的角色,根据与人工智能驱动的NPC的对话来完成目标。Nvidia声称每次游戏都是“独特的”,玩家的实时互动会导致不同的游戏结果。英伟达负责开发和性能技术的副总裁约翰·斯皮策(JohnSpitzer)表示,该公司的人工智能技术“可能会为复杂的动画和对话语音提供支持,使数字交互感觉真实。”

CovertProtocol是与人工智能游戏初创公司InworldAI合作构建的,并使用Nvidia的AvatarCloudEngine(ACE)技术——该技术为Nvidia去年5月发布的未来拉面店演示提供了动力。新的隐秘协议演示并没有展示这些人工智能驱动的NPC在真实游戏中的效果如何,而是展示了一系列NPC吐出不同语音的片段。台词和口型同步动画都感觉很机械,就好像一个真正的聊天机器人通过屏幕对你说话一样。

Inworld表示,计划“在不久的将来”发布CovertProtocol的源代码,以鼓励其他开发者采用Nvidia的ACE数字人类技术。Inworld还于2023年11月宣布与微软合作,帮助开发Xbox工具,用于创建人工智能驱动的角色、故事和任务。

Nvidia的Audio2Face技术也在即将推出的MMOWorldofJadeDynasty的剪辑中得到了展示,该剪辑展示了角色与英语和普通话语音的口型同步。Audio2Face的想法是让用多种语言创建游戏变得更加容易,而无需手动复活角色。即将推出的动作混战游戏Unawake的另一个视频剪辑演示了如何使用Audio2Face在过场动画和游戏过程中创建面部动画。

这些技术演示可能足以说服游戏开发者尝试在他们的游戏中添加人工智能驱动的NPC,但至少从对话角度来看,事情似乎并没有取得太大进展。《隐秘协议》中的角色并不比之前的Kairos演示中的角色更像“真人”。但这不太可能安抚视频游戏配音演员的不满,他们担心人工智能的采用将如何影响他们的职业和生计。


免责声明:本文由用户上传,如有侵权请联系删除!

上一篇:Hackintosh爱好者担心末日即将来临

下一篇:最后一页