米乐官网app-米乐体育官方下载

服务器

浪潮元宇宙服务器metaengine nvidia omniverse助力构建高逼真交互型数字人-米乐官网app

近日,在浪潮&nvidia元宇宙算力发展研讨会上,浪潮信息和nvidia分享了如何使用浪潮元宇宙metaengine与nvidiaomniverse快速构建高逼真的交互型数字虚拟人。

数字人生产需要强大的多元算力支撑

虚拟数字人是元宇宙的主要实体,就像是元宇宙世界中的公民,是人类身份在虚拟世界的载体。随着2021年元宇宙风起,更高拟真、超写实,具有强交互性的新一代虚拟人开始涌现,且正在被规模化应用到不同产业场景。

数字人生产可以拆分成人物建模、人物驱动、人物渲染和感知交互四个作业环节。ai能够加速虚拟数字人生产的每个作业环节,可以说ai正在改变数字人的生产范式,将数字人的创作周期大幅缩短,提升生产效率,推动数字人产业快速发展。

这样一种新范式的背后其实是更巨量和多元的算力需求。具体而言,数字人和其他实体的建模需要众多设计师协同创作完成,这就需要底层平台具有强大虚拟化和云端协同计算能力;当数字人建模完成之后,数字人自身的运动,数字人和其所处的数字环境、以及其他实体的相互作用需要大量的结构力学、弹性力学,以及多体动力学等物理仿真算力需求;让数字人无限接近自然人,需要高逼真、沉浸感的3d渲染,例如阿丽塔高度拟真的视觉特效来源于光线追踪、光栅化、dlss等巨量的图形图像算力支撑;在智能交互环节,由ai驱动的数字人往往需要结合语音识别、nlp、dlrm等ai算法从而实现交互能力,这些模型的背后需要强大的ai算力来支撑其训练和推理。此外,现实世界和数字世界的交互则需要超低延迟的网络数据传输,来创造更流畅的沉浸式的数字世界体验。

由此可以看出,元宇宙的构建和运行需要强大的多元算力支撑。这也对算力基础设施提出了更高的要求,不仅是高性能、低延迟、易扩展的硬件平台,还需要有端到端、生态丰富、易用的软件栈。

浪潮metaengine:元宇宙算力平台

浪潮元宇宙服务器metaengine就是要打造支撑元宇宙的软硬一体化算力基础设施。为此,浪潮与英伟达联合打造业界最强软硬件生态,为数字人和数字孪生的构建提供多元算力,以及丰富的技术和工具,为用户打造高效的元宇宙协同开发体验。

在硬件上,metaengine采用浪潮领先的异构加速服务器,支持最先进的cpu和gpu,具有强大的rdma通信和数据存储能力,可提供强大的渲染和ai计算能力。

在软件上,metaengine可以支持对应每个作业环节的各类专业软件工具,用户可以根据使用习惯灵活选择。同时系统全面支持nvidiaomniverseenterprise,是经过优化的ovx系统,可提供用于构建和部署大规模数字孪生的相关功能及性能。用户可以通过kit功能将不同的sdk进行模块化的组合,快速完成定制化app或者微服务的开发。互联插件connect可以通过通用数据格式usd实现第三方专业软件工具无缝连接,目前connect已经提供了20多种plugins,支持与3dsmax,ue,maya等软件互联,解决不同软件之间难以打通、互操作性弱的痛点难题。

metaengine还整合了浪潮“源”大模型和浪潮aistation智能业务创新生产平台的能力。浪潮“源”大模型参数规模高达2457亿,具备知识问答、多轮对话、中英翻译、写作古诗等零样本或小样本的推理能力,可以让虚拟人像人类一样进行自然语言交互。而针对浪潮“源”需要多gpu计算设备协同工作的问题,浪潮aistation可实现多计算资源的智能调度管理,保证模型服务的高吞吐、低延迟。

浪潮metaengine- nvidia omniverse快速构建高逼真交互型数字人

浪潮信息与nvidia强强联手,基于metaengine和nvidiaomniverseenterprise推出了具备统一多软件格式、支持多人协作、支持实时驱动和实时光线追踪渲染的虚拟人米乐官网app的解决方案,强大的算力平台及丰富的软件栈让虚拟人构建由难变易,尤其适合大规模虚拟人制作场景。

方案集成了创建数字人的流程和技术,可以快速生成毛发、皮肤、细节都非常逼真的超写实数字人,帮助数字人制作用户更好地创建自己的数字虚拟ip。

使用方案中的nvidiaominiverse audio2face工具,通过很简短的一段音频输入,就可以驱动这段语音对应的表情,大大加速数字人的制作过程。

来源:nvidia“使用nvidiaomniverse auto2face制作ai驱动的面部动画”

在动作识别方面,以往采用光学和惯性动作捕捉技术,需要真人演员驱动,并使用大量的摄像头、传感器,制作难度大、成本高、周期长。现在,借助浪潮metaengine- nvidiaominiverse方案,可以基于人体骨骼点二维运动特征向量进行动作识别,进一步映射到数字人躯体上,快速驱动数字人的表情和动作。

此外,还可以实现数字虚拟人和真实人类的交互。虚拟人可以识别真实人类的动作、肢体语言和反馈,再通过nlp模型、图形图像处理软件,根据机器学习算法决定说什么话,来吸引真实的人类,和人类进行交互。

nvidia“与爱因斯坦虚拟人对话”

如何使用浪潮metaengine和nvidiaominiverse来构建高逼真的交互型虚拟数字人呢?下面按照人物建模、人物驱动、人物渲染、感知交互的作业流程来说明。

首先可以使用uemetahuman等软件配合omniverse的nucleus/connect进行3d人物形象及人脸建模。

然后通过高精仿真,让虚拟数字人的动作和行为更加物理准确。

接下来实时渲染环节,rtxrenderer可以提供实时渲染能力,让人物动画及其场景实时立体地展示在我们面前,通过屏幕或xr设备进行沟通交流。

最后是智能交互,这部分需要有大量的ai模型提供支撑。用户首先通过asr和visionai模型进行语音和图像识别,进一步将识别得到的结果送入全球最大的中文语言模型之一的浪潮“源1.0”大模型来生成应答的语言文本,在这个部分aistation推理平台会负责管理源1.0及语音模型,源回答的结果,会经过tts模型转化为语音,然后送入nvidiaomniverse audio2face,通过语音驱动数字人面部产生逼真的表情及面部动作,并通过rtxrenderer实时渲染能力生成动画视频作为输出与用户交互,让对话及交互更加自然真实。

展开全文
人赞过该文
内容纠错

相关电商优惠

138人评分
100%好评

评论

还没有人评论~ 快来吧~

读过此文的还读过

点击加载更多

发评论,赚金豆

收藏 0 分享
米乐官网app-米乐体育官方下载论坛手机笔记本游戏硬件数码影音家用电器办公打印

更多频道

频道导航
辅助工具
网站地图