资讯详情

虚拟人的手工前世和AI今生

本文同时发表在微信微信官方账号:元天空之城(ID:gh_a702b8d21cdf)

这一次, 让我们有一个跨境主题: 分三篇讨论虚拟人, 虚幻引擎, 以及两者将如何影响独立影视创作.

三个预期为:

一: 虚拟人的手工前世和AI今生

二: 虚幻Unreal如何成为最适合影视的3D引擎

三: 虚拟人和虚幻引擎对独立影视创作的影响: 可能和不可能

这里的"独立", 指的是有驾驭能力的个人和独立工作室.

就像曾经辉煌的中小型计算机最终被微型个人计算机取代, 七两可能拨不了千斤. 独立创作者, 在新技术的加持下, 是否有可能利用当前的影视创作生态?

慢慢叙述.

作者更喜欢先定义讨论的范围. 这次也不例外: 这篇文章讨论的是什么虚拟人?

虚拟人是目前流行的词汇, 因此,它也成为了标准篮筐概念:一切都可以装进去.比如二次元主播, 企业人工智能客服, 元宇宙的NPC... 都可以自称虚拟人.

而本系列真正关注的目标, 是那些"照片级"超现实虚拟人. 我们期待这种虚拟人在某种程度上取代真人演员。 未来参与影视创作.

目前,虚拟人的发展历史在网上有一个通用的四个阶段, 不知道哪位大佬给定义的. 我们不妨遵循这个划分, 先做一些简单的回顾.

让我们从林明美开始: 第一代虚拟歌姬公认.第一个虚拟偶像.

对动漫迷来说, 林明美的身份更为熟悉, 也就是80年代的日本经典动画片<超时空要塞>的女主角, 她那首着名的<可曾记得爱>, 84剧场版在浓缩动画剧情节的高潮结束时唱歌.

让我们重温这首经典中的经典, 谈论虚拟偶像的意义.

<可曾记得爱>是超时空要塞Macross向入侵的外星军团发起总攻时,向整个战场唱歌. 明美是人类的头号歌姬, 当人类文明面临外星敌人的毁灭性打击时, 唱这首歌, 激发大家的斗志, 起义使一些外星军队产生文化共鸣, 一举扭转战局. 男主角一条辉(也是前男友)...)在明美的歌声中, 驾驶变形战斗机最终突破敌人腹地, 外星首领致命一击.

这首星际大战中6分钟的完整Live, 战争与歌声的交织, 动画史上永远无法超越的经典场景永远无法超越的经典场景. 可以说, 明美一曲后, 动画片中没有虚拟歌姬. 出道是巅峰.

林明美是虚拟偶像的开始, 动画公司以她的虚拟形象发行唱片, 虚拟人第一次进入现实世界. 而经过近40年的时间, 明亮美丽的形象深入人心.

从动画水平来看, 当年巅峰作品的纯手绘动画现在已经完全被3了D动画潮流被取代, 但明美至今让人津津乐道的原因与技术无关, 纯粹基于人物设定和雄伟的故事背景"宇宙歌姬"符号.

所以用明美作为这个系列的起点挺合适的:

林明美是一个从影视中走出来的虚拟偶像. 可以说, 明美给了我们一个启示:成功的虚拟偶像, 除技术支持外, 更重要的是,更重要的是, 他/她必须有作品赋予的灵魂.

时间一下就跳到了2000年.

(从这个时间跳, 我们也能感觉到, 早代歌姬林明美的存在是多么的牛逼... )

在此期间, 虚拟人终于摆脱了传统手绘的局限性, 第一代3D虚拟偶像开始出现, 2007年在日本出现的初音未来更具代表性.

在这个阶段, 虚拟偶像是简单的二维形象, 当时合当时的3D CG水平: 做不好复杂, 简单的二单的二维图像是合适的.

有趣的是, 初音未来其实是歌曲合成软件, 当时的 CRYPTON FUTURE MEDIA 以雅马哈的 Vocaloid 基于一系列语音合成程序,开发了音源库,制作和销售了虚拟歌姬角色主唱系列,初音未来也进入了公众的视野.

2012年,中国对标初音未来的虚拟歌姬洛天依出现了.

值得一提的是, 虚拟歌姬发展的关键, 实践证明是同人创造的UGC.

未来初音发售后, 日本论坛上发表了大量的翻唱歌曲;公司随后开放了二次创作权, 鼓励粉丝创作;另外,没有详细的设置, 日本UGC大量粉丝制作的艺术人设/音频/视频内容出现在网站上, 有些甚至诞生了"大神"同人创作者, 初音的内容内涵极大丰满,更让初音未来放大粉丝圈,粉丝创作的洗脑神曲多次出圈.

洛天依在中国也走出了类似的道路, 经历了几年PGC(专业内容创作)经营不善后, 公司开始鼓励UGC创作, 大量同人作品涌现, 虚拟偶像洛天依真的站稳了脚跟.

这个时间段里, 一个著名的虚拟人也出现在电影行业, 这是2001年的电影<指环王>里的咕噜 (其实叫虚拟怪物更合适)

咕噜完全通过动作捕捉技术CG技术产生, 前所未有的动作捕捉加3D CG图像的合成效果让世界大吃一惊. 现在基于动作捕捉的3D屏幕形象很常见, 但在那些日子里,咕噜在电影业引起了轰动.

而到了2008年, 神作<阿凡达>又达到了另一个高度: 运用动作捕捉技术完成表演, CG创造整个虚拟世界的技术创造整个虚拟世界. 此乃后话.

让我们深入研究一下, 为什么虚拟人的第一次发展始于2000年左右? 那时候发生了什么事?

在1999年, Nvidia发布其标志性产品GeForce256, 该系列产品开始正式支持3D在图形操作中尤为重要T&L功能(坐标转换和光源).

要知道, 3D图形解算由各种复杂的坐标转换和光源计算组成. 在GeForce256之前, 所有坐标处理和光源运算都取决于CPU处理;当图形芯片存在时T&L功能后, CPU从繁重的图形计算中完全解放.

从此, 图形芯片可以真正称为GPU, 和CPU并驾齐驱了.

也许是因为个人计算机33D图形加速能力突飞猛进, 3.向大众普及D加速图形的使用场景和能力, 带来了3D虚拟人的第一次发展. 这个时期, 市场规模还比较小, 动捕,CG关键技术还不够成熟, 没有足够的资源支持. 可以说是娱乐业关于虚拟人的试水阶段.

从2016年到2020年,一般分为虚拟人的第三阶段.

这几年出现了哪些虚拟人? 事实上,没有多少人能记住. 必须提到的是, 这个时间, 世界上第一位虚拟主播的诞生和发展, 即Youtube 上的"绊爱".

2016年12月1日,Youtube频道“A.I.Channel”开设,"绊爱"成为世界上第一个自称虚拟主播的视频博主, 从此确认了虚拟主播vTuber的概念, 虚拟人时代开启了二维风格.

出道 3 个月, "绊爱"YouTube 超过粉丝数 20 万; 到了 2018 年 7 月 15 日,绊爱主频道订阅人数突破 200 万人。到2022年, 其YouTube 主频道和游戏分频粉丝总数超过 400 万。

不过, 就在不久前的今年2月26日, 绊爱在线演唱会上举行Hello World 2022”后, 宣布进入无限期休眠. 第一代虚拟主播完成了演艺生涯的完整周期.

与现实世界的明星相比, 虚拟明星兴衰背后没有什么新鲜事. 无非是粉丝关注度的丧失, 粉丝群分裂, 公司经营失误,如此这般.

虚拟偶像也走出了个性化娱乐圈的道路.

这几年, 技术上发生了什么?

除了3D现场建模, 渲染和动作捕捉技术日益成熟; 近年来,基于深度学习的人工智能技术仍处于爆炸性增长期.

2016年3月, 英国DeepMind基于深度学习的围棋程序ALphaGo以4:1击败顶尖职业棋手李世石, 成为第一个打败职业九段的计算机围棋程序。作为标志性事件, 人工智能已经进入了公众的视野, 引发了AI的全面火热.

在这个阶段里, AI能力也开始应用于虚拟人, 主要体现在AI语音能力与虚拟人服务形象的结合, 例如,搜狗和新华社于2018年推出AI主持人, 以及2019年浦发银行与百度合作开发的数字员工"小浦", 等等.

近两年, "虚拟人"成为热门话题. 在当前的语境下, 大家理解的"虚拟人"大多数是所谓的"照片级"超写实虚拟人.

也许有几个原因使目前的原因"虚拟人"标准变得如此之高:

  • 软硬件的发展终于足以支撑这一终极水平.

  • 用户的口味更挑剔, 典型案例也提高了公众的预期.

  • 资本还需要虚拟人工业讲述新的故事.

归根结底, 最重要的还是. 超写实的虚拟人物有更好的代入感, 也能更好的接入现实世界的商业信息.

虚拟人这股热潮到了2021年愈加明显. 互联网不同领域的公司都在卖力发展虚拟人业务:

  • 2021年5月, AYAYI超写实数字人推出, 目前小红书粉丝12.6w, 抖音粉丝8.3w.

  • 2021年6月,B站宣布在过去一年里共有超过3.2万名虚拟主播在B站开播. 虚拟主播成为B站直播领域增长最快的品类。新生代虚拟主播更加多样化且更接地气.

  • 2021年11月18日, NVIDIA推出全方位的虚拟化身平台Omniverse Avatar,CEO黄仁勋现场演示了由这个平台生成的能与人自然问答交流的“迷你玩具版黄仁勋”Toy-Me

  • 2021年12月31日的跨年晚会, 不约而同的, 多个主流卫视平台都引入了虚拟人元素, 其中最出彩的当属周深和虚拟人“邓丽君”同台演唱的《小城故事》.

    且不论各家节目最终效果如何, 多个虚拟偶像同一时间登陆各家主流跨年晚会, 这本身说明了很多问题.

而要说目前国内最火的虚拟人偶像, 当属柳夜熙.

虚拟人柳夜熙

2021年10月31日, 抖音美妆虚拟主播柳夜熙, 第一条视频发布即登上热搜, 涨粉上百万; 截止到现在, 抖音粉丝数量突破了900万, 且仍在明显增长中.

如此凶猛的粉丝增长着实让人眼红. 另一方面, 一片大好的形势下, 柳夜熙有个小小的隐患, 那就是她的视频发布频率比较低. 这是由超写实虚拟人的视频制作门槛和周期决定的.

柳夜熙背后的团队有一百多人, 三分之二都是内容创作部门,  这样强大而专业的团队, 每次3-4分钟的高素质视频内容, 基本上一个月一条的速度. 这差不多是当前极限水平了. 超长的生产周期很容易让虚拟偶像错失流量宣传节点.

试想一下, 如果柳夜熙的视频产出速度提高十倍呢?

如果有一种技术能让团队每三天输出一条柳夜熙级别的短剧视频, 影视行业或许就要被改写了...

尽管无法一夜之间做到这点, 但计算机技术的发展正迅速降低着虚拟人内容制作的门槛. 这一天的到来或许比我们想象得更快. 

接下来, 我们花点时间, 来回顾技术如何推动虚拟人发展到了今天的水平.  

话接上一节, 我们先来看看当前虚拟人的生产成本.

根据行业数据 , 当前打造一个Q版或者二次元形象的虚拟偶像, 成本在10万; 

如果是美型偏写实的虚拟偶像, 成本就到了40万;

若想制作一个类似柳夜熙的超写实虚拟人, 据称行业价格在百万;

而虚拟人动画的每分钟成本, 也对应的从几万一直到近百万.

这种成本, 不是独立内容创作所能承受的. 这里还有独立工作者的空间吗? 如果每个人都能自由打造自己的超真实虚拟人, 是多么酷的事情.

我们不妨深入虚拟人的各个生产环节, 来探索究竟:

把一个虚拟人的样子给打造出来, 行话叫做虚拟人的.

最传统的3D建模方式就是手工打造.

和现实世界类似, 运用3D世界的雕刻工具比如zbrush软件, 一点点精雕细刻而成. 本质上这是计算机3D艺术家的杰作. 

以下是网上找的一些精美zbrush作品:

事实上, 游戏世界里各种充满着想像力和张力细节的怪物角色, 都是在做了原画设定后, 通过手工方式慢慢打磨而成.

3D艺术家的鬼斧神工, 把只存在想象中的人物栩栩如生的带到了用户观众面前.

遗憾的是, 只靠艺术家的双手, 很难满足工业生产所需要的效率和量级; 而且, 人工打造高精度虚拟人模型, 成本非常高昂.

为了普及3D虚拟人的生产, 一些聪明的人们继续探索更高效的模型产出方式.

最直接的思路就是3D扫描采集.

当前主要的3D扫描方式有两种: 相机阵列扫描 和动态光场重建.

两个有点陌生的词汇, 我们一一看过来.

首先是相机阵列扫描, 这是什么技术呢?

在2021年3月,Epic在官网宣布收购了一家叫做Capturing Reality的公司.

这是一家""摄影制图技术"公司. 他们家开发了一个有点神奇的软件Reality Capture: 只要用户拿手机对着物体拍一圈,所有的照片输入软件计算, 就能生成一个物体的3D模型。

在Reality Capture使用多角度照片重建人像3D模型.

这个是目前行业里用于人脸建模的最主流方案,用户可以只用一台相机完成质量还OK的模型扫描,也可以花力气组建一个相机光源阵列来实现高精度的拍摄重建。

相机阵列扫描

不难理解, 这个方法是利用了不同图片之间的相同特征点来进行3d空间的重建. 因此, 照片的分辨率, 相机内外部参数的控制, 人脸光线的均匀程度等因素都会影响到最终的模型质量,需要一个相对理想的拍摄环境来进行拍摄,国内就涌现了一些专门的扫描技术提供商, 承接了不少影视业务。

这种方法尽管相对简单, 但有着建模细节上的局限性. 最明显的一点是, 摄影制图法在重建虚拟人的皮肤细节时, 会有一种力不从心的感觉.

我们把镜头怼到虚拟人脸上, 扁平的人物皮肤就会立刻露出马脚了.

如果虚拟人只是做做带货直播, 或在游戏里互动也罢了; 若希望打造出影视级别的超写实虚拟人, 脸部大特写是必须的, 皮肤真实感这一点无论如何绕不过去.

那能否在摄影制图法重建的3D模型之上, 依靠艺术家的双手在模型上重现真实的皮肤细节呢?  答案是否定的, 尽管3D艺术家有着高超的技艺, 但真实皮肤有如一座高峰拦在面前, 难以逾越.

为什么真实质感的皮肤难以手工打造?

这是因为, 人的皮肤在细节上有着特别复杂的表现. 和那些滑溜溜的虚拟人脸部皮肤完全不同, 人类真实皮肤具有着相当的复杂性:

当日光进入人体后, 不同波长的光会有不同的吸收, 对应着不同的散射距离和衰减速度; 此外, 进入皮肤的光线还受到皮肤表层透光度, 毛孔和皱纹结构甚至是皮下组织结构的影响.

因此, 靠着艺术家的手工一直无法还原出皮肤的照片级真实感, 纯手工打造拥有毛孔结构细微变化的皮肤太难了.

这个难题一直到了2008年才有了转机, 技术宅发明了一种黑科技, 能对面部皮肤进行高精度三维重建, 在精确的脸部几何模型之上, 再准确生成表面的皱纹和每个毛孔的结构细节 ( 感慨一下, 太牛了...), 同时还用物理学公式描述了不同波长光线在皮下组织的衰减, 最终才得到了"照片级"真实的皮肤质感.

这就是影视行业里大名鼎鼎的Light Stage,  或许是这个星球上最牛逼的人脸扫描技术, 也是光场动态重建技术在工业界最有代表性的系统实现.

Light Stage是由美国南加州大学ICT Graphic Lab的保罗•德贝维奇(Paul Debevec)所领导开发的三维采集重建平台系统。第一代系统于2000年诞生, 从诞生的第一天就受到了广泛的关注, 到现在已经发展到了Light Stage6, 最新一代系统被命名为 Light Stage X.

Light Stage所采用的光场扫描的技术出了好些顶级图形学论文. 对普通读者来说, 只需要理解一点: Light Stage光场扫描通过采集人脸各种角度的明暗分明的光照数据 (如上所示), 最终计算还原出超高精度的人脸表面信息.

这种技术能很好的重建人脸上每个毛孔的结构. 如下是通过Light Stage扫描重建的美国前总统奥巴马人脸, 上面的毛孔细节清晰可见, 着实让人惊叹.

有趣的是, 摄影制图法和大杀器Light Stage都采用类似的球形相机阵列来拍摄获得人脸不同角度的信息. 但明显的区别是: 前者用柔和均匀的灯光拍摄, 要避免高光和明暗不均匀; 而后者则特地拍摄明暗分明的人脸. 两种系统的用光理念南辕北辙.

因此, 观察阵列拍摄时的用光方式, 读者可以一眼辨别出相机阵列背后所采用的是摄影制图技术, 还是动态光场重建技术.

当Light Stage 2 成型之后, 索尼影业旗下Imageworks的视觉效果主管Scott Stokdyk在Light Stage团队的配合下, 用这个技术为电影《蜘蛛侠2》制作了演员阿尔弗雷德·莫利纳(“欧克医生”Doc Ock)和托比·马奎尔(“蜘蛛侠”)的虚拟替身. 这项技术在近40个镜头中使用,帮助这部电影获得了2004年奥斯卡最佳视觉效果成就奖.

《蜘蛛侠2》Light Stage扫描

Light Stage 2在更多的电影制作中被使用,包括了2005年的电影《金刚》, 以及2006年的电影《超人归来》, 后者用Light Stage2扫描制作了一个虚拟数字超人角色, 在很多动作动作镜头里都有运用, 这个虚拟数字超人帮助这部电影赢得了奥斯卡最佳视觉效果提名。

《超人归来》

而到了成熟的LightStage5, 则被广泛用于好莱坞的各种大片,很多都是耳熟能详的,比如《本杰明巴顿奇事》, 《蜘蛛侠3》, 《阿凡达》...

Light Stage 5

严格上来说,Light Stage这个大杀器的核心技术并不测量几何结构,还是要靠类似摄影制图的方法来获取人像的准确3D模型,然后再用光度立体法对模型表面进行高精度细节的计算 - 这就是Light Stage能还原皮肤毛孔结构细节的原因。也正因此, LightStage扫描技术能够得到众多好莱坞大片的青睐。

不过, 尽管Light Stage是个有公开论文的成熟系统, 其最核心的模型表面高精度细节计算并没有公开的解决方案, 很多算法细节无从知晓, 导致国内长期以来一直没有这种级别的扫描技术出现.

由于核心算法的缺失, 国内市面上大部分球形扫描系统使用的依然是上面提到的摄影制图方式, 采用球阵只是为了控制光照均匀以及相机标定等, 这样的系统在最关键的皮肤细节精度上无法和Light Stage匹敌.

(据说随着Reality Capture软件的升级,摄影制图法现在勉强能接近毛孔级别的细节, 也算一种经济适用的重建方式.)

最近国内已有几家企业研究实现类似Light Stage的系统, 希望国内早日用上Light Stage级别的3维人脸重建.

除了Light Stage之外, 还有另一种动态光场重建概念, 这种所谓""的思路更简单粗暴: 不管物体模型和表面材质, 直接从各个角度采集三维物体在各种条件下的光线反射信息, 然后在渲染时对采集的光线进行重组输出, 就可以让人看见"真实"的三维世界.

大家是否注意到了, 所谓打造"真实感世界"的顶级方法, 最后都返璞归真:

把所有的信息都尽可能采集一遍, 重组计算后输出.

无论是三维重建, 还是后面各种基于大数据融合的虚拟人驱动方法, 其核心思路无不如此:  从现实中来, 回到现实中去.

花了一些篇幅介绍了这个星球上最牛逼的三维重建技术, 但结论却有点无奈: 这样的人脸扫描重建成本和门槛都过高了, 独立影视创作不用指望这种核弹级别的系统.

但没关系, 我们还有大数据和人工智能.

这里的想法也很简单, 虽然没有高大上的系统直接扫描真人, 但如果可以利用现成的扫描数据, 再结合类似游戏捏脸的交互系统, 是否能面向普通用户提供照片级超写实虚拟人的生成服务?

真有人这么做了, 这就是Unreal虚幻的MetaHuman Creator. 

(是的, 又是虚幻)

MetaHuman Creator交互界面

值得一提的, MetaHuman Creator是一个云端渲染服务, 用户通过网页连接和进行交互操作, 所有的数据运算和生成都是云服务渲染; 而云端后台使用的, 就是Unreal虚幻引擎本身.

MetaHuman初看上去似乎是一个很简单的系统, 颇有点游戏创建角色捏人脸的感觉.

但简单的背后, 其实是多门计算机学科最新技术的结晶: 

超大规模的4D人类面部扫描, 基于机器学习的数据处理和融合, 实时3D引擎支持, 云渲染服务...  无数计算机科学家和工程师的智慧打造出了一个普通人可以上手创作的超写实虚拟人生成系统.

(注: 暂时没更多资料披露, 但从数据结果来看, MetaHuman 4D扫描数据应该类似LightStage的光场扫描重建)

事实上, 目前MetaHuman基于大数据的模型融合只完成了人脸部分 - 当然这也是最难的部分; 而身体部分, 仅提供了传统的基本样式选择. 原因很简单, 尚没有全身模型的扫描大数据支持.

尽管如此, MetaHuman Creator实现了面向普通消费者的超写实虚拟人生成服务(居然还是免费的, 线上生成的虚拟人可以直接数据导出使用), 这已经是一个很了不起的事情. 

毫不夸张的说, MetaHuman Creator在虚拟人制作上实现了技术突破, 极大简化了超写实虚拟人的创作过程,某种程度上, 让虚拟人制作真正飞入了寻常百姓家。

如果继续替用户考虑, 一般人如何设计一个帅气|漂亮的虚拟人呢, 或许对着明星照片捏脸是一种方式.

但明星脸这种事情, 往往涉及肖像版权;  而在影视制作中, 版权是个重要问题.

有办法可以自行生成一个漂亮人脸吗?

在人脸创作这个小细节上, 大数据加持的人工智能又一次展示了它的巨大威力.通过深度学习技术, 我们已经可以生成各种风格倾向的人脸. 以下是作者基于公开的深度学习模型随机生成的一些东方明星人脸和欧美普通人脸. .

以上都是纯计算机生成的人脸图片, 但混在真人照片里, 绝对真伪难分.

如果哪天, MetaHuman Creator增加一个上传人脸照片自动学习和匹配捏脸的功能, 那就真的是"一键喜提虚拟人"了.)

顺便提一下, 前面提到过的虚拟人AYAYI, 正是由MetaHuman Creator打造的:

MetaHuman AYAYI

到这里, 打造虚拟人模型的故事就差不多了.

在打造了3D虚拟人模型后, 其实紧接着还有一项很挑战的工作, 需要把人物模型各个部位正确的到之后用以驱动动作和表情的控制器上, 这就好比把皮肤和底下的肌肉骨骼正确连接在一起. 这样静态的模型才有可能被驱动起来.

在这点上, 类似MetaHuman这样的捏脸系统稍微好一点, 毕竟是通过一个原始模型衍生而来, 内部的驱动机制可以统一做好;  而对于直接相机阵列扫描得来的超写实模型, 绑定是一个很繁重的工作; 这个领域目前也有了大数据和AI技术的加持 , 不再赘叙.

在很长一段时间里, 我们驱动一个3D模型, 无论虚拟人还是虚拟怪物, 让模型动起来的方法就是关键帧动画.

关键帧动画是容易理解的概念. 有点类似黏土定格动画, 把黏土人偶摆出一个动作拍一帧, 持续摆拍完成后再以24帧每秒的速度播放, 就得到了连贯的黏土动画. 很明显, 打造这样的动画需要惊人的耐心.

关键帧动画和黏土动画的机制很像, 读者可以理解为把现实的黏土人偶换成了软件里的3D模型, 制作者在时间轴上摆出模型的一个个动作(关键帧), 软件实现动作间的过渡, 从而打造了一个3D人物的关键帧动画. 

人们想了很多方法去提高关键帧动画的效率;  但本质上, 关键帧动画还是由3D动画师一帧帧手工抠出来的.

和3D建模一样, 从生产效率, 输出质量和人力成本等各方面而言, 纯手工的关键帧动画方式都无法被工业化大规模生产流程所接受. 自<指环王>的咕噜开始, 动作捕捉技术走进了大众的视野.

顾名思义, "动作捕捉"就是直接捕捉采集表演者的动作, 然后去匹配驱动虚拟人模型. 这是目前虚拟人动作生成的主要方式.

动作捕捉这个事情, 有一个有趣的路线区分.,有点类似自动驾驶汽车感知系统路线之争:

自动驾驶的核心是要通过传感器感知周围环境. 有两种方式, 1) 纯视觉摄像头, 2) 激光雷达. 哪种路线更好, 视觉派和雷达派至今还pk得不亦乐乎.

动作捕捉呢, 也分为2大派系, 光学动作捕捉和惯性动作捕捉.

光学动作捕捉

惯性动作捕捉

光学动作捕捉是在一个摄影棚四周架上一圈摄像头, 360度无死角对着表演者拍摄; 表演者身上标记着很多反射红外光的标记点(marker), 通过多摄像头对反光点的同步追踪, 计算机计算得出演员动作.

惯性动作捕捉呢, 则是在人体特定骨骼节点上绑上惯性测量元件(加速度计+陀螺仪+磁力计等等),  通过对传感器测量数值进行计算, 从而完成动作捕捉.

光学动作捕捉是当前电影工业的主要生产方式, 因为精确度足够高.

但问题是: 尽管效果很好, 但光学动捕对于大众化普及没什么意义. 一般人很难拥有这种昂贵的光学动捕摄影棚, 场地和设备的需求注定了这是一个相对阳春白雪的技术.

惯性动捕的成本则低得多. 目前, 小几万人民币的成本, 可以拥有一个包括动捕手套在内的全身惯性动捕设备.  这价格对网红大V不是问题, 普通创作者咬咬牙也买得起.

和相对低廉的价格相比, 更重要的是, 惯性动捕设备对场地大小没有要求.

目前一些高端的虚拟主播使用惯性动捕设备做直播已不是什么稀罕事了.

不过惯性动捕有个小问题, 随着连续使用时间的增加, 测量元件会产生累计误差, 因此使用一段时间后需要重新校准. 此外, 尽管已比较友好, 惯性动捕仍不是特别方便, 比如使用时需要全身绑上测量单元,  还需要避免环境中有磁场的影响...

想偷懒的技术宅不会完全满意.

一定有读者在想,  我们的个人电脑上都有摄像头,  如果不用架一屋子摄像头, 而只依靠一或两个摄像头,  就像人的双眼一样, 就能准确识别动作, 实现动作捕捉该多好啊.

这个想法其实很多人都有, 而真正的践行者, 正是大名鼎鼎的微软, 产品就是在XBOX上推出的光学和深度摄像头结合的Kinect.

在Kinect设备的规模化生产以及相应算法处理上, 微软投入了巨大的人力和财力. 但很遗憾, , 经过了两代XBOX的实践之后, Kinect最终被放弃. 数据显示, Kinect的累计销量超过了 3500 万台。所以Kinect不能说是一款失败的产品. 至少它在前中期对扩大XBOX品牌的影响力是有功劳的。但最终Kinect壮志未酬, 对微软的很多同学来说, 都是有遗憾的.

Kinect黯然离场后, 它的核心技术仍继续发光发热. 作为Kinect最初的技术提供商 (后期微软已自行做了改良) PrimeSense在Kinect上市三年之后, 于2013年被苹果公司以3.6亿美元的价格收购. 所以, 现在的苹果手机内置深度摄像头, 且FaceID在原理上和Kinect有相同点, 就不足为奇了.

主机游戏娱乐系统行业里, 当年也有着Sony PS VR手柄体感和XBOX的Kinect体感之争, 即惯性和视觉路线之争; 在这个领域里, 最后视觉路线失败了.

除了用户交互体验的问题, Kinect在技术上也受限于当年的硬件性能, 毕竟只是一个家用娱乐系统的附属设备, Kinect的摄像头分辨率, XBOX上的算力限制和内存限制都制约了其对人体动作识别的精度.

尽管Kinect出师未捷, 但基于单摄像头的视觉动捕应用仍在继续发展. 对于个人用户, 使用单摄像头实现动作捕捉是一个非常实际的需求.

在今天, 基于单摄像头的人脸和半身动作捕捉, 已经是一些二次元虚拟直播软件和短视频app的标配了. 但平心而论, 这些视觉动捕的应用, 目前只是玩具, 娱乐一下OK,  尚无法满足工业生产的精度要求.

为什么说是玩具呢, 举个简单的例子:  市面上仍没有任何一款商业化的视觉动捕软件能很好的捕捉双手十指的动作(如果已经出现了,请读者不吝纠正). 做不到捕捉肢体动作的细节, 视觉动捕工具就无法进入生产领域.

不过, 让人兴奋的是, 大数据, 深度学习和计算机视觉的进一步结合提供了很多可能性. 据闻在一些大厂的研究机构里, 已能看到基于手势动作大数据库+深度学习视觉识别的方式, 来获得非常精准的单摄像头手势识别结果.

乐观估计, 在未来一两年内, 我们或许就能用上工业精度的单摄像头视觉识别产品了.

对于独立影视制作而言, 需求就是简单易用精度OK的真人动捕.  光学动捕过于奢侈; 目前首选的方式是惯性动捕设备, 价格可以接受, 效果也可以接受.

而作者所期待的理想方式, 将是惯性动捕+单摄像头视觉识别的结合.

这种软硬结合的体系一方面在成本上可以承担; 另一方面, 两个独立捕捉系统可以互相参照和校正, 以实现更精准的动作捕捉.

动作捕捉的技术越来越完善, 但懒人的境界是无止境的: 

能不能连捕捉这一步都省了, 用人工智能来驱动虚拟人的动作?

这一步也有了一些实践, 如百度的AI手语主播 , 就是一个典型的AI驱动动作的虚拟人.

AI驱动的虚拟人对于本系列关注的影视创作有着非常实际的意义:

有了AI驱动的虚拟人, 未来的影视表演中, 跑龙套的虚拟配角可以通过AI来驱动.

导演只需要重点关注虚拟主角的表演. 表演者通过动捕技术把导演所希望表达的肢体动作(当然还有表情和语言) 传递到虚拟人角色身上; 而打酱油的AI虚拟人群演, 只需通过预置指令安排妥当,  更进一步甚至只需要借助自然语义理解技术直接解析剧本的用意, 就能配合主角虚拟人的表演进行互动.

听起来有那么一点点科幻, 不过这里所描述的每个环节并没有特别难啃的硬骨头.

在这里, 挑战者提出的质疑, 或许并不在于语义指令如何让虚拟人AI理解, 进而转为表演的输出 -- 辅以交互式的调教这是一定可以做到的. 我们并没有期望AI虚拟人真正懂得表演, 而只要求AI在接受了几个关键点的校正后, 能和真人动捕的虚拟人进行互动就可以了.

真正的难度或许还是在于, 虚拟人的表演是否足够自然, 以骗过观众的眼睛?

目前我们看到的虚拟人AI动作驱动, 还处于一个比较初级的状态. 不过作者乐观的相信, 和Metahuman的横空出世类似, 只要辅以足够规模的人体动作数据库, 实现以假乱真的AI驱动虚拟人动作, 也就是早晚的事情.

关于驱动虚拟人的话题, 其实还有两个方面没有涉及, 一是虚拟人的语音能力, 二是虚拟人的表情驱动.

关于前者, 在当前类似GPT-3这种有千亿参数规模的大型语言模型的支持下, 虚拟人基于AI的文本沟通做到真假难辨是几乎没有难度的. 而基于聊天文本到自然语音的生成, 也已经有很好的解决方案了.

在其他一些应用场合里, 比如打造互动元宇宙时, 一个可以自主对话的AI系统是比较重要的; 而回到我们的影视创作主题, 一个虚拟人是否能自主聊天反而没那么关键.  更重要的是虚拟人可以根据剧本做出符合预期的表演(朗读情绪, 面部表情, 肢体语言, 等等).

考虑到最基本的实现, 虚拟人的台词和动作可以通过背后表演者来表达, 那么核心的问题就剩下一个: 我们如何实现以假乱真的虚拟人表情呢?

这里暂且卖个关子, 关于人物表情这个影视表演里重要的话题,  留在后续第三篇里再回来讨论.

元天空之城的虚拟人代表 Jasmine

在结束这篇已经超标的长文之前, 顺便和大家介绍一下, 作者自己亲手打造的MetaHuman虚拟人. 作为元天空之城在元宇宙里的代表.  Jasmine在未来的内容里会有更多的机会和大家见面:)

下回再见~

标签: 9qb型传感器没kinect传感器xbox

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台