2022-09-23 21:01:41 编辑:阎巧艳 来源:
导读 谷歌宣布升级自家使用的2D图像生成技术,特点是可以根据一个视点看到的2D图像,生成3D模型图案,谷歌官方解释最新的NERF采用最新自解码器框架。
谷歌宣布升级自家使用的2D图像生成技术,特点是可以根据一个视点看到的2D图像,生成3D模型图案,谷歌官方解释最新的NERF采用最新自解码器框架,从一组图像里面学习3d的结构和外观建模,这种软件可以应用在汽车和人类等领域,提取他们的特征制作2D图像,然后做成3D模型,这种方式在电影领域也能发挥重要作用,自己感兴趣的图片只要拿出来一张就可以,完成训练以后,点击生成便能出现对应的三维模型。
这种概念的最早提出是在2020年,当时神经辐射场的模型发布,有人说根据二维图像就能生成三维模型,这种想法被很多人认为不可能,因为同一个场景的多个视图,在不同角度下观看是完全不同的,这要求生成的过程截取图形的每一个截面,这对设备和技术的要求极高。因为可视角度不足,因此做出来的模型很容易崩溃,成为一个平面。现在谷歌最新NERF技术的研发,说明这个问题已经得到解决。
根据数据显示,最新的LOLNeRF是对原有NeRF的升级,这种使用机器学习的过程必然存在一定漏洞,但是通过计算3D空间里每个点的颜色和密度,可以实现一定程度上的以假乱真,根据已经建立完成的3D模型实现精细化处理和进一步着色设计,有可能缩短3D建模流程,在3D视觉方面的效果更加显著。这种预测的二维landmarks把渲染的数据投入原始模型,反映到具体的试图渲染辐射场景,再生成原始图像。
利用最新技术生成的3D模型,与原始二维图像里的模型背面是存在区别的,因为缺乏对背面场景的捕捉,最后生成的3D模型不会包括背面,但是这种方法可以减少对真实物体3D模拟的负担,减少他们的工作量。
免责声明:本文由用户上传,如有侵权请联系删除!