您好、欢迎来到现金彩票网!
当前位置:刘伯温预言 > 图像逼真 >

谷歌NeurIPS 2018论文:GAN生成3D模型图像自带逼真效果

发布时间:2019-05-25 08:27 来源:未知 编辑:admin

  人工智能合成的3D物体模型不够逼真?谷歌团队最近开发了一个AI系统——视觉对象网络(VON),不仅生成的图像比当前最先进的方法还要逼线D操作。

  ,不仅生成的图像比当前最先进的方法还要逼真,还可以进行形状和纹理编辑、视角转换以及其它3D调整。研究人员写到:“现代深层生成模型学会了合成较为逼真的图像。大多数计算模型只专注于生成2D图像,忽略了世界是3D的本质。这种2D视角不可避免地限制了它们在许多领域的实际应用,比如合成数据生成、机器人学习、视觉现实和游戏行业。”

  VON通过联合合成三维形状和二维图像来解决这个问题,研究人员将其称为“disentangled object representation”。图像生成模型被分解为形状、视点和纹理三个要素,在计算“2.5D”草图和添加纹理之前,首先学习三维形状的合成。

  重要的是,因为这三个要素是条件独立的,模型不需要在二维和三维形状之间配对数据。这使得该团队能够对二维图像和三维形状的大规模集合进行训练,比如Pix3D、谷歌图像搜索和ShapeNet,后者包含了55个对象类别的数千个CAD模型。

  经过大约两到三天的训练,人工智能系统产生了逼线模型,具有真实的反射率、环境照度和反照率。

  为了评估图像生成模型,团队计算了用于生成三维模型的Fréchet初始距离 。此外,他们还向亚马逊的Mechanical Turk上展示了200对由VON和最先进的模型生成的图像,被试者的任务是在每对图像中选择更加真实的结果。

  VON的性能表现非常突出。与其它AI模型相比,它的Fréchet初始距离最低。Mechanical Turk被试者更喜欢VON生成的图像,比例高达74%至85%。

  研究人员将专注于更加精细化的建模,以更高的分辨率生成形状和图像,将纹理分解为光照和外观,并合成自然场景。

  研究团队写道:“我们的关键思想是将图像生成过程分解为三个要素:形状、视角和纹理,这种分离的3D表示方式使我们能够在对抗学习框架下从3D和2D视觉数据收集中学习模型。与现有的2D生成模型相比,我们的模型合成的图像更加逼线D方法是无法实现的。”

  :Google旗下的DeepMind去年10月推出了一个基于GAN的系统,可以创建非常逼真的食物、风景、动物等照片;今年9月,英伟达的研究人员开发了一种AI模型,可以对脑癌进行合成扫描;

  声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。

http://3dtvsource.com/tuxiangbizhen/110.html
锟斤拷锟斤拷锟斤拷QQ微锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷微锟斤拷
关于我们|联系我们|版权声明|网站地图|
Copyright © 2002-2019 现金彩票 版权所有