英伟达把P图软件GAN了,最新AI工具即将推出
,英伟达的最新 AI 工具又让网友用户们激动了。我已经等不及了!
一位网友在看完演示视频后表示。
对于手残党来说,英伟达的 EditGAN 简直就是零基础 P 图神器能够高质量,高精细度地对图像进行修改,让 P 图方式从未如此容易
例如,让画像和雕塑挤眉弄眼:
EditGAN 甚至能精细到修改车轮辐条大小和方向:
当然,真人照片也不在话下,如控制人眼朝向,头发量等:
还能给猫咪修改耳朵大小:
在草图中加入牙齿部分,人就笑了
EditGAN 只会修改你想要改变的部位,其他部分都原封不动。Wulff等人的模型认为,在简单的非线性变换下,W+空间可以用高斯分布建模。
和最近的 GauGAN2 一样,英伟达也为 EditGAN 开发了一个电脑软件:
这项研究已经被 NeurIPS 2021 接收。
本文一作是来自多伦多大学的华人博士生凌欢,他同时在该校人工智能研究院和英伟达做研究。
2,只需要很少的注释训练数据,
3,可以实时交互式运行,
5,适用于真正的嵌入式,GAN 生成甚至域外图像。然而,在属性转移设置中,需要反转源图像和参考图像,效果并不令人满意。
首先,EditGAN 使用 StyleGAN2 生成图像。
StyleGAN2 的工作流程是:获取图像,将其编码到潜在空间,并使用生成器将这个编码子空间转换为另一个图像。
但问题在于,这个空间是多维的,我们很难将其可视化,也很难确定该子空间的哪一部分负责重建图像中的哪个特征。。
通常,需要庞大的标注数据集,才能知道模型中潜在空间哪一部分控制哪些特征。
更重要的是 EditGAN 不仅知道潜在空间对应控制那个部分,而且还将它们与草图对应起来这样,我们就可以通过修改草图轻易地修改图像了
EditGAN 基于 DatasetGAN,结合了图像建模及其语义分割。
EditGAN 的关键思想在于利用图像和像素级语言分割联合分布。
P 图工具即将发布
该项目使用了大约 14000 个 GPU 小时,其中大约 3500 个 GPU 小时用于最终实验,其余用于研究项目早期阶段的探索和测试至于 EditGAN 的运行,在 V100 上进行 30 步优化需要 11.4 秒
虽然训练不起,但是用训练好的模型来 P 图还是有可能的。
此前英伟达发布的 Canvas 就集成了 GauGAN2 等最新成果,可以用手绘草图生成精细的 PS 文件。
可能 Canvas 也会很快集成 EditGAN 的吧。
论文地址:点击打开
补充材料:点击打开
。郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。