IT之家 7 月 3 日消息,Meta 公司昨日(7 月 2 日)发布研究论文,介绍了名为 Meta 3D Gen(3DGen)的全新 AI 模型,可以在 1 分钟内基于用户输入的提示词,生成高质量的 3D 内容。
![](http://n.sinaimg.cn/spider20240703/418/w760h458/20240703/e66f-f1f685a946824e5aecceab9105d31c91.jpg)
Meta 公司表示 Meta 3D Gen(3DGen)所生成的 3D 内容具备高分辨率纹理和材质贴图,还支持基于物理的渲染(PBR),并能对此前生成的 3D 内容重新再生成新纹理。
IT之家援引论文主要内容,Meta 3D Gen 包含 text-to-3D 生成和 text-to-texture 生成两个主要组件,其工作原理如下:
![](http://n.sinaimg.cn/spider20240703/733/w1000h533/20240703/c77c-327c7c9802ff53ee5f9f9c3b9a02877c.jpg)
第一阶段
根据用户提供的文本提示,第一阶段使用 Meta 的三维资产生成模型(AssetGen)创建初始 3D 资产。该步骤生成一个带有纹理和 PBR 材质贴图的 3D mesh。推理时间约为 30 秒。
第二阶段
案例 1:生成更细化的 3D 纹理
根据阶段 1 生成的三维资产和初始文本提示,阶段 2 将为该资产生成更高质量的纹理和 PBR 贴图。它使用 Meta 的文本到纹理生成器 Meta 3D TextureGen。推理时间约为 20 秒。
案例 2:再生成 3D 纹理
给定一个未纹理化的 3D mesh 和一个描述其所需外观的提示。阶段 2 还可以从头开始为该三维资产生成纹理(mesh 可以是以前生成的,也可以是艺术家创建的)。推理时间约为 20 秒。
IT之家附上完整报告链接,感兴趣的用户可以深入阅读。
![](http://n.sinaimg.cn/spider20240703/347/w820h1127/20240703/de95-27ed50625e4a6d2c49d589f9ee181b30.jpg)
![](http://n.sinaimg.cn/spider20240703/541/w820h521/20240703/2011-f6a342b1d2d1e956ab7f72a0b9ea3804.jpg)
![](http://n.sinaimg.cn/spider20240703/564/w820h544/20240703/53b0-ac6c856806c35d501dc79ebffa4d5b30.jpg)
![](http://n.sinaimg.cn/spider20240703/338/w820h1118/20240703/d921-0a373b0be25dee9b45e9ca1673916ad2.jpg)
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
![新浪科技公众号 新浪科技公众号](http://n.sinaimg.cn/tech/content/tech_qr2x.png)
新浪科技公众号
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)
![](http://n.sinaimg.cn/tech/content/tech_weixin2.png)