7 月 3 日消息,Meta 公司昨日(7 月 2 日)发布研究论文,介绍了名为 Meta 3D Gen(3DGen)的全新 AI 模型,可以在 1 分钟内基于用户输入的提示词,生成高质量的 3D 内容。
![](http://n.sinaimg.cn/spider20240703/418/w760h458/20240703/fe1d-9ed12369799f66d1df9ba7b5346e1d24.jpg)
Meta 公司表示 Meta 3D Gen(3DGen)所生成的 3D 内容具备高分辨率纹理和材质贴图,还支持基于物理的渲染(PBR),并能对此前生成的 3D 内容重新再生成新纹理。
IT之家援引论文主要内容,Meta 3D Gen 包含 text-to-3D 生成和 text-to-texture 生成两个主要组件,其工作原理如下:
![](http://n.sinaimg.cn/spider20240703/733/w1000h533/20240703/e6dc-adfdc769cf8ea441ab821bafa27e9168.jpg)
第一阶段
根据用户提供的文本提示,第一阶段使用 Meta 的三维资产生成模型(AssetGen)创建初始 3D 资产。该步骤生成一个带有纹理和 PBR 材质贴图的 3D mesh。推理时间约为 30 秒。
第二阶段
案例 1:生成更细化的 3D 纹理
根据阶段 1 生成的三维资产和初始文本提示,阶段 2 将为该资产生成更高质量的纹理和 PBR 贴图。它使用 Meta 的文本到纹理生成器 Meta 3D TextureGen。推理时间约为 20 秒。
案例 2:再生成 3D 纹理
给定一个未纹理化的 3D mesh 和一个描述其所需外观的提示。阶段 2 还可以从头开始为该三维资产生成纹理(mesh 可以是以前生成的,也可以是艺术家创建的)。推理时间约为 20 秒。
IT之家附上完整报告链接,感兴趣的用户可以深入阅读。
![【来源:IT之家】](http://n.sinaimg.cn/spider20240703/347/w820h1127/20240703/b758-b36484a05b473964ad244482b41578f4.jpg)
![【来源:IT之家】](http://n.sinaimg.cn/spider20240703/541/w820h521/20240703/fbac-1fc3c4ec5dffaa316c6db8cbeca9c20c.jpg)
![【来源:IT之家】](http://n.sinaimg.cn/spider20240703/564/w820h544/20240703/ed0e-ce53ed0130f86d85efb71f0d57367367.jpg)
![【来源:IT之家】](http://n.sinaimg.cn/spider20240703/338/w820h1118/20240703/c954-e205df3648e65fdb9d1e6c9e706791f4.jpg)
![新浪科技公众号 新浪科技公众号](http://n.sinaimg.cn/tech/content/tech_qr2x.png)
新浪科技公众号
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)
![](http://n.sinaimg.cn/tech/content/tech_weixin2.png)