如果你想,SD 2.0 能生成分辨率为 2048x2048 甚至更高的图像。
今日,Stability AI 官方宣布,那个爆红 AI 圈的 Stable Diffusion 来到了 2.0 版本(SD 2.0)!上线短短几个小时,点赞量已经很可观了。
![](http://n.sinaimg.cn/spider20221124/776/w1080h496/20221124/7bb8-1b5982aa0b9a128b32bef773bdb7bb67.png)
项目地址:https://github.com/Stability-AI/stablediffusion
可以说,这波更新速度够快的,就像网友说的,我从未见过任何技术发展如此之快。V1 还没整透彻,V2 就来了。
![](http://n.sinaimg.cn/spider20221124/405/w1080h125/20221124/a439-62a49275813afa693e1a475779ba2c92.png)
![](http://n.sinaimg.cn/spider20221124/174/w685h289/20221124/9457-72e492383c648ea95dc15097a743610f.png)
V1亮相之初,在Github 排行榜,Stable Diffusion 为所有软件中攀升至 10K star 最快的其中之一,在不到两个月的时间内飙升至 33K star。按照这个速度,2.0 版本很快就会赶上。
![](http://n.sinaimg.cn/spider20221124/339/w1080h859/20221124/ac6c-62acdc9a354592cdc3acfe07cd1a9fdb.png)
Stability AI 的产品副总裁兴奋的表示:Stable Diffusion 2.0 是有史以来发布的最强大的开源项目之一。这是迈向创造力、表达能力和沟通民主化的又一大步。
![](http://n.sinaimg.cn/spider20221124/773/w1080h493/20221124/2bf3-cabfe3b72e45f47cdbd3be2a9f2f1784.png)
还有网友表示:「离完美不远了。可能是 V5 或 V6 版本」。
![](http://n.sinaimg.cn/spider20221124/520/w1080h240/20221124/1ae1-792d63271352aee20851bceaa4365e75.png)
「新版本是改变游戏规则的更新。」
![](http://n.sinaimg.cn/spider20221124/638/w1080h358/20221124/ddda-3b46a08417d4debca22868756c56a8d2.png)
与最初的 V1 版本相比,Stable Diffusion 2.0 提供了许多重大改进和特性,具体表现在:
Stable Diffusion 2.0 版本包含一个具有鲁棒性的文本 - 图像模型,在全新的文本编码器 (OpenCLIP) 上训练而成,与早期的 V1 版本相比,文本 - 图像模型大大提高了图像生成质量,可以生成默认分辨率为 512x512 像素和 768x768 像素的图像。
此外,文本 - 图像模型是在 LAION-5B 数据集上训练的,然后使用 NSFW filter 过滤掉一些不可描述的内容。
![使用 Stable Diffusion 2.0 生成的图像示例,图像分辨率为 768x768](http://n.sinaimg.cn/spider20221124/24/w1080h544/20221124/df09-43d5f266bfc9c67cf0a8b35a9833fdd6.png)
Stable Diffusion 2.0 还包括一个 Upscaler Diffusion 模型,该模型将生成图像的分辨率提高了 4 倍。具体效果如何呢?例如下图展示的是 Upscaler 将低分辨率生成的图像 (128x128) 升级(upscaling)为更高分辨率的图像(512x512)。现在的图像已经够清晰了,然后在结合上述提到的文本 - 图像模型, 比如将 512x512 像素的图像提高 4 倍,Stable Diffusion 2.0 现在可以将图像升级为分辨率为 2048x2048 甚至更高的图像。
![左:128x128 低分辨率图像。右:由 Upscaler 生成的 512x512 分辨率图像](http://n.sinaimg.cn/spider20221124/2/w1080h522/20221124/2e92-510e3e2ac771386b0ccbd664bbcf9525.png)
此外,Stable Diffusion 2.0 更新还包括 Depth2img(depth-guided stable diffusion)模型,它扩展了 V1 版本中图像 - 图像的特性,为创意应用提供了全新的可能性。Depth2img 用来推理输入图像的深度,然后使用文本和深度信息生成新图像。
![](http://n.sinaimg.cn/spider20221124/103/w1080h623/20221124/9127-b1b23a670b2d2d5c60f61cb790afe20e.png)
左边为输入图像,右边为新生成的图像,相同的动作,面貌各异。该新模型可用于图像 - 图像结构的保持和形状的合成。
Depth2img 提供了不同创新性应用,虽然生成的图像与原始图像有很大的不同,但仍然保持了图像的连贯性和深度:
Stable Diffusion 2.0 生成的深度 - 图像保持一致性。
最后,Stable Diffusion 2.0 还引入了一个新的 text-guided 修复模型,用户可以非常智能、快递的切换图像部分内容,如下图中豹子的嘴巴和鼻子是不变的,其他部分可以随意改变。
研究者表示,他们正在努力优化模型以在单个 GPU 上运行,让尽可能多的人可以使用。
参考链接:https://stability.ai/blog/stable-diffusion-v2-release
![新浪科技公众号 新浪科技公众号](http://n.sinaimg.cn/tech/content/tech_qr2x.png)
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)
![](http://n.sinaimg.cn/tech/content/tech_weixin2.png)