估计好多人早就听说过 AI 画手“ 不会画手 ” 的笑话了。
细数起来, AI 在这上头翻的车,那可是掰着手指头都数不过来:
展开全文
以至于有人说, “ 怎么辨别这是不是 AI 画的?看手就行了 ” 。
更有甚者,开了一个很大的脑洞:假如我带上 “ 假手指 ” 再干坏事,是不是就可以一口咬定监控是 AI 生成,从而逃脱罪责了?
要是在以前,用这个办法说不定真就能蒙混过去。
但现在想钻这个漏洞的人,可以洗洗睡了。
因为就在不久前, Midjourney 公布的第五代版本—— Midjourney V5 ,已经能画出正常的手了。
看到 Midjourney 这个名字,是不是有人觉得眼熟?没错,它就是那个去年画出《 太空歌剧院 》,在美术竞赛拿了一等奖的 AI 绘画平台。
Midjourney 把消息放出来后,好多人都忍不住去试了一把,用完发现它 “ 诚不欺我 ” ,画出来的人手果然正常了:
对比一下,之前它画出的人的手,是这个样子:
所以曾经的它,到底对手指有什么误解啊。。。
而如今 Midjourney 能搞定手的难题,一个重要原因就是它有了好多关于手的数据。
AI 能画画,离不开数据。但现有的图片里,能露出手的可不多( 相对像人脸这样部位来说 ),再加上人的手非常灵活,能有很多种不同的姿势。
指望 AI 自己能学会识别,那真是为难它了。
之前要想让 AI 画出像样的手,要么是平台专门雇人给图片里的人手打上标记,像把手掌、拇指、食指啥的,都给清楚地标出来;
要么就得用户费点心,在输入提示词的时候,说得详细一点。有人曾经在用上百个字的提示词,让 AI 成功画出一点毛病都没有的手:
可这种办法显然不适合大多数用户,且不说有没有这个耐心,就是知道该输入哪些提示词这事,恐怕都得有点专业背景才行。
而 Midjourney 这次升级的新版本,利用了社区里那些专业老哥反馈的海量手部数据,迭代了一波,从而能画出正常的手。
除了能画出正常的手,这次推出的第 5 版,还有其他方面的升级。
例如,最让 Midjourney 得意的,是 V5 对光线、人物表情这样的细节处理得更好了,能让生成图片更加逼真。
此前 Midjourney 最擅长生成的,都是幻想风格的,即使让它画现实的东西,也会透出一丝丝的不真实。
而现在的 V5 ,画得就非常写实了,像下面这张,你要是不说是 AI 画的,我真会相信是照相机拍出来的。。。
难怪国外有个叫 Julie Wieland 的平面设计师,会给出这样的评价: “MJ v5 就像给近视患者戴上眼镜,效果清晰, 4K 细节拉满,太不可思议了 ” 。
另外, V5 对输入的提示理解能力更强,输出的图片也更有创意。
假如你输入 “ 一个肌肉发达的野蛮人,在 CRT 电视机旁边拿着武器、电影、 8K 、演播室照明 ” ,那么 Midjourney V3 ( 左 )、 V4 ( 中 )和 V5 ( 右 )分别会生成如下的图片:
还有一个功能,网上提到的不多,但我觉得非常有用,那就是它能反向操作,从 “ 图像到文本 ” 。
你可以上传一张图片,然后它就能告诉你,要想生成这个图像,该输入哪些提示词。
举个例子,如果你上传一张埃菲尔铁塔的照片,它就会告诉你,这张图片的提示词是 “ 位于巴黎的倒金字塔形状的大型金属结构 ” 。
有了这个功能,你就能知道 AI 是咋想的,下次你再想让它生成你需要的图片时,就能省不少劲。
而除了 Midjourney 之外,最近另一家在 AI 绘画行业呼风唤雨的平台—— Stable Diffusion ,其实也有新动作了。
他们推出了 Stable Diffusion Reimagine ,这玩意可以用图来生成图。
据 Stability AI 说,这个工具的使用体验非常友好,不需要输入任何提示词,只要一键上传图片,它会联想、重新创作 3 张不同的照片。
他们展示了一个案例,给它上传一张卧室装修的图片,它自动生成了 3 张风格、位置各不相同的图片。
你要是不满意,可以点击图片的重置按钮, 2 秒钟就能完成图片的再次生成,只要你愿意可以无限重置下去。
对于这么好玩的功能,网友们当然不会放过。
一个日本网友上传了一张二次元妹子的图片, Reimagine 马上返给了他三张:
我也试了一下,上传了火锅的照片,结果是这样的:
但感觉生成的图片一点都不像火锅。。。
我这还算好的,有人上传了非高清图片,发现它生成的图片非常感人,像下面这个就是:
还真是 Reimagine ( 重新想象 )啊。。。
Stability.AI 倒也坦然,他们大方承认,这项生成式 AI 技术 “ 可以根据某些图像激发惊人的结果,而对其他图像产生不太令人印象深刻的结果 ” 。
用人话说就是 Stable Diffusion Reimagine 的画画水平相当不稳定,有时画出来的东西让人惊艳,有时画得就很拉胯。
就像段誉一样,时灵时不灵。。。
对于这点,有人分析,这和 Stability AI 在模型中安装了一个过滤器有关。
这个过滤器是用来阻止不适当的请求,但过滤器有时会把正常的请求误认为有问题,导致输出的结果稀奇古怪。
尽管如此,还是得承认, Stable Diffusion 这个技术确实很牛,有开创性。
因为它是用图像编码器替换了原始文本编码器,换句话说, 就是 Reimagine 会把你上传的原图完全编码,再用算法生成全新的图,这意味着它根本没用原图的任何一个像素。
就冲下面这张图,这话我信。。。
看完这些,我不得不感叹,技术的进步速度实在是快。
就在不久前,不少人还在嘲笑 AI 绘画连手都画不明白,取代人类画师根本就是痴心妄想。
没想到, AI 这么快就把短板补上来了,虽说它还有很多不完美的地方,但谁敢小瞧它未来的发展呢。
现在,我莫名地期待 OpenAI 旗下的 DALL-E 2 的新消息了,真不知道它要是和 GPT-4 双剑合璧,会带来啥新花样。
撰文:海净 编辑:江江
图片、资料来源:
微博、知乎
AI画手会画手了!Stable Diffusion学会想象,卷趴人类提示工程师
以图生图!Stability.ai发布生成式人工智能工具
/