太强了
这是熊猫的第308篇原创
大家好,我是熊猫。
今天不聊游戏,聊AI。
最近看到这个Qwen发布的最新模型,有点太强了。
模型叫做:Qwen/Qwen-Image-Layered。
我前段时间还在跟朋友讨论,做一个游戏行业的图片处理AI工具,聚焦的场景就是把AI生成的图片,然后按图层切出来,就可以直接给到游戏使用了。
其实这个想法,我在今年3月份的时候就有了,我在写这篇文章的时候就提到过:
把图片的素材单独切处理出来。
我看了一下千问的这个模型,基本上把我想的功能都实现了。
看上面这张图,它就是把这个效果图的图层一层一层的处理出来,然后处理成透明背景的素材。
这时候你要用的话,你就可以直接放到游戏里面去用了。
还可以把你切出来的素材换不同图层的颜色。
或者把这个人物的衣服、头发什么的也可以替换掉。
还可以替换掉图层中文字的那一层,然后它的效果跟原来也会保持接近。
image = Image.open("asserts/test_images/1.png").convert("RGBA")inputs = {"image": image,"generator": torch.Generator(device='cuda').manual_seed(777),"true_cfg_scale": 4.0,"negative_prompt": " ","num_inference_steps": 50,"num_images_per_prompt": 1,"layers": 4,"resolution": 640, # Using different bucket (640, 1024) to determine the resolution. For this version, 640 is recommended"cfg_normalize": True, # Whether enable cfg normalization."use_en_prompt": True, # Automatic caption language if user does not provide caption}
看了一下他们的这个代码结构,还有更好的用法:还可以设置不同的图层数量。
看下面这张图就分成三层,还可以分成8层,分成8层的时候,它就会把更多的素材单独切出来。
确实是太强了,这一个步骤可以极大的提高ui出图的速度。
操作界面是这样的:
也可以直接通过api调用:
和朋友聊的人那个项目,就不用自己研究了。或许以后还是想做这个的话,可能就去直接套这个千问的壳就好了。
我在想这个模型进展这么快,其实很多工作就没有必要去做了,就包括一些工程能力,你费很大的劲去做了,还不如等模型进步一下,它就自己就实现了。
不如直接做一点模型进步之后的事情,多想一步。
没有评论:
发表评论