之前人物换装还得用 SD ,
电脑配置不够还跑不了,
今天看到阿里推出了虚拟试穿的项目
Outfit Anyone
直接放图会比较直观,
一张人物照片 + 一套衣服的照片,
就能看到这套衣服的上身图。
Outfit Anyone
不仅可以用正常的服装,
还可以用奇奇怪怪的东西,
比如说你用个人物照片 + 水果,
漫画手绘的图片也可以,
还是再放张图展示一下。
这样就能非常清晰的看到
Outfit Anyone 的作用了,
操作步骤也是非常简单,
体验链接:
https://huggingface.co/spaces/HumanAIGC/OutfitAnyone
可能会因为使用的人数过多显示报错😅
左边是一张人物图,
中间是服装的图片,
右边是生成的新图片。
当你上传或选择图片之后
点击最下方的 Run 按钮,
就能看到你给 ta 选的人物服装图。
这大大降低了新手的使用门槛。
这是基于条件扩散模型的时装技术,
简单介绍一下扩散模型,
这和其他生成模型一样,
实现从噪声生成目标样本。
从单个图像来看这个过程,
扩散过程就像不断往图像上加噪声
直到图像变成一个纯噪声,
逆向扩散就是从蠢噪声生成一张图像的过程。
放个图展示下,
从上到下分别是:
扩散过程和逆向扩散过程。
在 Outfit Anyone 中,
条件扩散模型用来实现虚拟试穿,
实现在不同场景、不同体形的情况下模拟试穿不同服装的上身效果。
在模型内部,
网络被分为两个独立的流程,
分别处理模特和服装的数据。
这两个流程在一个融合网络中汇聚,
帮助服装的细节特征嵌入到模特的特征中。
Outfit Anyone
能够处理各种体型。
在实际应用中,
我们能看到自己穿上不同风格、
不同类型的服装下的样子,
还能提供更多的选择和灵感。
Outfit Anyone 加上
Animate Anyone 还能生成换装视频
不过 Animate Anyone 只甩了个演示,
啥也没给,感兴趣的话可以收藏跟踪一下。
万一出货了还能先一步体验体验。
Animate Anyone 地址:
https://github.com/HumanAIGC/AnimateAnyone
Outfit Anyone 项目地址:
https://humanaigc.github.io/outfit-anyone/
不知道搞电商服装摄影的饭碗还端得稳不稳。
评论0