(资料图)
据报道,Google Research近日联合华盛顿大学推出一款大模型产品TryOnDiffusion。你只要给它一张自己的全身照,和服装模特的照片,就能知道自己穿上这件衣服之后是什么样子了。
TryOnDiffusion可以将两幅图片进行合成,帮照片中的人物更换不同的服饰。此前这类模型的关键挑战就在于,如何既保留衣服细节,又能将衣服变形,同时还能适应不同主体的姿势和形状,让人感觉不违和。
而TryOnDiffusion利用一种被称为并行UNet的扩散式架构,让合成的照片可以在保留服饰细节的情况下适应人体的姿势以及形状变化。