banner
hughie

hughie

热爱技术的小菜鸟, 记录一下所学所感

FreeDrag-比DragGAN更稳定有效的交互式图像编辑模型

前言#

​ 本文简单记录介绍一下 FreeDrag。

​ FreeDrag 是一种新的交互式基于点的图像编辑框架,与 DragGAN 相比摆脱了繁琐和不稳定的点跟踪过程。

24-freedrag-logo


正文#

一、什么是 FreeDrag#

一种新的交互式基于点的图像编辑框架,基于 StyleGAN2,采用基于特征的方法,能够在具有相似结构、精细细节或多点目标的非常具有挑战性场景下实现稳定的基于点的编辑。

24-freedrag-arch

二、FreeDrag 特点#

相比 DragGAN 在点跟踪时有丢失和处理混乱等问题,使用新的方法使得模型在更有挑战性的场景下仍然取得更佳的效果。

24-freedrag-method

三、FreeDrag 使用#

下载项目源码:git clone --depth=1 https://github.com/LPengYang/FreeDrag

安装 StyleGAN2 预训练模型:bash download_models.sh

本地运行:CUDA_LAUNCH_BLOCKING=1 python FreeDrag_gradio.py

四、总结#

项目的路线图中还规划了基于 Diffusion 的 FreeDrag 和能够处理 3D 图形的框架,值得期待。


最后#

参考文章:

官方项目

DragGAN

StyleGAN2


声明#

本文仅作为个人学习记录。
本文与HBlog保持同步。

加载中...
此文章数据所有权由区块链加密技术和智能合约保障仅归创作者所有。