绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智猩猩服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智猩猩
DragDiffusion:基于扩散模型的关键点拖拽图片编辑
智猩猩AI新青年讲座 2023/08/28 19:00:00
课程讲师

施宇钧指导老师为陈延福(Vincent Y. F. Tan)教授;目前的科研方向集中于生成式模型及其在图片与视频中的应用;工作成果发表于ICLR、CVPR、NeurIPS、ICCV等机器学习与计算机视觉顶会。

施宇钧
新加坡国立大学 在读博士

施宇钧指导老师为陈延福(Vincent Y. F. Tan)教授;目前的科研方向集中于生成式模型及其在图片与视频中的应用;工作成果发表于ICLR、CVPR、NeurIPS、ICCV等机器学习与计算机视觉顶会。

课程提纲
  • 关键点拖拽的图片编辑框架 DragGAN 及局限性
  • 基于扩散模型的图片编辑算法 DragDiffusion
  • LoRA 微调及精确的拖拽编辑
  • 操作演示
课程简介

对图片灵活而精准的编辑是一个富有挑战性的课题,近期也出现了许多优秀的成果。如 DragGAN,它提出了一个优雅的图片编辑框架:基于关键点拖拽的图片编辑。可以在图像上通过「拖曳」的方式,改变并合成自己想要的图像。比如让一只猫转头、睁眼闭眼,或者竖起耳朵等等。

然而虽然 DragGAN 已经展示出了极为惊艳的结果,但受限于 GAN 的表达能力,其可用范围与场景受到了极大的约束。为尝试解决这一问题,来自新加坡国立大学和字节跳动的几位研究者,在 CVPR 2023 提出了 一个名为 DragDiffusion 算法,将“ Drag ”编辑拓展到扩散模型上。借助大规模预训练的扩散模型,大大提高了这种拖拽编辑框架的实用性,使之能够在多物体,广泛类别,不同风格等复杂真实场景得以运用。

8月28日晚7点,「AI新青年讲座」第223讲邀请到DragDiffusion 一作、新加坡国立大学在读博士施宇钧参与,主讲《DragDiffusion:基于扩散模型的关键点拖拽图片编辑》。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...