绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智猩猩服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智猩猩
16K超高清图像生成——预训练扩散模型高效线性化
智猩猩AI新青年讲座 2024/12/03 10:00:00
课程讲师

师从王鑫超教授,本科毕业于南京大学。研究方向为高效数据合成以及使用合成数据进行高效训练。曾在CVPR、ICCV、NeurIPS、ICML、以及IEEE TPAMI等国际会议、期刊上以第一作者身份发表论文10余篇。2023年度国家优秀自费留学生奖学金获得者。

刘松桦
新加坡国立大学 在读博士

师从王鑫超教授,本科毕业于南京大学。研究方向为高效数据合成以及使用合成数据进行高效训练。曾在CVPR、ICCV、NeurIPS、ICML、以及IEEE TPAMI等国际会议、期刊上以第一作者身份发表论文10余篇。2023年度国家优秀自费留学生奖学金获得者。

课程提纲
  • 1、主流视觉扩散模型与Mamba2回顾
  • 2、注意力规范化及非因果推理关键特征解析
  • 3、广义线性注意力机制的设计与实现
  • 4、实际应用与生成效果分析
  • 5、在Diffusion Transformer模型上的扩展延伸
课程简介

近年来,扩散模型在人工智能生成内容(AIGC)方面取得了重大进展。一方面,与GAN等经典模型不同,扩散模型迭代地细化噪声向量,从而产生具有精细细节的高质量结果。另一方面,经过大规模数据的训练,这些模型在输入条件和输出结果之间表现出令人满意的一致性。这些能力推动了文本到图像生成的快速进展,然而现代扩散模型的出色生成性能严重依赖自注意力机制处理复杂空间关系。这种现有范式由于复杂度随图像分辨率呈二次增长,在生成高分辨率视觉内容时面临显著挑战。

为解决上述问题,新加坡国立大学在读博士刘松桦提出了LinFusion架构,以一种新颖的广义线性注意力机制作为传统自注意力替代方案。 LinFusion 仅经过适度训练即可实现与原始Stable Diffusion(SD) 相当甚至更好的性能,同时显著降低了时间和内存复杂度,可以在1块GPU上生成16K超高分辨率图像。代码现已开源。

作者通过研究近期提出的线性复杂性模型,如Mamba、Mamba2和门控线性注意力,确定了两个关键特性:注意力规范化和非因果推理,这些特性显著提升了高分辨率视觉生成的性能。在此基础上,引入了一种广义线性注意力范式,这是常见线性标记混合器的低秩近似。同时为降低训练成本并充分利用预训练模型,作者从预训练的SD中提取知识并初始化模型。

实验结果表明,经过适度训练的LinFusion,大幅减少了推理时间和内存消耗。尤其是在生成16K分辨率图像时,模型能够高效运行,仅需1块GPU、1分钟即可生成且生成质量优异。同时作者在SD-v1.5、SD-v2.1和SD-XL等版本上的测试显示,LinFusion能够生成16K分辨率等高质量图像,并表现出优异的零样本跨分辨率生成能力。此外,该模型无需额外调整即可兼容SD预训练插件(如ControlNet和IP Adapter)。

12月3日10点,智猩猩邀请到论文一作、新加坡国立大学在读博士刘松桦参与「智猩猩AI新青年讲座」256讲,主讲《16K超高清图像生成——预训练扩散模型高效线性化》。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...