绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智猩猩服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智猩猩
大模型的轻量级微调方法解析
智猩猩AI新青年讲座 2023/09/04 19:00:00
课程讲师
何昊宇 莫纳什大学 ZIP Lab在读博士

师从庄博涵和蔡剑飞教授,主要研究方向为模型的高效部署;在CVPR、ICCV、NeurIPS、AAAI、IJCAR、TPAMI等顶级会议和期刊上发表多篇论文。

何昊宇
莫纳什大学 ZIP Lab在读博士

师从庄博涵和蔡剑飞教授,主要研究方向为模型的高效部署;在CVPR、ICCV、NeurIPS、AAAI、IJCAR、TPAMI等顶级会议和期刊上发表多篇论文。

课程提纲
  • 大模型部署及微调训练的难点
  • LoRA 等现有轻量级微调方法概述
  • 自适应位置的轻量级微调 SPT
  • 实验分析及微调参数设计
课程简介

随着 AI 模型的逐步增大,这些 AI 大模型的部署难度也在逐渐增大。因此,大模型的轻量级微调逐渐成为主流。它仅微调少量参数,同时冻结大部分参数以减轻存储负担和优化难度,可以在保留尽可能多的预训练模型知识的同时,使 AI 大模型适应新任务。常见的轻量级微调方法有 Adapter 、BiT-S 和 LoRA 等。

然而现有的这些轻量级微调方法通常重视微调参数的结构,而忽略了微调参数的位置。为此,来自莫纳什大学 ZIP Lab 的何昊宇等人,在 ICCV 2023 最新的研究成果上,探究了怎么寻找重要的微调位置,以及怎么根据位置来分配微调参数的问题,并提出了一种自适应位置的轻量级微调方法 SPT。该成果也被收录为了 ICCV 2023 Oral Presentation。

SPT 在自适应的在不同任务的特异位置分配微调参数,大大提升了现有方法的性能和效率。例如,SPT 通过受监督的预训练 ViT-B/16 骨干网络改进了 Adapter,平均 Top-1 准确率分别提高了4.2%和1.4%,在 FGVC 和 VTAB-1k 基准上达到了SOTA性能。

9月4日晚7点,「AI新青年讲座」第224讲邀请到 SPT 一作、莫纳什大学 ZIP Lab 在读博士何昊宇参与,主讲《大模型的轻量级微调方法解析》。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...