绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智东西公开课服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智东西公开课
基于单目RGB的高效三维重建模型Ray-ONet
智猩猩AI新青年讲座 2022/07/11 19:00:00
课程讲师
边文菁 牛津大学 Active Vision Lab在读博士

导师为Prof. Victor Adrian Prisacariu. 研究方向为三维重建。

边文菁
牛津大学 Active Vision Lab在读博士

导师为Prof. Victor Adrian Prisacariu. 研究方向为三维重建。

课程提纲
  • 单目三维重建方法研究
  • 隐式方法的效率及尺度模糊问题
  • 高效重建的Ray-ONet模型
  • 在ShapeNet上的应用及局限性分析
课程简介

从二维图像中恢复失去的维度一直是经典的多视角立体和在不同角度看形状方法的目标,这些方法已经被广泛研究了几十年。第一代方法从几何学的角度来处理这个问题;他们专注于从数学上理解和规范三维到二维的投影过程,目的是为这个不理想的反问题设计数学或算法解决方案。第二代三维重建方法试图通过将三维重建问题制定为一个识别问题来利用这种先验知识。

而深度学习技术的出现,以及大量训练数据集的不断增加,导致了新一代的方法能够从一张或多张RGB图像中恢复物体的三维几何和结构,而无需复杂的相机校准过程。在3月10日的「AI新青年讲座」第104讲中,牛津大学博士后李可杰针对《基于单目RGB视频的多物体定位与重建》进行了深入讲解。错过直播的朋友,可以点击文章底部“阅读原文”进行回看!

同时,牛津大学Active Vision Lab的边文菁、李可杰等人还提出了一种可以有效地从单目图像中重建高效的3D模型的方法Ray-ONet。Ray-ONet通过预测沿从相机坐标中的像素反向投影的光线的一系列占用概率,相比于ONet提高了重建精度,同时将网络推理复杂性降低到O(N*N)。因此,Ray-ONet在ShapeNet基准测试中实现了最先进的性能,在128*128*128分辨率下的速度提高了20倍以上,并在推理过程中保持了相似的内存占用量。

7月11日晚7点,「AI新青年讲座」第135讲,邀请到牛津大学Active Vision Lab在读博士边文菁参与,主讲《基于单目RGB的高效三维重建模型Ray-ONet》。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...