(Jeff Dean镇楼)
近日,来自UC Berkeley/Waymo/Google的科研人员利用280多万张图像训练了一个Block-NeRFs的网格,这是迄今为止最大的神经场景表征,能够渲染旧金山的整个街区 。
上图展示的街区是旧金山Alamo Square,面积约 ,数据集由专业的数据采集车分别于2021年6/7/8月采集完成,总共采集了1330次,共计13.4个小时,数据集共分成35个Block-NeRFs。
摘要
题目: Block-NeRF: Scalable Large Scene Neural View Synthesis
主页: waymo.com/research/block-nerf
论文: arxiv.org/abs/2202.05263
本文提出的Block-NeRF
是神经辐射场NeRF
的一个变种,利用它可以表示大规模的环境。具体来说,本文阐述了在扩展NeRF
渲染跨越多个街区的城市规模的场景时,将场景分解为单独训练的NeRF
是至关重要的。这种分解将渲染时间与场景大小解耦,使渲染能够扩展到任意大的环境,并允许每块环境的单独更新。本文采用了一些架构上的变化,使NeRF
对在不同环境条件下数月内采集的数据具有鲁棒性。本文为每个单独的NeRF
增加了外观嵌入( appearance embeddings)、学习位姿精化以及可控的曝光,并引入了一个相邻NeRF
之间的外观对齐算法,以便它们可以无缝地结合起来。本文团队利用280万张图像训练了一个Block-NeRFs的网格,创造了迄今为止最大的神经场景表征,能够渲染旧金山的整个街区。
实验结果
1.Grace Cathedral
2.Lombard Street
3.Alamo Square Neighborhood
4.Moscone Center (night and day)
5.View of Bay Bridge from Embarcadero St.
6.Alamo Square block
7.Downtown block
8. 补充
本文介绍并不详细,各位感兴趣的同学请阅读原文。
来自吃瓜群众的评论
众网友一片crazy/Incredible/impressive ...
这位网友说"在NeRF中看到最喜欢的bar让人心情大好!"
"GTA:真实世界版加载已完成 50%..."
也有网友推荐了来自KITTI 360驾驶数据集,NeRF重建的工作越来越多,统一的标准确实比较重要.
当然也有质疑的声音,这位网友表示近日Mega-NeRF刚开源,并质疑了“迄今最大NeRF”的说法...
还有网友希望在将来NeRF帮助谷歌街景可以把自己模糊一下...