论文阅读_Pixel2Mesh++
Pixel2Mesh++ 基本信息 项目 内容 论文标题 Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images 作者 Chao Wen, Yinda Zhang, Chenjie Cao, Zhuwen Li, Xiangyang Xue, Yanwei Fu 作者单位 Fudan University(复旦大学,Shanghai Key Lab of Intelligent Information Processing, School of Computer Science) 时间 2021 发表会议/期刊 IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI) 方法概览 特点 文章性质 输入 标定之后的多视角图像 输出 Mesh 所属领域 MeshMVS 一、 摘要精简 本文提出一种基于图卷积神经网络的框架,从少量多视角 RGB...
论文阅读_Point-MVSNet
Point-MVSNet(Point-Based Multi-View Stereo Network) 基本信息 项目 内容 论文标题 Learning Patch-Wise Matching Confidence Aggregation for Multi-View Stereo 作者 Rui Chen、Songfang Han、Jing Xu、Hao Su 作者单位 Tsinghua University(清华大学) 时间 2019 发表会议/期刊 方法概览 特点 文章性质 输入 多视角 输出 参考视角深度图 所属领域 MVS 1. 摘要精简 提出一种新颖的基于点云的深度多视图立体匹配(MVS)框架 Point-MVSNet,区别于传统代价体方法,直接以点云作为场景表示,采用 “粗到精” 的流程实现 3D 重建。首先生成粗深度图并转换为点云,再通过创新的 PointFlow 模块,融合 3D 几何先验与多视图 2D ...
论文阅读_R-MVSNet
Recurrent MVSNet(R-MVSNet) 基本信息 项目 内容 论文标题 Recurrent MVSNet for High-resolution Multi-view Stereo Depth Inference 作者 Yao Yao、Zixin Luo、Shiwei Li、Tianwei Shen、Tian Fang、Long Quan 作者单位 The Hong Kong University of Science and Technology(香港科技大学) 时间 2019 发表会议/期刊 方法概览 特点 文章性质 输入 多视角 输出 参考视角深度图 所属领域 MVS 1. 摘要精简 提出一种基于循环神经网络的可扩展多视图立体匹配(MVS)框架 R-MVSNet,解决传统学习型 MVS 方法中 3D CNN 代价体正则化内存消耗巨大的问题。该方法摒弃一次性正则化整个 3D 代价体的模式,通过卷积门控循环单元(GRU)沿深度方向序贯正则化 2D ...
论文阅读_ROMA
基本信息 项目 内容 论文标题 RoMa: Robust Dense Feature Matching 作者 Johan Edstedt1 Qiyu Sun2 Georg B¨okman3 M˚arten Wadenb¨ack1 Michael Felsberg1 作者单位 Link¨oping University, 2East China University of Science and Technology华东理工大学, 3Chalmers University of Technology 时间 2023 发表会议/期刊 cvpr2024 方法概览 特点 文章性质 输入 两帧图像 输出 图一中每个像素移动到图二的位置,以及置信度 所属领域 DenseMatching 背景 创新点 提出了 RoMa,这是一种用于密集特征匹配的模型,它对比例、照明、视点和纹理的各种具有挑战性的现实世界变化具有鲁棒性。 网络架构 摘要 特征匹配是一项重要的计算机视觉任务,涉及估计 3D...
论文阅读_TransMVSNet
TransMVSNet 基本信息 项目 内容 论文标题 TransMVSNet: Global Context-aware Multi-view Stereo Network with Transformers 作者 Yikang Ding, Wentao Yuan, Qingtian Zhu, Haotian Zhang, Xiangyue Liu, Yuanjiang Wang, Xiao Liu 作者单位 清华大学 / 北京大学 / 北京航空航天大学 / 旷视科技 (联合工作) 时间 2021 发表会议/期刊 CVPR 方法概览 特点 文章性质 输入 多视角 输出 参考视角深度图 所属领域 MVS 1. 摘要精简 TransMVSNet 提出了一种基于Transformer的全局上下文感知多视图立体匹配网络。作者将MVS问题重新归因于其特征匹配的本质,并提出了一个强大的特征匹配Transformer...
论文阅读_TransformerFusion
TransformerFusion 基本信息 项目 内容 论文标题 TransformerFusion:Monocular RGB Scene Reconstruction using Transformers 作者 Aljaz Bozic, Pablo Palafox, Justus Thies, Angela Dai, Matthias Niessner 作者单位 Technical University of Munich (TUM) 时间 2021 发表会议/期刊 方法概览 特点 文章性质 输入 标定之后的多视角图像 输出 Mesh 所属领域 MeshMVS 摘要精简 本文提出 TransformerFusion,一种基于 Transformer 的单目 RGB 视频 3D 场景重建方法。该方法将视频帧通过 Transformer 网络融合为体素特征网格,以隐式表示场景;核心是利用 Transformer 的注意力机制,为每个 3D ...
论文阅读_UCSNet
UCSNet 基本信息 项目 内容 论文标题 UCSNet (Uncertainty-aware Cascaded Stereo Network) 作者 Shuo Cheng, Zexiang Xu, Shilin Zhu, Zhuwen Li, Li Erran Li, Ravi Ramamoorthi, Hao Su 作者单位 University of California San Diego 时间 2020 发表会议/期刊 方法概览 特点 文章性质 输入 多视角 输出 参考视角深度图 所属领域 MVS 1. 摘要精简 提出一种不确定性感知的级联立体匹配网络 UCS-Net,用于多视图图像的 3D 重建。该方法摒弃传统固定深度假设的代价体,提出自适应薄体积(ATV),其深度假设随空间位置变化,适配前一阶段的像素级深度预测不确定性。UCS-Net 包含三阶段级联架构:第一阶段用小型标准平面扫描代价体预测低分辨率深度;后两阶段通过 ATV 逐步细化,以更高分辨率和精度优化深度。ATV ...
论文阅读_Uni-MVSNet
UniMVSNet 基本信息 项目 内容 论文标题 Recurrent MVSNet for High-resolution Multi-view Stereo Depth Inference 作者 YRui Peng, Rongjie Wang, Zhenyu Wang, Yawen Lai, Ronggang Wang 作者单位 北京大学电子与计算机工程学院 时间 2022 发表会议/期刊 方法概览 特点 文章性质 输入 多视角 输出 参考视角深度图 所属领域 MVS 1. 摘要精简 本文提出 UniMVSNet,通过统一深度表征和统一焦点损失,解决现有 MVS 方法中回归与分类的固有缺陷。**统一表征(Unification)兼具分类对代价体的直接约束能力和回归的亚像素深度预测能力;统一焦点损失(UFL)能更合理地解决样本不平衡问题,**适配连续标签。基于粗到精框架,该方法在 DTU 和 Tanks and Temples...
论文阅读_VGGT-SLAM
基本信息 项目 内容 论文标题 VGGT-SLAM: Dense RGB SLAM Optimized on the SL(4) Manifold 作者 Dominic Maggio Hyungtae Lim Luca Carlone 作者单位 MIT 时间 2025 发表会议/期刊 方法概览 特点 文章性质 输入 图片序列(SLAM定义可传入激光IMU等各种机器人传感 **输出 一个环境的几何/语义地图(Map):点云,稀疏的点云ORBSLAM,稠密的点云LSDSLAM,高斯场景 一条智能体的运动轨迹(Trajectory)图片位姿 片位姿 片位姿 所属领域 SLAM(Simultaneous Localization and Mapping, 背景 问题 说明 面对室外长序列数据场景 MASt3R/CUT3R/VGGT开启foundation model for...
论文阅读_VisMVSNet
Vis-MVSNet 基本信息 项目 内容 论文标题 Vis-MVSNet (Visibility-aware Multi-view Stereo Network) 作者 Lingyang Zhang, Yao Yao, Shiwei Li, Zixin Luo, Jian Fang 作者单位 The Hong Kong University of Science and Technology 时间 2020 发表会议/期刊 CVPR 方法概览 特点 文章性质 输入 标定之后的多视角图像 输出 场景的点云图,每个视角的法线和深度图 所属领域 MVS 1. 摘要精简 提出一种可见性感知的多视图立体匹配网络 Vis-MVSNet,解决现有方法未显式考虑像素级可见性导致遮挡区域代价聚合错误的问题。该网络通过匹配不确定性估计显式推断并融合像素级遮挡信息,成对深度图与不确定性图联合推断,不确定性图作为权重指导多视图代价体融合,抑制遮挡像素的不利影响。结合分组相关和粗到精策略进一步提升重建质量,在...
