论文阅读_LRM
LRM: Large Reconstruction Model for Single Image to 3D 基本信息 项目 内容 论文标题 LRM: Large Reconstruction Model for Single Image to 3D 作者 Yicong Hong, Kai Zhang, Jiuxiang Gu, Sai Bi, Yang Zhou, Difan Liu, Feng Liu, Kalyan Sunkavalli, Trung Bui, Hao Tan 第一作者单位 Adobe Research (Yicong Hong 同时隶属 Australian National University) 时间 2024 (根据引用文献推断,应为 CVPR 2024) 发表会议/期刊 预计为 CVPR 2024 方法概览 特点 描述 输入 单张 RGB 图像 (背景已移除) 输出 3D 形状 (以 NeRF / Triplane 形式呈现,可快速提取为 Mesh) 核心目标 从单张图像快速 (5秒内)...
论文阅读_LucidDreamer
LucidDreamer: Domain-free Generation of 3D Gaussian Splatting Scenes 基本信息 项目 内容 论文标题 LucidDreamer: Domain-free Generation of 3D Gaussian Splatting Scenes 作者 Jaeyoung Chung, Suyoung Lee, Hyeongjin Nam, Jaerin Lee, Kyoung Mu Lee 作者单位 ASRI, Department of ECE, Seoul National University, Seoul, Korea 时间 2023 (推断) 发表会议/期刊 未明确说明(可能是计算机视觉顶会,如 ICCV/CVPR) 方法概览 特点 文章性质 输入 文本、RGB图像、RGBD图像 输出 3D高斯喷洒场景(3D Gaussian Splatting Scenes) 所属领域 3D场景生成 摘要精简 LucidDreamer...
论文阅读_MVDream
MVDream: Multi-view Diffusion for 3D Generation 基本信息 项目 内容 论文标题 MVDream: Multi-view Diffusion for 3D Generation 作者 Yichun Shi, Peng Wang, Jianglong Ye, Long Mai, Kejie Li, Xiao Yang 作者单位 ByteDance (USA), University of California, San Diego 时间 2023(推断) 发表会议/期刊 未明确说明(应为计算机视觉/图形学顶会) 方法概览 特点 文章性质 输入 自然语言文本提示(支持少样本图像输入用于个性化生成) 输出 多视角一致的 3D 模型(NeRF 参数化,可导出网格),支持任意视角渲染 所属领域 文本驱动三维物体生成(多视角扩散蒸馏,兼顾通用性与一致性) 摘要精简 MVDream 的核心任务不是直接生成可用的 3D 模型文件(例如 OBJ/GLTF/PLY 等),而是:从文本 +...
论文阅读_MVSAnywhere
MVSAnywhere (Multi-View Stereo Anywhere) 基本信息 项目 内容 论文标题 MVSAnywhere (Multi-View Stereo Anywhere) 作者 Sergio Izquierdo, Mohamed Sayed, Michael Firman, Guillermo Garcia-Hernando, Daniyar Turmukhambetov, Javier Civera, Oisin Mac Aodha, Gabriel Brostow, Jamie Watson 作者单位 Niantic 时间 2025 发表会议/期刊 TiPami 方法概览 特点 文章性质 输入 标定之后的多视角图像 输出 场景的点云图 所属领域 MVS 摘要精简 MVSA 提出了一种零样本、通用型多视角立体视觉方法,旨在解决传统MVS方法在跨域、跨场景(室内/室外)泛化能力差的问题。它结合了单目与多视角线索,采用自适应代价体解决尺度相关问题,结合 Transformer...
论文阅读_MVSFormer
MVSFormer 基本信息 项目 内容 论文标题 MVSFormer: Multi-View Stereo by Learning Robust Image Features and Temperature-based Depth 作者 Chenjie Cao, Xinlin Ren, Yanwei Fu 作者单位 复旦大学数据科学学院 时间 2023 发表会议/期刊 CVPR 方法概览 特点 文章性质 输入 多视角 输出 参考视角深度图 所属领域 MVS 摘要 本文提出 MVSFormer,一种基于预训练 Vision Transformer(ViT)增强的多视图立体(MVS)方法。核心创新包括:利用 ViT 的长距离依赖建模能力提升反射和无纹理区域的特征表示;提出高效多尺度训练策略,适配不同输入分辨率;通过温度调节策略统一分类式(鲁棒但精度有限)和回归式(精度高但置信度不可靠)深度预测的优势。MVSFormer 包含两种变体:微调分层 ViT(Twins)的完整版,以及冻结自监督...
论文阅读_MVSNet
MVSNet 基本信息 项目 内容 论文标题 MVSNet: Depth Inference for Unstructured Multi-view Stereo 作者 姚姚1罗子欣1,李世薇1,天方2,以及 Long Quan 作者单位 香港科技大学 时间 2018 发表会议/期刊 方法概览 特点 文章性质 输入 标定之后的多视角图像 输出 场景的点云图,每个视角的法线和深度图 所属领域 MVS 1. 摘要精简 本文提出一种端到端深度学习架构 MVSNet,用于从多视图图像推断深度图。流程为:先提取深度视觉图像特征,通过可微单应性扭曲在参考相机视锥上构建 3D 代价体,再用 3D 卷积正则化并回归初始深度图,结合参考图像优化得到最终结果。该架构通过基于方差的代价度量适配任意 N 视图输入,在大规模室内 DTU 数据集上,经简单后处理显著优于现有方法且速度快数倍;在复杂室外 Tanks and Temples 数据集上(2018 年 4 月 18 日前)无需微调即排名第一,展现强泛化能力。 2....
论文阅读_MeshAnything
MeshAnything: Artist-Created Mesh Generation with Autoregressive Transformers 基本信息 项目 内容 论文标题 MeshAnything: Artist-Created Mesh Generation with Autoregressive Transformers 作者 Yiwen Chen, Tong He, Di Huang, Weteai Ye, Sijin Chen, Jiaxiang Tang, Xin Chen, Zhongang Cai, Lei Yang, Gang Yu, Guosheng Lin, Chi Zhang 作者单位 1. S-Lab, Nanyang Technological University; 2. Shanghai AI Lab; 3. Fudan University; 4. Peking University; 5. University of Chinese Academy of Sciences; 6. SenseTime...
论文阅读_MeshFormer
MeshFormer: High-Quality Mesh Generation with 3D-Guided Reconstruction Model 基本信息 项目 内容 论文标题 MeshFormer: High-Quality Mesh Generation with 3D-Guided Reconstruction Model 作者 Minghua Liu, Chong Zeng, Xinyue Wei, Ruoxi Shi, Linghao Chen, Chao Xu, Mengqi Zhang, Zhaoning Wang, Xiaoshuai Zhang, Isabella Liu, Hongzhi Wu, Hao Su 作者单位 1. UC San Diego; 2. Hillbot Inc.; 3. Zhejiang University; 4. UCLA 时间 2024 发表会议/期刊 arXiv...
论文阅读_MeshMVS
MeshMVS 基本信息 项目 内容 论文标题 MeshMVS(Multi-View Stereo Guided Mesh Reconstruction) 作者 Rakesh Shrestha, Zhiwen Fan, Qingkun Su, Zuozhuo Dai, Siyu Zhu, Ping Tan 作者单位 西蒙弗雷泽大学(Simon Fraser University) 时间 2021 发表会议/期刊 方法概览 特点 文章性质 输入 标定之后的多视角图像 输出 Mesh 所属领域 MeshMVS 一、...
论文阅读_MeshRCNN
MeshRCNN 基本信息 项目 内容 论文标题 Mesh R-CNN 作者 Georgia Gkioxari、Jitendra Malik、Justin Johnson 作者单位 Facebook AI Research (FAIR) 时间 2020 发表会议/期刊 方法概览 特点 文章性质 输入 标定之后的多视角图像 输出 Mesh 所属领域 MeshMVS Mesh R-CNN 论文总结 基本信息 方法名称:Mesh R-CNN 作者:Georgia Gkioxari, Jitendra Malik, Justin Johnson 第一单位:Facebook AI Research (FAIR) 发表年份:2019年(推测,文中未明确,引文最新至2019) 发表会议/期刊:应为CVPR或ICCV(文中未明确,但引用格式符合顶会风格) 摘要精简 本文提出 Mesh R-CNN 系统,将 2D 目标感知与 3D 形状预测相结合。该系统基于 Mask R-CNN 扩展,新增 mesh 预测分支,通过...
