Web Analytics

TAPIP3D

⭐ 369 stars Korean by zbw001

TAPIP3D: 영속적인 3D 기하학에서 임의의 점 추적하기

arXiv Project Page

Bowei Zhang1,2, Lei Ke1\, Adam W. Harley3, Katerina Fragkiadaki1

1카네기 멜론 대학교   2베이징 대학교   3스탠포드 대학교

NeurIPS 2025

\* 동등 기여

TAPIP3D 개요


🚀 뉴스

개요

TAPIP3D는 단안 RGB 및 RGB-D 비디오 시퀀스에서 장기 피드포워드(feed-forward) 3D 점 추적을 위한 방법입니다. 이미지 특징을 영속적인 월드 좌표 공간으로 변환하는 3D 특징 클라우드 표현을 도입하여 카메라 움직임을 상쇄하고 프레임 간 정확한 궤적 추정을 가능하게 합니다.

TAPIP3D에 대한 자세한 비디오 설명을 제공합니다.

설치

의존성 설치

conda create -n tapip3d python=3.10
conda activate tapip3d

pip install torch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1 "xformers>=0.0.27" --index-url https://download.pytorch.org/whl/cu124 pip install torch-scatter -f https://data.pyg.org/whl/torch-2.4.1+cu124.html pip install -r requirements.txt

cd third_party/pointops2
LIBRARY_PATH=$CONDA_PREFIX/lib:$LIBRARY_PATH python setup.py install
cd ../..

cd third_party/megasam/base
LIBRARY_PATH=$CONDA_PREFIX/lib:$LIBRARY_PATH python setup.py install
cd ../../..

체크포인트 다운로드

TAPIP3D 모델 체크포인트를 여기에서 다운로드하여 checkpoints/tapip3d_final.pth에 저장하세요.

단안 비디오에서 TAPIP3D를 실행하려면 MegaSAM을 실행하기 위해 다음 체크포인트들을 수동으로 준비해야 합니다:

또한, MoGeUniDepth 체크포인트는 데모 실행 시 자동으로 다운로드됩니다. 네트워크 연결이 가능한지 확인하세요.

데모 사용법

간단한 데모 스크립트 inference.pydemo_inputs/ 디렉터리에 위치한 샘플 입력 데이터를 제공합니다.

스크립트는 입력으로 .mp4 비디오 파일 또는 .npz 파일을 받습니다. .npz 파일을 제공할 경우 다음 형식을 따라야 합니다:

데모 목적상, 스크립트는 첫 번째 프레임에서 32x32 격자의 점들을 쿼리로 사용합니다.

단안 비디오 추론

--input_path로 비디오를 제공하면, 스크립트는 먼저 MegaSAMMoGe를 사용하여 깊이 맵과 카메라 파라미터를 추정합니다. 이후 모델은 전역 프레임 내에서 이 입력을 처리합니다.

데모 1

Demo 1

추론을 실행하려면:

python inference.py --input_path demo_inputs/sheep.mp4 --checkpoint checkpoints/tapip3d_final.pth --resolution_factor 2

npz 파일이 outputs/inference/에 저장됩니다. 결과를 시각화하려면:

python visualize.py 

Demo 2

Demo 2

python inference.py --input_path demo_inputs/pstudio.mp4 --checkpoint checkpoints/tapip3d_final.pth --resolution_factor 2

알려진 깊이 및 카메라 매개변수를 사용한 추론

네 가지 키(rgb, depths, intrinsics, extrinsics)가 모두 포함된 .npz 파일이 제공되면, 모델은 정렬된 전역 좌표계에서 작동하여 세계 좌표계로 점 궤적을 생성합니다. 예제 .npz 파일 하나를 여기에서 제공하며, demo_inputs/ 디렉터리에 넣어주세요.

데모 3

Demo 3

python inference.py --input_path demo_inputs/dexycb.npz --checkpoint checkpoints/tapip3d_final.pth --resolution_factor 2

교육 및 평가

1. 데이터셋 준비

학습 및 평가를 위한 데이터셋 준비 방법은 DATASET.md를 참조하세요.

2. 학습

학습을 시작하려면 다음 명령어를 실행하세요:
bash scripts/train.sh

3. 평가

체크포인트를 평가하려면 다음을 실행하세요:
bash scripts/eval.sh
checkpoint 변수를 scripts/eval.sh에서 수정하여 평가할 모델을 지정할 수 있습니다.

인용

이 프로젝트가 유용하다면, 인용을 고려해 주세요:

@article{tapip3d,
  title={TAPIP3D: Tracking Any Point in Persistent 3D Geometry},
  author={Zhang, Bowei and Ke, Lei and Harley, Adam W and Fragkiadaki, Katerina},
  journal={arXiv preprint arXiv:2504.14717},
  year={2025}
}

--- Tranlated By Open Ai Tx | Last indexed: 2026-02-12 ---