본문 바로가기

인공지능 공부

Mesh Graphormer

https://paperswithcode.com/paper/mesh-graphormer#code

 

Papers with Code - Mesh Graphormer

🏆 SOTA for 3D Hand Pose Estimation on FreiHAND (PA-MPJPE metric)

paperswithcode.com

Abstract 

 우리는 Mesh Graphormer 라고 명명한 graph-convolution-reinforced transformer 를 제안한다. Mesh Graphormer는  하나의 이미지로부터 3D human pose and mesh reconstruction을 수행한다. 최근 transformer 방식과 graph convolutional neural networks(GCNMNs) 들은 휴먼 메시 reconstruction 분야에서 성과를 거두고 있다. 트랜스포머 방식의 접근방법은 3D 메시의 정점과 바디 조인트들 간의 non-local 인터랙션을 모델링하는데에 적합하고, GCNN의 경우 미리 정의된 메시 토폴로지에 기반한 주변 정점들 간의 인터랙션을 표현하는데에 적합하다. 이 논문에서 우리는 graph convolusion과 트랜스모퍼의 self-attension을 어떻게 결합해야 local and global interaction을 표현할 수 있을 지에 대해 기술한다. 실험결과는 우리가 제안하는 Mesh Graphormer가 Human3.6M, 3DPW, FreiHand 데이터셋들을 포함하는 여러 데이터셋들에 대해 SOTA입을 보인다. 코드와 학습된 모델은 아래 링크에서 확인 가능하다

 

https://github.com/microsoft/MeshGraphormer 

 

GitHub - microsoft/MeshGraphormer: Research code of ICCV 2021 paper "Mesh Graphormer"

Research code of ICCV 2021 paper "Mesh Graphormer" - GitHub - microsoft/MeshGraphormer: Research code of ICCV 2021 paper "Mesh Graphormer"

github.com