인공지능 공부 (57) 썸네일형 리스트형 Physical Inertial Poser (PIP) 읽어보기 https://xinyu-yi.github.io/PIP/ Physical Inertial Poser xinyu-yi.github.io CVPR 2022에서 발표된 논문 Abstract sparse inertial sensor를 가지고 모션캡쳐를 하는것은 이미지 기반의 접근법보다 더 나은 가능성을 가지고 있다. 왜냐면 이미지는 오클루젼으로 인한 트래킹 퀄리티의 저하나, 모캡의 공간적 제한, 그러니까 카메라에 대상체가 포착이 되어야한다는 제한이 없기 때문이다. 그러나 소량의 관성 센서만을 이용하여 모션을 캡쳐하고 글로벌 포지션을 알아내는 것은 매우 도전적인 과제이다. 결과적으로 SOTA 기법들은 긴 기간의 모션을 다루기 어렵고, 물리적 제약에 대한 인지가 없기 때문에 발생하는 아티팩트들을 생성한다. 우리는 .. SOMA: Solving Optical Marker-Based MoCap Automatically 읽어보기 https://arxiv.org/abs/2110.04431 SOMA: Solving Optical Marker-Based MoCap Automatically Marker-based optical motion capture (mocap) is the "gold standard" method for acquiring accurate 3D human motion in computer vision, medicine, and graphics. The raw output of these systems are noisy and incomplete 3D points or short tracklets of points. To arxiv.org ICCV 2021에 발표된 논문을 한번 읽어보자. 우선 피규어부터.. Abst.. Openpose를 사용해보자 https://github.com/CMU-Perceptual-Computing-Lab/openpose GitHub - CMU-Perceptual-Computing-Lab/openpose: OpenPose: Real-time multi-person keypoint detection library for body, face, hand OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation - GitHub - CMU-Perceptual-Computing-Lab/openpose: OpenPose: Real-time multi-person keypoint de... github.com .. On human motion prediction using recurrent neural networks 읽어보기 https://github.com/una-dinosauria/human-motion-prediction GitHub - una-dinosauria/human-motion-prediction: Simple baselines and RNNs for predicting human motion in tensorflow. Presented Simple baselines and RNNs for predicting human motion in tensorflow. Presented at CVPR 17. - GitHub - una-dinosauria/human-motion-prediction: Simple baselines and RNNs for predicting human motion i... github.com .. Learning joint reconstruction of hands and manipulated objects 둘러보기 https://openaccess.thecvf.com/content_CVPR_2019/papers/Hasson_Learning_Joint_Reconstruction_of_Hands_and_Manipulated_Objects_CVPR_2019_paper.pdf Abstract 손과 객체의 조작을 예측하는 것은 사람의 행동을 해석하고 흉내내기 위해 필수적이다. 이전의 연구들은 객체의 형상과 그에 따른 손의 포즈를 생성하는 부분에 대해 상당한 발전을 이루었다. 하지만 조작중인 객체와 손을 만들어내는 과정은 손과 객체간의 가려짐으로 인해 매우 어려운 작업이다. 도전적이어 보이긴 하지만, 조작은 물리적 접촉이 손과 객체의 구성의 공간을 제약하기 때문에 단순화된 문제로 보일 수 있다. 예를들면, 조작 도중에, 손과.. AGORA: Avatars in Geography Optimized for Regression Analysis 둘러보기 https://agora.is.tue.mpg.de/ AGORA agora.is.tue.mpg.de Abstract 이미지로부터 예측해낸 3D 휴먼 포즈의 정확도는 벤치마크 데이터셋에 대해 지속적으로 높아지고 있으나, 여전히 실세계의 시나리오에서는 적용이 어렵다. 이는 분명히 현재의 데이터셋과 사람을 포함하는 일반적인 씬 사이의 차이가 있음을 의미한다. ground truth 3D 포즈를 얻기 위한 현재의 데이터 셋은 의상의 복잡도, 환경 조건, 대상자의 수, 가려짐 등으로 인한 한계를 가지고 있다. 게다가 현재의 데이터셋은 몸의 주요 조인트에 해당하는 지점의, 즉 sparse한 3D joint 지점에 대한 평가만을 수행하고 손이나 얼굴의 형상은 무시한다. 현재의 SOTA를 더 도전적인 이미지에 대해 평가.. Populating 3D Scenes by Learning Human-Scene Interaction 둘러보기 https://arxiv.org/abs/2012.11581 Populating 3D Scenes by Learning Human-Scene Interaction Humans live within a 3D space and constantly interact with it to perform tasks. Such interactions involve physical contact between surfaces that is semantically meaningful. Our goal is to learn how humans interact with scenes and leverage this to enable vi arxiv.org Abstract 사람은 3차원 공간상에서 끊임없이 인터랙션하며 살아간다. .. Primitive Object Grasping for Finger Motion Synthesis 둘러보기 https://onlinelibrary.wiley.com/doi/epdf/10.1111/cgf.14187 Abstract 우리는 손과 손동작을 이용해서 쥐는 모션을 만들어내는 새로운 프레임워크를 개발했다. 제안하는 프레임워크는 객체의 위치와 방위에 대한 online adaptation을 수행하고, 모션 캡쳐 중에 사용된 객체의 형상과 다르더라도 쥐는 모션을 생성하는 기능을 제공한다. 이 과정에 POG(primitive object grasping) 고 명명한 메시 모델이 사용되는데, 이는 객체를 쥐는 모션을 표현하는데 이용된다. POG 모델은 다양하게 변하는 제약에 적응하면서도 원래의 메시 형상을 유지하는 메시 deformation 알고리즘을 사용한다. 이 알고리즘의 특징인 모션 캡쳐 시퀀스를 흉내낸다는.. 이전 1 2 3 4 5 6 7 8 다음