인공지능 공부 (45) 썸네일형 리스트형 Learning joint reconstruction of hands and manipulated objects 둘러보기 https://openaccess.thecvf.com/content_CVPR_2019/papers/Hasson_Learning_Joint_Reconstruction_of_Hands_and_Manipulated_Objects_CVPR_2019_paper.pdf Abstract 손과 객체의 조작을 예측하는 것은 사람의 행동을 해석하고 흉내내기 위해 필수적이다. 이전의 연구들은 객체의 형상과 그에 따른 손의 포즈를 생성하는 부분에 대해 상당한 발전을 이루었다. 하지만 조작중인 객체와 손을 만들어내는 과정은 손과 객체간의 가려짐으로 인해 매우 어려운 작업이다. 도전적이어 보이긴 하지만, 조작은 물리적 접촉이 손과 객체의 구성의 공간을 제약하기 때문에 단순화된 문제로 보일 수 있다. 예를들면, 조작 도중에, 손과.. AGORA: Avatars in Geography Optimized for Regression Analysis 둘러보기 https://agora.is.tue.mpg.de/ AGORA agora.is.tue.mpg.de Abstract 이미지로부터 예측해낸 3D 휴먼 포즈의 정확도는 벤치마크 데이터셋에 대해 지속적으로 높아지고 있으나, 여전히 실세계의 시나리오에서는 적용이 어렵다. 이는 분명히 현재의 데이터셋과 사람을 포함하는 일반적인 씬 사이의 차이가 있음을 의미한다. ground truth 3D 포즈를 얻기 위한 현재의 데이터 셋은 의상의 복잡도, 환경 조건, 대상자의 수, 가려짐 등으로 인한 한계를 가지고 있다. 게다가 현재의 데이터셋은 몸의 주요 조인트에 해당하는 지점의, 즉 sparse한 3D joint 지점에 대한 평가만을 수행하고 손이나 얼굴의 형상은 무시한다. 현재의 SOTA를 더 도전적인 이미지에 대해 평가.. Populating 3D Scenes by Learning Human-Scene Interaction 둘러보기 https://arxiv.org/abs/2012.11581 Populating 3D Scenes by Learning Human-Scene Interaction Humans live within a 3D space and constantly interact with it to perform tasks. Such interactions involve physical contact between surfaces that is semantically meaningful. Our goal is to learn how humans interact with scenes and leverage this to enable vi arxiv.org Abstract 사람은 3차원 공간상에서 끊임없이 인터랙션하며 살아간다. .. Primitive Object Grasping for Finger Motion Synthesis 둘러보기 https://onlinelibrary.wiley.com/doi/epdf/10.1111/cgf.14187 Abstract 우리는 손과 손동작을 이용해서 쥐는 모션을 만들어내는 새로운 프레임워크를 개발했다. 제안하는 프레임워크는 객체의 위치와 방위에 대한 online adaptation을 수행하고, 모션 캡쳐 중에 사용된 객체의 형상과 다르더라도 쥐는 모션을 생성하는 기능을 제공한다. 이 과정에 POG(primitive object grasping) 고 명명한 메시 모델이 사용되는데, 이는 객체를 쥐는 모션을 표현하는데 이용된다. POG 모델은 다양하게 변하는 제약에 적응하면서도 원래의 메시 형상을 유지하는 메시 deformation 알고리즘을 사용한다. 이 알고리즘의 특징인 모션 캡쳐 시퀀스를 흉내낸다는.. t 검정에 대해 배워보자 https://angeloyeo.github.io/2020/02/12/standard_error.html 표본과 표준 오차의 의미 - 공돌이의 수학정리노트 angeloyeo.github.io 위 링크를 통해서 배운 내용을 정리해본다. 1. 모집단(population): 관심 대상의 전체 집합 - 모수(parameter): 관심 대상 전체 집합의 특성 ex) 평균, 분산, 표준편차, 분위수, 모비율 등 2. 표본집단(sample): 랜덤하게 뽑은 표본들의 집합 - 표본통계랑(sample statistics): 표분 집합의 특성 ex) 표본 평균, 표본 표준편차, 표본 비율 - 표준오차(standard error of the mean, SEM): 표본 통계량의 표준 편차 모집단과 표본집단은 위와 같이 정리... Running DynaBOA Step by step https://github.com/syguan96/DynaBOA GitHub - syguan96/DynaBOA: [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online Adaptation [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online Adaptation - GitHub - syguan96/DynaBOA: [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel On... github.com Let's run the DynaBOA on the yo.. Running DynaBOA Step by step https://github.com/syguan96/DynaBOA GitHub - syguan96/DynaBOA: [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online Adaptation [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online Adaptation - GitHub - syguan96/DynaBOA: [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel On... github.com Let's run the DynaBOA on the yo.. Language-Driven Synthesis of 3D Scenes from Scene Databases 읽어보기 2018년 TOG 논문 Abstract 우리는 자연어를 이용하여 3D 실내 장면을 생성하고 변환하며, 대형 annotated 3D 장면 데이터베이스로부터 추출된 장면의 시멘틱과 텍스트-장면 배경 지식을 활용하는 프레임워크를 소개한다. 자연어를 이용한 편집 인터페이스는 sub-scene 레벨의 semantic 작업을 수행할때와 객체의 그룹에 대해 작용할 때 가장 강력해진다. 우리는 이 sub-scenes를 어떻게 조작할지에 대해서 기존의 3D 신을 분석하여 학습해낸다. 우리는 유저로부터 제공되는 자연어 커멘드를 파싱하고, 이것을 semantic scene graph로 변환하는 형태로 편집을 수행힌다. (여기서 semantic scene graph는 데이터 베이스로부터 커멘드에 적합한 sub-scene을 추.. 이전 1 2 3 4 5 6 다음