본문 바로가기

인공지능 공부

(45)
ChoreoMaster: Choreography-Oriented Music-Driven Dance Synthesis 읽어보기 https://netease-gameai.github.io/ChoreoMaster/ ChoreoMaster Networks ChoreoMaster netease-gameai.github.io 시그라프 2021년 논문을 읽어본다. Abstract 게임과 영화산업쪽에서의 지속적인 요구에도 불구하고 자동으로 고퀄리티의 댄스모션을 생성하는 것은 도전적인 과제이다. 이 논문에서 우리는 ChoreoMaster를 제안하는데, ChoreoMaster는 프로덕션을 할 수 있는 음악 기반의 댄스 모션 생성 시스템이다. 주어진 음악에 대해 ChoreoMaster는 자동으로 고퀄리티의 댄스 모션 시퀀스를 생성하는데, 이 댄스 모션 시퀀스의 생성에는 음악의 스타일, 리듬, 구조가 반영된다. 이 목적을 달성하기 위해 우리는 ch..
EISeg running guide [win10] https://github.com/PaddlePaddle/PaddleSeg/blob/release/2.8/EISeg/docs/install_en.md 이 포스트에서는 EISeg (eiseg) 을 실행하는 가이드를 다룬다. EISeg github은 위 사이트와 같다. 1. 설치하기 pip로 설치하면 된다.. pip install eiseg 실행은 eiseg 을 커맨드 창에서 입력하면 된다. 실행 결과 2. 영어로 설정하기 아래 메뉴로 가면 된다. 그리고 껐다 켜야 한다. 영어로 잘 나오는 것을 확인할 수 있다. 3. 작업용 이미지 마련하기 가지고 있는 동영상을 가지고 작업해봐야겠다. 우선 동영상을 프레임 이미지로 분리해내자. https://github.com/sga8/Video2Image/blob/mast..
PaddleSeg Running guide https://github.com/PaddlePaddle/PaddleSeg GitHub - PaddlePaddle/PaddleSeg: Easy-to-use image segmentation library with awesome pre-trained model zoo, supporting wide-rang Easy-to-use image segmentation library with awesome pre-trained model zoo, supporting wide-range of practical tasks in Semantic Segmentation, Interactive Segmentation, Panoptic Segmentation, Image ... github.com COCO 데이터셋을 만들어보..
COCO 데이터셋 조사 및 커스텀 데이터 만들기 영상 기반 객체 탐지 기술을 조사하다보면 COCO dataset을 이용한 기술이 많은 것을 알 수 있다. 이 COCO dataset은 뭘까? 1. COCO 데이터셋 조사 우선 cocodataset.org 사이트에 접속해서 알아봤다. 첫 화면에서 내가 궁금해했던 내용이 등장한다. 굳이 번역해보면, COCO는 객체 탐지, 세그멘테이션, 캡셔닝을 위한 대규모의 데이터셋이다. COCO는 다음과 같은 특징을 가지고 있다. - 객체 세그멘테이션 - 컨텍스트 내의 인식 - 슈퍼픽셀 stuff segmentation(뭔지 모르겠는데) - 330K 개의 이미지(200k이상이 레이블되어있다) - 1.5 백만개의 객체 수 - 80개의 객체 카테고리 - 91개의 stuff 카테고리 (객체와 stuff의 차이가 뭘까? "tas..
Physical Inertial Poser (PIP) 읽어보기 https://xinyu-yi.github.io/PIP/ Physical Inertial Poser xinyu-yi.github.io CVPR 2022에서 발표된 논문 Abstract sparse inertial sensor를 가지고 모션캡쳐를 하는것은 이미지 기반의 접근법보다 더 나은 가능성을 가지고 있다. 왜냐면 이미지는 오클루젼으로 인한 트래킹 퀄리티의 저하나, 모캡의 공간적 제한, 그러니까 카메라에 대상체가 포착이 되어야한다는 제한이 없기 때문이다. 그러나 소량의 관성 센서만을 이용하여 모션을 캡쳐하고 글로벌 포지션을 알아내는 것은 매우 도전적인 과제이다. 결과적으로 SOTA 기법들은 긴 기간의 모션을 다루기 어렵고, 물리적 제약에 대한 인지가 없기 때문에 발생하는 아티팩트들을 생성한다. 우리는 ..
SOMA: Solving Optical Marker-Based MoCap Automatically 읽어보기 https://arxiv.org/abs/2110.04431 SOMA: Solving Optical Marker-Based MoCap Automatically Marker-based optical motion capture (mocap) is the "gold standard" method for acquiring accurate 3D human motion in computer vision, medicine, and graphics. The raw output of these systems are noisy and incomplete 3D points or short tracklets of points. To arxiv.org ICCV 2021에 발표된 논문을 한번 읽어보자. 우선 피규어부터.. Abst..
Openpose를 사용해보자 https://github.com/CMU-Perceptual-Computing-Lab/openpose GitHub - CMU-Perceptual-Computing-Lab/openpose: OpenPose: Real-time multi-person keypoint detection library for body, face, hand OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation - GitHub - CMU-Perceptual-Computing-Lab/openpose: OpenPose: Real-time multi-person keypoint de... github.com ..
On human motion prediction using recurrent neural networks 읽어보기 https://github.com/una-dinosauria/human-motion-prediction GitHub - una-dinosauria/human-motion-prediction: Simple baselines and RNNs for predicting human motion in tensorflow. Presented Simple baselines and RNNs for predicting human motion in tensorflow. Presented at CVPR 17. - GitHub - una-dinosauria/human-motion-prediction: Simple baselines and RNNs for predicting human motion i... github.com ..