본문 바로가기

전체 글

(146)
PyTorch Image Models(timm) 퀵 가이드 https://towardsdatascience.com/getting-started-with-pytorch-image-models-timm-a-practitioners-guide-4e77b4bf9055 Getting Started with PyTorch Image Models (timm): a practitioner’s guide The purpose of this guide is to explore PyTorch Image Models (timm) from a practitioner’s point of view, for use in custom scripts. towardsdatascience.com 원문을 공부할겸 해석해본다. PyTorch Image Models(timm)은 이미지 모델, 옵티마이져..
Motion Retargetting based on Dilated Convolutions andSkeleton-specific Loss Functions https://github.com/medialab-ku/retargetting-tdcn GitHub - medialab-ku/retargetting-tdcn: PyTorch implementation of the EG 2020 paper: Motion Retargetting based on Dilated Convol PyTorch implementation of the EG 2020 paper: Motion Retargetting based on Dilated Convolutions and Skeleton-specific Loss Functions - GitHub - medialab-ku/retargetting-tdcn: PyTorch implementation ... github.com @article..
cuDTW++: Ultra-Fast Dynamic Time Warping on CUDA-Enabled GPUs https://link.springer.com/chapter/10.1007/978-3-030-57675-2_37 Abstract DTW는 타임시리즈 데이터 분야에서 많이 쓰이는 거리 측정방식이다. 그러나 DTW 스코어를 계산하는 것은 시간이 많이드는 작업이다. 기존의 GPU 기반 고속 DTW 기법들은 부족한 메모리 접근 방식 때문에 퍼포먼스를 최대로 이용하지 못했다. 이 논문에서 우리는 CUDA 를 지원하는 GPU 상에서 고속화된 DTW를 수행할 수 있는 병렬화 방식을 제안한다. 이 방식은 빠른 스레드간 커뮤니케이션을 위한 저지연 warp intrinsic에 기반한다. 우리는 우리의 기법인 cuDTW++가 현재의 Volta 기반의 GPU들이 낼 수 있는 이론적 피크 퍼포먼스의 90% 수준에 달하는 것을 ..
Parallelizing Dynamic Time Warping Algorithm Using Prefix Computations on GPU 원문: https://ieeexplore.ieee.org/document/6831932 2013 IEEE 10th International Conference on High Performance Computing and Communications & 2013 IEEE International Conference on Embedded and Ubiquitous Computing Parallelizing Dynamic Time Warping Algorithm Using Prefix Computations on GPU The dynamic time warping (DTW) algorithm has O(n2) time complexity, which indicates that it is hard to proce..
TransPose: Real-time 3D Human Translation and Pose Estimation with Six Inertial Sensors https://xinyu-yi.github.io/TransPose/ TransPose Xinyu Yi1, Yuxiao Zhou1, Feng Xu1 1Tsinghua University Accepted by SIGGRAPH 2021 xinyu-yi.github.io @article{TransPoseSIGGRAPH2021, author = {Yi, Xinyu and Zhou, Yuxiao and Xu, Feng}, title = {TransPose: Real-time 3D Human Translation and Pose Estimation with Six Inertial Sensors}, journal = {ACM Transactions on Graphics}, year = {2021}, month = {0..
Transflower: probabilistic autoregressive dance generation with multimodal attention •https://metagen.ai/transflower.html Valle-Pérez, Guillermo, et al. "Transflower: probabilistic autoregressive dance generation with multimodal attention." ACM Transactions on Graphics (TOG) 40.6 (2021): 1-14. Abstract 댄스는 음악의 rhythmic, tonal, timbral 특징을 따르는 복합한 움직임의 수준높은 구성을 요구로 한다. 일반적으로 하나의 음악에 맞추어 댄스를 생성하는 것은 오디오 신호라는 조건에 맞추어서 다차원의 지속적인 모션 시그널을 모델링하는 문제로 표현될 수 있다. 우리는 이 논문에서 해당 문제를 해결하기 위한 ..
OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields https://github.com/CMU-Perceptual-Computing-Lab/openpose GitHub - CMU-Perceptual-Computing-Lab/openpose: OpenPose: Real-time multi-person keypoint detection library for body, face, hand OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation - GitHub - CMU-Perceptual-Computing-Lab/openpose: OpenPose: Real-time multi-person keypoint de... github.com ..
Everybody Dance Now https://arxiv.org/abs/1808.07371 Everybody Dance Now This paper presents a simple method for "do as I do" motion transfer: given a source video of a person dancing, we can transfer that performance to a novel (amateur) target after only a few minutes of the target subject performing standard moves. We approa arxiv.org ICCV 2019 abstract 이 논문은 "do as I do"를 위한 간단한 모션 전이 방식을 제안한다. 즉 사람이 춤을 추는 모습을 ..