본문 바로가기

인공지능 공부

(57)
t 검정에 대해 배워보자 https://angeloyeo.github.io/2020/02/12/standard_error.html 표본과 표준 오차의 의미 - 공돌이의 수학정리노트 angeloyeo.github.io 위 링크를 통해서 배운 내용을 정리해본다. 1. 모집단(population): 관심 대상의 전체 집합 - 모수(parameter): 관심 대상 전체 집합의 특성 ex) 평균, 분산, 표준편차, 분위수, 모비율 등 2. 표본집단(sample): 랜덤하게 뽑은 표본들의 집합 - 표본통계랑(sample statistics): 표분 집합의 특성 ex) 표본 평균, 표본 표준편차, 표본 비율 - 표준오차(standard error of the mean, SEM): 표본 통계량의 표준 편차 모집단과 표본집단은 위와 같이 정리...
Running DynaBOA Step by step https://github.com/syguan96/DynaBOA GitHub - syguan96/DynaBOA: [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online Adaptation [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online Adaptation - GitHub - syguan96/DynaBOA: [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel On... github.com Let's run the DynaBOA on the yo..
Running DynaBOA Step by step https://github.com/syguan96/DynaBOA GitHub - syguan96/DynaBOA: [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online Adaptation [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online Adaptation - GitHub - syguan96/DynaBOA: [T-PAMI 2022] Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel On... github.com Let's run the DynaBOA on the yo..
Language-Driven Synthesis of 3D Scenes from Scene Databases 읽어보기 2018년 TOG 논문 Abstract 우리는 자연어를 이용하여 3D 실내 장면을 생성하고 변환하며, 대형 annotated 3D 장면 데이터베이스로부터 추출된 장면의 시멘틱과 텍스트-장면 배경 지식을 활용하는 프레임워크를 소개한다. 자연어를 이용한 편집 인터페이스는 sub-scene 레벨의 semantic 작업을 수행할때와 객체의 그룹에 대해 작용할 때 가장 강력해진다. 우리는 이 sub-scenes를 어떻게 조작할지에 대해서 기존의 3D 신을 분석하여 학습해낸다. 우리는 유저로부터 제공되는 자연어 커멘드를 파싱하고, 이것을 semantic scene graph로 변환하는 형태로 편집을 수행힌다. (여기서 semantic scene graph는 데이터 베이스로부터 커멘드에 적합한 sub-scene을 추..
BOA (Bilevel Online Adaptation) for Out-of-Domain Human Mesh Reconstruction 읽기 https://sites.google.com/view/dynaboa/boa-cvpr-2021 Out-of-domain Human Mesh Reconstruction - BOA (CVPR 2021) Bilevel Online Adaptation for Out-of-Domain Human Mesh Reconstruction Shanyan Guan*, Jingwei Xu*, Yunbo Wang†, Bingbing Ni†, Xiaokang Yang MoE Key Lab of Artificial Intelligence, AI Institute, Shanghai Jiao Tong University, China [Code] [Paper] [Supp. sites.google.com CVPR 2021에 발표된 논문인 ..
PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization CVPR 2020 (Oral Presentation) https://shunsukesaito.github.io/PIFuHD/ Abstract 최근 이미지 기반의 3D 휴먼 생성 기법이 딥 뉴럴네트워크의 발전에 힘입어 많은 기술적 발전을 이룩했다. 물론 기존의 방식들도 실 세계와 같은 상황에 적용 가능한 잠재성을 가지고 있긴 하지만, 대부분 입력 이미지가 표현하고있는 디테일을 놓치는 결과를 생성한다. 우리는 이 한계가 두가지 대조되는 두가지 요구조건에 의해 생성된다고 판단했다. 첫 번째 조건은 전반적 형상을 정확하게 예측해야 한다는 부분과 세부적인 형상을 모사해야 한다는 부분이다. 이 두가지 조건을 모두 충족하는 것은 기존의 하드웨어의 메모리의 한계로 인해 현재로서는 불가능하다. 그러다보니 기존의 기술들은..
VNect: Real-time 3D Human Pose Estimation with a Single RGBCamera TOG 2017 http://vcai.mpi-inf.mpg.de/projects/VNect/ VNect: Real-time 3D Human Pose Estimation with a Single RGB Camera, SIGGRAPH 2017 Update: The dataset is now available for download Update: Live demo of VNect at CVPR17! ( More details ) --> Update: For errata regarding performance on MPI-INF-3DHP test set, please refer here. Update: VNect Demo Model and Code Available For Download as a vcai.mp..
Mesh Graphormer https://paperswithcode.com/paper/mesh-graphormer#code Papers with Code - Mesh Graphormer 🏆 SOTA for 3D Hand Pose Estimation on FreiHAND (PA-MPJPE metric) paperswithcode.com Abstract 우리는 Mesh Graphormer 라고 명명한 graph-convolution-reinforced transformer 를 제안한다. Mesh Graphormer는 하나의 이미지로부터 3D human pose and mesh reconstruction을 수행한다. 최근 transformer 방식과 graph convolutional neural networks(GCNMNs) 들은 휴..