https://arxiv.org/abs/2209.02976
Abstract
수년간, YOLO 시리즈는 효율적인 객체 탐지의 디팩토 산업 레벨 표준처럼 자리매김해왔다. YOLO 커뮤니티는 다양한 하드웨어 플랫폼과 시나리오에 적용되며 매우 방대해졌다. 이 테크니컬 레포트에서 우리는 YOLO의 한계를 다음레벨로 넘어가게 하기 위한, 산업 어플리케이션을 위한 확고한 방식으로 자리매김할 수 있게 하기 위해 분투했다. 특히 실시간 환경에서의 속도와 정확도에 대한 분산된 요구사항을 고려하여, 우리는 학계 및 산업계에 제시된 최신의 객체 탐지 분야의 성과들을 분석했다. 특히 우리는 최근의 네트워크 디자인이나, 트레이닝 전략, 테스팅 기법, 정량화 및 최적화 기법들을 이해하는데 집중했다. 그 결과 우리는 우리의 아이디어를 통합하여 다양한 유즈 케이스에 적합하게 활용될 수 있는 개발을 위한 네트워크를 빌드하기 위해 노력했다. YOLO의 관대한 허락에 힘입어 우리는 이것을 YOLOv6라고 명명했다. 우리는 또한 우리 기법의 유저와 앞으로의 기여자들에게 따듯한 환대를 표한다. YOLOv6를 성능의 측면에서 살짝 보면, YOLOv6-N은 coco 데이터 셋에 대해 35.9% AP를 hit 했고, Tesla T4 GPU에서 1234FPS로 작동했다. YOLOv6-S는 43.5% AP에 도달했고 495FPS로 작동하며, 동일 스캐일의 주류 디텍터(YOLOv5-S, YOLOX-S, PPYOLOE-S)들을 앞서는 성능을 보였다. 우리의 quantized 버전인 YOLOv6-S는 심지어 43.3% AP에 869FPS라는 새로운 SOTA를 가져왔다. 게다가 YOLOv6-M/L은 유사한 속도를 가지는 다른 디텍터들보다 더 나은 정확도인 49.5%/52.3%의 결과를 보였다. 우리는 조심스럽게 각 컴포넌트들의 효과성 입증을 위한 실험을 수행했다. 우리의 코드는 깃헙 사이트를 통해 이용가능하다.
COCO-AP가 뭐지?
https://kharshit.github.io/blog/2019/09/20/evaluation-metrics-for-object-detection-and-segmentation
위 링크로 가서 읽어보면 알 수 있을 것 같다.
돌려보자.
설치 과정은
위 링크에 잘 나와있다.
pytorch 설치
https://pytorch.org/get-started/previous-versions/
cuda driver 버전 확인 필요
wget https://github.com/meituan/YOLOv6/releases/download/0.4.0/yolov6n.pt
0.4.0 을 받아야 한다. 0.3.0 은 simconv 관련 에러가 날 수 있음
다운받은 .pt 파일은 weights 폴더 안에 넣어주자.
그리고
python tools/infer.py --weights weights/yolov6n.pt --source data/images/
위 명령어로 돌려보면
runs/inference/exp 폴더에 결과물이 나타나는 것을 알 수 있다.