본문 바로가기

딥러닝50

[Object Detection] CenterNet2 요약 [참조] CenterNet1 요약 : https://hyelimkungkung.tistory.com/67?category=935163 원문 : https://arxiv.org/pdf/2103.07461v1.pdf Probabilistic two-stage detection 1 stage는 빠르지만 정확도가 아쉽고, 2 stage는 정확하지만 속도가 아쉽다. 2 stage는 보통 region proposal을 한 후에 classification을 한다. 이때 문제가 되는 건 region proposal을 할 때다. Faster R-CNN을 기준으로 말을 해보자. RPN의 경우 anchor를 이용해서 각 영역에 object가 있는지, 혹은 없는지만 말해준다. 즉, maximize recall을 목표로 기능하.. 2022. 3. 21.
[GAN] pix2pix HD pix2pix 도 모르는 GAN 초짜지만 가보자구 [reference] https://arxiv.org/abs/1711.11585 https://github.com/NVIDIA/pix2pixHD High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs Abstract 고화질 이미지를 생성하기 위해서 conditional GAN 을 이용하고자 한다. 본 모델의 핵심: (1) novel adversarial loss (2) new multi-scale generator and discriminator architectures. 이 GAN 모델을 이용해서 사용자가 이미지를 편집할 수 있도록 (1) incorporate ins.. 2022. 2. 10.
[Classification] VGGNet 요약 순서상 훨씬 전에 읽었어야 했지만 이제서야 읽는, 그리고 올리는 VGG 다. 마찬가지로 제목에서부터 요약이라고 하고 있기 때문에, 이번 포스팅에서는 말 그대로 핵심만 짚는다. 이 논문은 앞에 1,2 장에 모든 핵심이 있기 때문에 정말 금방 읽었다. 어쩌면 논문을 읽느라 많이 굴림을 당해서 일지도 [논문] https://arxiv.org/abs/1409.1556 Very Deep Convolutional Networks for Large-Scale Image Recognition 요약 이 논문이 나온 시점은 AlexNet 이후로 얼마 지나지 않았을 때다. 다들 convolution을 이용하여 image 를 분류하기 위해 혈안이 되어 있을 때라는 뜻이다. 예를 들어 어떤 연구에서는 smaller 한 wind.. 2022. 2. 10.
[Optimizer]AdamW "Decoupled Weight Decay Regularization" [혜림의 말로 요약하기] Adam은 일반화 성능이 안 좋다. SGD에서는 weight decay와 L2 정규화가 (수식에서) 똑같은 의미를 갖는 반면에, Adam 에서는 다르기 때문이다. Adam에서는 L2 정규화의 효과가 weight decay에 비해서 떨어진다. 따라서 weight decay를 Adam 과 함께 이용하기 위해 고안한 것이 AdamW 이다. weight decay를 더하는 식을 가중치 업데이트 식에 별도로 넣어줌으로써, weight decay와 learning rate 하이퍼 파라미터가 정규화에 주는 영향을 decouple 한 방법이다. 1. Introduction Adam 이 좋은 optimizer로 알려져 있지만.. 2022. 2. 10.