[5분 SOTA 논문 컨트리뷰션 리뷰](12)
-
[5분 SOTA 논문 컨트리뷰션 리뷰 #6] ICLR 2015, VeryDeep Convolutional Networks for Large-Scale Image Recognition
본 포스팅에서는 Very Deep Convolutional Networks for Large-Scale Image Recognition (ICLR 2015) 논문을 간단히 리뷰하였습니다. 모든 그림과 설명은 논문과 Stanford University CS231n Spring 2017 자료를 참고하였습니다. 원문 링크 : https://arxiv.org/pdf/1409.1556.pdf 1. Motivation 본 논문은 ImageNet Large Scale Visual Recognition Challenge (ILSVRC'12)에서 우승한 AlexNet에서 Convolutional Network의 depth를 늘이게 된다면 정확도가 더 높아지지 않을까라는 생각에서 시작되었습니다. 2. Unique meth..
2021.11.21 -
[5분 SOTA 논문 컨트리뷰션 리뷰 #5] NeurIPS 2020, Unfolding the Alternating Optimization for BlindSuper Resolution
본 포스팅에서는 Unfolding the Alternating Optimization for BlindSuper Resolution (NeurIPS 2020) 논문을 간단히 리뷰하였습니다. 모든 그림과 설명은 논문을 참고하였습니다. 원문 링크 : https://arxiv.org/abs/2010.02631 Unfolding the Alternating Optimization for Blind Super Resolution Previous methods decompose blind super resolution (SR) problem into two sequential steps: \textit{i}) estimating blur kernel from given low-resolution (LR) image..
2021.11.11 -
[5분 SOTA 논문 컨트리뷰션 리뷰 #4] NeurIPS 2012, ImageNet Classification with Deep Convolutional Neural Networks
본 포스팅에서는 ImageNet Classification with Deep ConvolutionalNeural Networks (NIPS 2012) 논문을 간단히 리뷰하였습니다. 모든 그림과 설명은 논문과 Stanford University CS231n Spring 2017 자료를 참고하였습니다. 원문 링크 : https://papers.nips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-1. MotivationAlexNet 은 기존 SOTA 성능을 달성한 model과 달리 layer의 층을 깊게 하여 ImageNet test(Top-5)에서 기존 정확도를 대폭 증가시킨 model이다. 2. Unique methodology 1) ReLU ..
2021.11.04 -
[5분 SOTA 논문 컨트리뷰션 리뷰 #3] ECCV 2014, Image Super-Resolution Using Deep Convolutional Networks
본 포스팅에서는 Image Super-Resolution Using Deep Convolutional Networks (ECCV 2014) 논문을 간단히 리뷰하였습니다. 모든 그림과 설명은 논문을 참고하였습니다. 원문 링크 : https://arxiv.org/abs/1501.00092 Image Super-Resolution Using Deep Convolutional NetworksWe propose a deep learning method for single image super-resolution (SR). Our method directly learns an end-to-end mapping between the low/high-resolution images. The mapping i..
2021.10.26 -
[5분 SOTA 논문 컨트리뷰션 리뷰 #2] NeurIPS 2017, Attention Is All You Need
본 포스팅에서는 Attention Is All You Need (NIPS 2017) 논문을 간단히 리뷰하였습니다. 모든 그림과 설명은 논문을 참고하였습니다.원문 링크 : https://arxiv.org/abs/1706.03762 Attention Is All You NeedThe dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism...
2021.10.21 -
[5분 SOTA 논문 컨트리뷰션 리뷰 #1] CVPR 2017, Enhanced Deep Residual Networks for Single Image Super-Resolution
본 포스팅에서는 Enhanced deep residual networks for single image super-resolution (CVPR 2017) 논문을 간단히 리뷰하였습니다. 모든 그림과 설명은 논문을 참고하였습니다.원문 링크 : https://arxiv.org/abs/1707.02921 Enhanced Deep Residual Networks for Single Image Super-ResolutionRecent research on super-resolution has progressed with the development of deep convolutional neural networks (DCNN). In particular, residual learning techniqu..
2021.09.14