딥러닝

AI 논문 공부

You Only Look Once:Unified, Real-Time Object Detection (YOLO) 논문 리뷰

목차 0. Abstract 1. Introduction 2. Unified Detection 3. Network Design 4. Loss 5. Limitations of YOLO 6. Result Abstract - 2-stage Detector : localization과 classification 두 과정을 거쳐 객체를 Detection 함 장점 : 정확도 단점 : 느린 속도 - 1-stage Detecor : 논문에서는 두 과정을 한번에 처리하는 방법을 제시하여 fps(초당 처리하는 frame 수)를 더욱 빠르게 하였다고 함 Introduction - YOLO v1은 localization과 classification을 하나의 문제로 정의하여 network가 동시에 두 task를 수행하도록 설계함..

AI 논문 공부

Deformable Convolutional Network (DCN) 논문 리뷰

목차 0. Abstract 1. Introduction 2. Deformable Convolution 3. Deformable ROI pooling 4. Performance 0. Abstract •기존 CNN 방식의 문제 = 필터의 크기가 고정 •고정 방식이 문제인 이유? sliding window 방식으로 convolution을 진행할 때 이미지의 특징과 상관없이 동일한 연산 수행 => 해당 논문에선 입력 이미지의 특성에 따라 필터의 모양이 유기적으로 변형 •아이디어? offset을 학습하여 적용 = flexible한 layer = filter size 를 학습하여 object 크기에 맞게 변화하도록 하는 것 1. Introduction 어떤 한 이미지 뿐만 아니라 회전한 이미지, 반전된 이미지 등 ..

AI 논문 공부

resnet 논문 리뷰

목차 0. Residual이란? 1. Abstract 2. Introduction 3. Framework 4. Network 5. Experiment 6. Conclusion 본격적인 리뷰에 들어가기에 앞서,, 해당 리뷰는 여러 블로그들과 논문 번역을 참조하여 작성된 것이고, 중간 중간 생략된 부분도 있을 수 있으니 요약본이라고 생각하고 읽으시는게 마음 편할 듯 합니다,, 0. Residual에 대해 수학적으로 어려운 개념이 아니라, 방법론적으로 새로운 개념 도입한 것! 그것이 바로 Residual (잔차) y에서 x를 뺀 나머지를 의미하며 쉽게 말해서 결과의 오류임 residual은 기존에 평가 기준으로 이용하던 것이었는데, 이를 학습에 이용함 1. Abstract 역대 ILSVRC 대회 결과를 보면,..

AI 논문 공부

GoogleNet 논문 리뷰

GoogleNet(Going deeper with convolutions) 1. Introduction 연산을 하는데 소모되는 자원의 사용 효율 개선 -> 네트워크의 depth와 width를 늘려도 연산량이 증가되지 않고 유지됨을 의미 이처럼 하기 위해, Hebbian principle과 multi-scale processing을 적용 이 구조를 googleNet 이라 하며 Inception이라고 부름 - AlexNet에 비해 파라미터가 12배나 적음에도 불구하고 훨씬 더 정확함 - 모바일이나 임베디드 환경에 적용할 수 있도록 유연한 구조를 가지게끔 하였음 - 추론 시에 합곱 연산 횟수를 15억번 이하로 지정하여 현실에서도 적절히 사용되게끔 설계 함 GoogLeNet의 코드네임인 Inception이란 이..

AI

딥러닝 기초 - CNN 간단 정리

convolution 작동 방법 3 x 3필터를 7 x 7이미지에 적용하면, 5 x 5짜리 아웃풋이 나온다. =도장을 찍어서 매칭되는 좌표의 값을 곱한 뒤 하나로 더하면 됨! 주로 3차원의 RGB 이미지를 다룬다. 위 사진에서 차원이 하나 더 추가된 것을 알 수 있다. ​ 필터를 한번 거치고 나면, 비선형 activation function 적용이 필요하다!(ex. ReLU) ​ CNN은 convolution layer, pooling layer, fully-connected layer로 이루어져 있다. - convolution and pooling layer는 feature extraction의 역할을 함 (=이미지에서 유용한 정보를 뽑아주는 것) - full-connenced layer는 decisi..

AI

Regularization 간단 정리

학습을 방해하는 것이 목적! -> 학습데이터뿐 아니라 테스트데이터에도 잘 동작할 수 있도록 해주기 위한 일종의 도구 ​ 종류 early stopping - iteration이 증가할 수록 training error가 감소하지만, 특정 iteration이 넘어가면 validation error가 증가한다! 그래서 loss가 증가하기 전에 학습을 중지! ​ parameter norm penalty - 파라미터가 너무 커지지 않도록 방지. nerual network가 만들어내는 함수의 공간속에서 함수를 최대한 부드럽게 하는 것! + 부드러운 함수일 수록 일반화 성능이 높을 것이라는 가정 ​ data augmentation - 데이터는 많으면 많을수록 좋기 때문에 데이터 양을 증가시키기 위해 사용 (중구난방으로..

beomseok99
'딥러닝' 태그의 글 목록