AI 논문 공부

AI 논문 공부

R-CNN, Fast R-CNN, Faster R-CNN 논문 리뷰

목차 overall fine-tuning R-CNN Fast R-CNN Faster R-CNN 1. overall R-CNN, Fast R-CNN, Faster R-CNN의 전체적인 모습이다. 함께 살펴보도록 하자! 2. fine-tuning 기존에 학습되어있는 모델은 1000개의 클래스를 분류하는 모델이라고 치고, 우리는 21개의 클래스만 필요하다고 해보자 이때 맨 아래 그림처럼 마지막 output fc layer삭제하고, 원하는 형태의 layer로 바꿔준 뒤, 내 데이터로 파라미터를 학습하는 것! 3. R-CNN •두가지 핵심 아이디어 (2-stage Detector) region proposals로 object 위치를 알아내고, 이를 CNN에 입력하여 class를 분류 Larger data set으..

AI 논문 공부

Deformable Convolutional Network (DCN) 논문 리뷰

목차 0. Abstract 1. Introduction 2. Deformable Convolution 3. Deformable ROI pooling 4. Performance 0. Abstract •기존 CNN 방식의 문제 = 필터의 크기가 고정 •고정 방식이 문제인 이유? sliding window 방식으로 convolution을 진행할 때 이미지의 특징과 상관없이 동일한 연산 수행 => 해당 논문에선 입력 이미지의 특성에 따라 필터의 모양이 유기적으로 변형 •아이디어? offset을 학습하여 적용 = flexible한 layer = filter size 를 학습하여 object 크기에 맞게 변화하도록 하는 것 1. Introduction 어떤 한 이미지 뿐만 아니라 회전한 이미지, 반전된 이미지 등 ..

AI 논문 공부

resnet 논문 리뷰

목차 0. Residual이란? 1. Abstract 2. Introduction 3. Framework 4. Network 5. Experiment 6. Conclusion 본격적인 리뷰에 들어가기에 앞서,, 해당 리뷰는 여러 블로그들과 논문 번역을 참조하여 작성된 것이고, 중간 중간 생략된 부분도 있을 수 있으니 요약본이라고 생각하고 읽으시는게 마음 편할 듯 합니다,, 0. Residual에 대해 수학적으로 어려운 개념이 아니라, 방법론적으로 새로운 개념 도입한 것! 그것이 바로 Residual (잔차) y에서 x를 뺀 나머지를 의미하며 쉽게 말해서 결과의 오류임 residual은 기존에 평가 기준으로 이용하던 것이었는데, 이를 학습에 이용함 1. Abstract 역대 ILSVRC 대회 결과를 보면,..

AI 논문 공부

GoogleNet 논문 리뷰

GoogleNet(Going deeper with convolutions) 1. Introduction 연산을 하는데 소모되는 자원의 사용 효율 개선 -> 네트워크의 depth와 width를 늘려도 연산량이 증가되지 않고 유지됨을 의미 이처럼 하기 위해, Hebbian principle과 multi-scale processing을 적용 이 구조를 googleNet 이라 하며 Inception이라고 부름 - AlexNet에 비해 파라미터가 12배나 적음에도 불구하고 훨씬 더 정확함 - 모바일이나 임베디드 환경에 적용할 수 있도록 유연한 구조를 가지게끔 하였음 - 추론 시에 합곱 연산 횟수를 15억번 이하로 지정하여 현실에서도 적절히 사용되게끔 설계 함 GoogLeNet의 코드네임인 Inception이란 이..

AI 논문 공부

vggNet 논문 리뷰

개략적 설명 : 컨볼루션 네트워크 구조의 깊이에 따른 인식 결과를 설명하는 논문, 더 좋은 정확도를 얻기위해 AlexNet를 향상하기 위한 시도의 결과라고 할 수 있다. 목차 0. Abstraction and Introduction 1. ConvNet Configurations Architecture 2. 학습 3. Test 4. Result 0. Abstraction and Introduction - CNN 모델 - 네트워크의 깊이가 모델이 좋은 성능을 보이는 데 중요한 역할을 한다는 것을 보임 - VGGNet의 필터 크기는 3x3 - stride 1, zero padding 1의 Conv 레이어 - 필터 크기 2x2 (no padding)의 Max-pool을 Pooling 레이어로 사용 - 매우 많은..

AI 논문 공부

AlexNet 논문 리뷰

AlexNet을 개략적으로 설명하자면, 딥러닝과 CNN의 주목을 이끌었고, 이에 따라 CNN 구조의 GPU 구현과 dropout 적용이 보편화되는 경향을 가져왔다. 목차 1. DataSet 2. Architecture 3. Reduce Overfitting 4. 학습 세부사항 5. 결과 1. DataSet 2. Architecture 2-1. 활성화 함수 ReLU 사용 backpropagation을 했을 때, vanishing Gradient문제 X, 속도 향상 (vanishing Gradient란? Sigmoid에서 입력값들이 그래프 가운데에서 멀어질 경우, 미분값이 작아져 뒤에 있는 뉴런들이 잘 학습이 되지 않는 문제) 2-2. overlapping pooling - s < z 이용해 에러율 감소 •..

beomseok99
'AI 논문 공부' 카테고리의 글 목록 (3 Page)