논문

AI 논문 공부

GoogleNet 논문 리뷰

GoogleNet(Going deeper with convolutions) 1. Introduction 연산을 하는데 소모되는 자원의 사용 효율 개선 -> 네트워크의 depth와 width를 늘려도 연산량이 증가되지 않고 유지됨을 의미 이처럼 하기 위해, Hebbian principle과 multi-scale processing을 적용 이 구조를 googleNet 이라 하며 Inception이라고 부름 - AlexNet에 비해 파라미터가 12배나 적음에도 불구하고 훨씬 더 정확함 - 모바일이나 임베디드 환경에 적용할 수 있도록 유연한 구조를 가지게끔 하였음 - 추론 시에 합곱 연산 횟수를 15억번 이하로 지정하여 현실에서도 적절히 사용되게끔 설계 함 GoogLeNet의 코드네임인 Inception이란 이..

AI 논문 공부

vggNet 논문 리뷰

개략적 설명 : 컨볼루션 네트워크 구조의 깊이에 따른 인식 결과를 설명하는 논문, 더 좋은 정확도를 얻기위해 AlexNet를 향상하기 위한 시도의 결과라고 할 수 있다. 목차 0. Abstraction and Introduction 1. ConvNet Configurations Architecture 2. 학습 3. Test 4. Result 0. Abstraction and Introduction - CNN 모델 - 네트워크의 깊이가 모델이 좋은 성능을 보이는 데 중요한 역할을 한다는 것을 보임 - VGGNet의 필터 크기는 3x3 - stride 1, zero padding 1의 Conv 레이어 - 필터 크기 2x2 (no padding)의 Max-pool을 Pooling 레이어로 사용 - 매우 많은..

AI 논문 공부

AlexNet 논문 리뷰

AlexNet을 개략적으로 설명하자면, 딥러닝과 CNN의 주목을 이끌었고, 이에 따라 CNN 구조의 GPU 구현과 dropout 적용이 보편화되는 경향을 가져왔다. 목차 1. DataSet 2. Architecture 3. Reduce Overfitting 4. 학습 세부사항 5. 결과 1. DataSet 2. Architecture 2-1. 활성화 함수 ReLU 사용 backpropagation을 했을 때, vanishing Gradient문제 X, 속도 향상 (vanishing Gradient란? Sigmoid에서 입력값들이 그래프 가운데에서 멀어질 경우, 미분값이 작아져 뒤에 있는 뉴런들이 잘 학습이 되지 않는 문제) 2-2. overlapping pooling - s < z 이용해 에러율 감소 •..

beomseok99
'논문' 태그의 글 목록 (3 Page)