본문 바로가기

Dani's Stack141

CNN : Max pooling 과 Full Network 강의 : https://youtu.be/2-75C-yZaoA pooling : sampling이라고 보면 된다. 그 sampling을 통해 추출된 데이터를 층층히 쌓아 사용한다. max pooling은 각 filter size에서 가장 큰 값을 사용하는 것이다. 1 1 2 45 6 7 83 2 1 01 2 3 4 2 x 2 filters and stride 2 일때의 max polling 값 6 83 4 Fully Connected Layer(FC Layer) : (CONV RELU POOL) + ... 이런 layer를 연달아 연결한 형태로 볼 수 있다. 2016. 6. 14.
ConvNet의 Conv 레이어 만들기 뒤로 갈수록 이해하기 어려워진다.오늘 공부한 내용은 Convolutional Nerual Network에 대한 내용이다. 강의는 https://youtu.be/Em63mknbtWo 를 참고. CNN은 고양이를 통한 실험에서 시작되었다고 한다.고양이에게 이미지를 보여주고, 뉴런이 활성화되는 부분을 관찰하니, 이미지의 부분 부분 마다 활성화되는 곳이 달랐다는 것이다.(Hubel & Wiesel, 1959) 전체적인 그림은 하나의 이미지를 잘라서 아래처럼 구성하는 것이다.CONV RELU CONV LERU POLL CONV RELU ... FC(fully connected nerual network) 32 X 32 X 3의 이미지가 있다면, 이미지의 일부분만 처리하는데(filter)이런 filter를 사용해서.. 2016. 6. 14.
레고처럼 넷트웍 모듈을 마음껏 쌓아 보자 lec 10-4 레고처럼 넷트웍 모듈을 마음껏 쌓아 보자 : https://youtu.be/YHsbHjTBx9Q 제목처럼 여러 형태로 조립해서 딥네트워크를 구성해볼 수 있다는 내용이다. - feedforword neural network : 쭉쭉 위로 쌓는 형태 - fast forword : 중간 출력을 몇단을 건너띄고 연결하는 형태 - convolutional nerual network : split & merge를 통해 network를 구성하는 형태 - recurrent nerual network : forword + 옆으로? 나가는 형태 이번 강의는 내가 글로 정리하는 것보다는 강의자료의 그림을 보고 이해하는 것이 좋을 것 같다. 강의 자료 : http://hunkim.github.io/ml/lec.. 2016. 6. 9.
Dropout & Ensemble 김성훈 교수님의 강의를 보면서 딥러닝을 공부중.정리를 하지 않고 보다 보니, 나중에 무얼 봤는지 조차 기억나지 않아서 간단히 블로그에 남긴다. lec10-3: Dropout 과 앙상블 : https://youtu.be/wTxMsp22llc overfitting : training dataset에 model이 fit된 상태 solution for overfitting- more training data- reduce the number of features (딥러닝에서는 상관없다고 함)- regularization 여기서는 regualarization에 대해서 좀 더 설명 cost + (lamda)(sigma) w^2 여기서 (lamda)를 regularization strength라고 한다.(lamda).. 2016. 6. 9.