본문 바로가기

딥러닝5

CNN case study 강의 : https://youtu.be/KbNbWTnlYXs 이번 스터디는 CNN에 대한 연구 사례이다.각각의 방법들이 어떻게 network을 구성하는지를 알 수 있다. 사실, layer 구성이 왜 이렇게 하는지 잘 이해되지 않는다.아래 유명한 분들이 어떤 network를 제안했는지가 있는데, 시간이 된다면 하나하나 봐야 겠다. LeNet-5 [LeCun et al., 1998] AlexNet [krizhevsky et al., 2012] GoogLeNet [Szegedy et al., 2014] ResNet [He et al., 2015]=> 3.6 % top 5 error Convolutional Neural Networks for Sentence Classification [Yoon kim, 201.. 2016. 6. 14.
CNN : Max pooling 과 Full Network 강의 : https://youtu.be/2-75C-yZaoA pooling : sampling이라고 보면 된다. 그 sampling을 통해 추출된 데이터를 층층히 쌓아 사용한다. max pooling은 각 filter size에서 가장 큰 값을 사용하는 것이다. 1 1 2 45 6 7 83 2 1 01 2 3 4 2 x 2 filters and stride 2 일때의 max polling 값 6 83 4 Fully Connected Layer(FC Layer) : (CONV RELU POOL) + ... 이런 layer를 연달아 연결한 형태로 볼 수 있다. 2016. 6. 14.
ConvNet의 Conv 레이어 만들기 뒤로 갈수록 이해하기 어려워진다.오늘 공부한 내용은 Convolutional Nerual Network에 대한 내용이다. 강의는 https://youtu.be/Em63mknbtWo 를 참고. CNN은 고양이를 통한 실험에서 시작되었다고 한다.고양이에게 이미지를 보여주고, 뉴런이 활성화되는 부분을 관찰하니, 이미지의 부분 부분 마다 활성화되는 곳이 달랐다는 것이다.(Hubel & Wiesel, 1959) 전체적인 그림은 하나의 이미지를 잘라서 아래처럼 구성하는 것이다.CONV RELU CONV LERU POLL CONV RELU ... FC(fully connected nerual network) 32 X 32 X 3의 이미지가 있다면, 이미지의 일부분만 처리하는데(filter)이런 filter를 사용해서.. 2016. 6. 14.
레고처럼 넷트웍 모듈을 마음껏 쌓아 보자 lec 10-4 레고처럼 넷트웍 모듈을 마음껏 쌓아 보자 : https://youtu.be/YHsbHjTBx9Q 제목처럼 여러 형태로 조립해서 딥네트워크를 구성해볼 수 있다는 내용이다. - feedforword neural network : 쭉쭉 위로 쌓는 형태 - fast forword : 중간 출력을 몇단을 건너띄고 연결하는 형태 - convolutional nerual network : split & merge를 통해 network를 구성하는 형태 - recurrent nerual network : forword + 옆으로? 나가는 형태 이번 강의는 내가 글로 정리하는 것보다는 강의자료의 그림을 보고 이해하는 것이 좋을 것 같다. 강의 자료 : http://hunkim.github.io/ml/lec.. 2016. 6. 9.