[CS231n] Lecture 7 | Training Neural Networks II
·
CS231n
더보기CS231n 강의 홈페이지: https://cs231n.stanford.edu/CS231n Spring 2017 유튜브 강의 영상: https://www.youtube.com/watch?v=vT1JzLTH4G4&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk강의 슬라이드 & 한글 자막: https://github.com/visionNoob/CS231N_17_KOR_SUB RecapActivation FunctionsWeight Initilization가중치가 너무 작으면 activation 0, 너무 크면 saturationData Preprocessing좌측 그림과 같이 zero-mean이 아닌 경우라면 결정 경계(가중치)가 조금만 변하더라도 loss는 이에 민감하게 반응B..
[CS231n] Lecture 6 | Training Neural Networks I
·
CS231n
더보기CS231n 강의 홈페이지: https://cs231n.stanford.edu/CS231n Spring 2017 유튜브 강의 영상: https://www.youtube.com/watch?v=vT1JzLTH4G4&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk강의 슬라이드 & 한글 자막: https://github.com/visionNoob/CS231N_17_KOR_SUB Activation FunctionsSigmoid\( \sigma (x)= \frac{1}{1+e^{-x}} \)neuron의 'firing rate'를 잘 반영단점양극단에 가까워질 수록 gradient의 값이 0 (saturated)not zero-centered시그모이드의 출력값은 전부 양수(0~1)로 z..
[CS231n] Lecture 5 | Convolutional Neural Networks
·
CS231n
더보기CS231n 강의 홈페이지: https://cs231n.stanford.edu/CS231n Spring 2017 유튜브 강의 영상: https://www.youtube.com/watch?v=vT1JzLTH4G4&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk강의 슬라이드 & 한글 자막: https://github.com/visionNoob/CS231N_17_KOR_SUB Recap of Neural Networks신경망의 구조선형 함수(행렬곱)와 비선형 함수(활성 함수)를 쌓아 신경망을 구성이 구조는 신경망이 복잡한 패턴을 학습하고 인식할 수 있게 함문제 해결 능력신경망은 다양한 입력 데이터(자동차 이미지)를 분석하고 분류하는 데 유용중간 단계의 템플릿을 학습함으로써, 신경망..
[CS231n] Lecture 4 | Introduction to Neural Networks
·
CS231n
더보기CS231n 강의 홈페이지: https://cs231n.stanford.edu/CS231n Spring 2017 유튜브 강의 영상: https://www.youtube.com/watch?v=vT1JzLTH4G4&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk강의 슬라이드 & 한글 자막: https://github.com/visionNoob/CS231N_17_KOR_SUBRecapLoss Functions함수 f는 입력 x에 따른 클래스들에 대한 스코어 벡터 Y를 출력이에 대한 예측이 잘 된 혹은 잘 되지 않은 정도를 손실 함수를 통해 계산손실 함수는 data loss term과 regularization term으로 구성정규화 항은 모델의 복잡성을 조절함Optimization..
[CS231n] Lecture 3 | Loss Functions and Optimization
·
CS231n
더보기CS231n 강의 홈페이지: https://cs231n.stanford.edu/CS231n Spring 2017 유튜브 강의 영상: https://www.youtube.com/watch?v=vT1JzLTH4G4&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk강의 슬라이드 & 한글 자막: https://github.com/visionNoob/CS231N_17_KOR_SUBIntroduction to Loss FunctionsRecap of Linear Classifier임의의 W 행렬을 사용하여 각 이미지에 대한 클래스 스코어를 계산일부 스코어는 좋고 일부는 나쁨. 예를 들어, 고양이 이미지가 개구리보다 낮은 스코어를 받음좋은 분류기란 올바른 클래스가 가장 높은 스코어를 받는 ..
[CS231n] Lecture 2 | Image Classification
·
CS231n
더보기CS231n 강의 홈페이지: https://cs231n.stanford.edu/CS231n Spring 2017 유튜브 강의 영상: https://www.youtube.com/watch?v=vT1JzLTH4G4&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk강의 슬라이드 & 한글 자막: https://github.com/visionNoob/CS231N_17_KOR_SUBIntroduction to Image Classification이미지 분류는 컴퓨터 비전의 핵심 작업 중 하나로, 사전 정의된 카테고리 중 하나의 라벨을 이미지에 올바르게 할당하는 것예를 들어, 입력 이미지로 귀여운 고양이 사진이 주어졌을 때, 시스템은 이 이미지가 고양이, 개, 트럭, 비행기 등의 카테고리 ..