[Pytorch] 쉽고 빠르게 배우는 딥러닝
01
Section0. 오리엔테이션
오리엔테이션
체험하기
이론 강의자료 다운로드
02
Section1. Multi Layer Perceptron
최초의 인공지능 Perceptron
체험하기
신경망의 기본, Multi Layer Perceptron
체험하기
MLP feedforward
역전파 알고리즘 (MLP Backpropagation)
MLP Review
Gradient Vanishing이란
Universal Approximation Theorem
03
Section2. Pytorch Background
Pytorch 기본 테크닉1
Pytorch 기본 테크닉2
04
Section3. Deep Learning
Deep Learning의 정의
DropOut/ReLu
Batch Normalization
AutoEncoder
실습 강의 소개
[실습] MLP를 이용한 MNIST 숫자 분류 모델 구축
[실습] AutoEncoder를 이용한 Feature 추출 및 분류 모델 학습
05
Section4. Convolution Neural Network
Convolution Neural Network (CNN)
Data Augmentation
ResNet/DenseNet
다양한 Initialization/optimizer
Transfer Learning
CNN의 활용
[실습] CNN을 이용한 MNIST 숫자 분류 모델 구축
[실습] Live Coding - Cifar10 이미지 분류 모델 따라 작성해보기
[실습] CNN 모델의 다양한 customization1
[실습] CNN 모델의 다양한 customization2
[실습] ResNet을 이용한 Cifar10 이미지 분류 모델 구축
[실습] TransferLearning
06
Section5. Recurrent Neural Network
Recurrent Neural Network
Long-Short Term Memory (LSTM)
[실습] RNN을 이용한 영화 리뷰 예측 모델 만들기
07
Section6. 딥러닝의 다양한 분야
딥러닝의 다양한 분야
08
Section7. 딥러닝의 Generalization
딥러닝 일반화에 대한 재고찰 - Understanding deep learning requires rethinking generalization
CNN은 이미지의 shape를 학습시키는 것이 아니다 - ImageNET-Trained CNNS Are Biased Towards Texture
인간과 딥러닝의 일반화 차이점 - Generalization in humans and deep neural networks
Cutout/Cutmix, Knowledge Distillation에 대한 기본 개념
KD를 통한 이미지 Regularization - Regularizing Class-wise Predictions via Self-knowledge Distillation
KD를 이용하여 이미지 분류 성능 최대화 - Self-training with Noisy Student improves ImageNet classification
09
Section8. 읽어볼만한 논문 리뷰
하나의 noise를 이미지에 추가하면 대부분의 딥러닝이 속는다? - Universal Perturbation
딥러닝의 크기, 학습시간과 overfitting 간의 관계 - Deep Double Descent
여러 도메인에 걸쳐 Genelarization을 해보자 - Domain Generalization With MixStyle
신경망의 기본, Multi Layer Perceptron
02 Section1. Multi Layer Perceptron
Loading...
100%
신경망의 기본, Multi Layer Perceptron
질문하기
추가 자료
추가 자료가 없습니다
여기서 새로운 학습 자료를 확인하세요!
선생님이 추가한 자료들을 바로 확인할 수 있어요.