[Pytorch] 쉽고 빠르게 배우는 딥러닝

[11월 13일 업데이트] 딥러닝의 기본 뼈대인 MLP부터 CNN과 RNN을 쉽고 빠르게 배워보세요

클래스 소개
난이도
보통
카테고리
프로그래밍 - 인공지능
태그
딥러닝, 알고리즘, 인공지능
수료증
발급 가능
추천 학습대상
- Neural Network의 기초를 확실하게 배우고 싶은 분
- 딥러닝에 대해 공부하고 싶으신 분
- 파이썬에 대한 기본 지식을 갖추신 분
- Machine Learning에 대한 기본 학습을 진행하신 분

구름EDU가 처음이라면 누구나 할인!

WELCOMEGOORMEDU 코드 입력하고 
5천원 추가 할인 혜택까지 누리세요!


강좌 '결제하기' 클릭 후 코드를 입력하면 완료 😎 









<파이썬 딥러닝 파이토치> 출간


본 강좌를 기반으로 딥러닝 도서를 출간했습니다

YES24인터파크  다양한 곳에서 만날 수 있으니
많은 관심 부탁드립니다




강좌 업데이트

Pytorch에 익숙치 않은 분들을 위해 1시간 가량의
Pytorch background 강의를 추가했습니다

또한 논문 리뷰 강의도 1시간 분량을 추가했으니
확인하시어 수강해주시기 바랍니다










인공지능을 공부하고 계신다면
딥러닝 모델을 공부해야 한다는 것은
너무 잘 알고 계실 겁니다

하지만
왜 배워야 하는지 궁금하지 않으셨나요?





요즘 이야기하는 인공지능,
대부분 딥러닝 모델을 활용합니다


딥러닝의 기초가 되는 Neural Network는
꽤 오래됐지만 학습 특성상 주목받진 않았습니다
하지만 지금은 다릅니다

지금부터 저와 함께 딥러닝은 왜 주목받게 되었으며
딥러닝의 특징과 Neural Network는 무엇인지,

더 나아가 딥러닝의 기본 모델로 불리우는
Convolution Neural Network와
Recurrent Neural Network에 대해 배워봅시다



이런 내용을 배울 겁니다

첫 번째, Multi Layer Perceptron

최초의 인공지능이라 불리는 Perceptron과
그 한계점, 나아가 이를 극복한 MLP를 학습합니다

MLP는 Neural Network의 기본 구조입니다


강좌에서 MLP의 학습 알고리즘을 배우고,
Feed Forward와 Back Propagation에
대한 개념과 장단점을 살펴봅시다

 

두 번째, 딥러닝에 대한 정의

딥러닝의 정의를 알아보며 일반적인 Neural
Network와의 차이점을 집중적으로 알아봅시다

NN의 단점인 Gradient Vanighing/Overfitting
문제를 완화시킬 수 있는 Activation Function,
Drop out, Batch Normalization을 학습합니다


나아가 단순 분류를 넘어 새로운 Feature에 대해
학습할 수 있는 Auto-Encoder까지 다룹니다



세 번째, CNN

Convolutional Neural Network,
줄여서 CNN이라 말하는 이 모델은 딥러닝 역사를
돌아보았을 때 가장 많이 발전한 모델일겁니다

학습 알고리즘의 특성에 대해 얘기하고 일반적인
NN과의 차이점에 대해 다루겠습니다

또한, CNN의 성능을 높이기 위한 다양한
아키텍쳐(Resnet, Densenet), initialization,
optimizer 기법 및 transfer learning에 대해
짚어보고자 합니다



마지막, RNN

Recurrent Neural Network,
줄여서 RNN이라 말하는 이 텍스트 모델의 기초와
LSTM에 대해 알아봅시다






빠뜨리면 섭섭한 논문 리뷰


이론 뿐만 아니라 딥러닝이 사용되는
다양한 분야에 대한 이야기
와,

읽어볼만한 쉽고 재밌는 논문 몇 가지를
리뷰
하려 합니다

논문 리뷰는 계속 업데이트될 예정입니다!


현재 리뷰된 논문 List

(1) Self-training with Noisy Student
improves ImageNet classfication

(2) Understanding deep learning
requires rethinking generalization

(3) ImageNET-Trained CNNS Are
Biased Towards Texture

(4) Generalization in humans and
deep neural networks

(5) Universal Perturbation










이런게 궁금하시죠?👀


수학적인 지식이 많이 필요한가요?

MLP 부분에서 좀 필요합니다만, 없으셔도
전체적인 강좌를 수강하는데 큰 문제가 없습니다



Python을 알아야 하나요?

네, Python을 어느 정도 다룰 줄 아는 분
대상으로 진행하는 강좌입니다



어떤 논문을 리뷰하나요?

딥러닝에 대해 읽기 쉽고 기여도가 매우 높은
논문을 위주로 리뷰
하며, 새로이 좋은 논문을
발견할 때마다 논문 리뷰 영상을 추가할
예정
이니 참고해주시기 바랍니다









크롤링과 텍스트마이닝이 취미👍


코코

학부에서 통계학을 전공한 뒤 현재 산업공학
대학원에서 인공지능을 공부하는 박사과정생입니다

주 연구 분야는 데이터 사이언스, 강화학습, 딥러닝이며,
크롤링과 텍스트마이닝을 취미로 하고 있습니다:)

크롤링을 이용해 인기 커뮤니티 글을 수집해 보여주는
'마롱'이라는 앱을 개발했고, 전국 맛집 리스트와 블로그를
수집해서 맛집 추천 앱도 만들었죠 (시원하게 말아먹...)


수상 이력

2018 제6회 빅콘테스트 엔씨소프트상
- 게임유저이탈 알고리즘 개발

2017 제5회 빅콘테스트 한국정보통신진흥협회장상
- 대출 연체자 예측 알고리즘 개발

2016 날씨 빅데이터 콘테스트 기상산업진흥원장상

2016 제4회 빅콘테스트 본선진출
- 보험사기 예측 알고리즘 개발

2015 제3회 빅콘테스트 미래창조과학부 장관상
- 야구 경기 예측 알고리즘 개발


제 블로그에 놀러오세요!





🤝딥러닝 실습 도우미


Justin

연세대 산업공학과 석사과정을 진행하고 있으며,
주 연구 분야는 Data Science와 딥러닝입니다


제 깃헙에 놀러오세요!



all Icon made by Freepik from www.flaticon.com

체험하기
모두 펼치기
  • 01
    Section0. 오리엔테이션
  • 오리엔테이션
  • 02
    Section1. Multi Layer Perceptron
  • 최초의 인공지능 Perceptron
    신경망의 기본, Multi Layer Perceptron
교육 과정
모두 펼치기
  • 01
    Section0. 오리엔테이션
  • 오리엔테이션
    이론 강의자료 다운로드
  • 02
    Section1. Multi Layer Perceptron
  • 최초의 인공지능 Perceptron
    신경망의 기본, Multi Layer Perceptron
    MLP feedforward
    역전파 알고리즘 (MLP Backpropagation)
    MLP Review
    Gradient Vanishing이란
    Universal Approximation Theorem
  • 03
    Section2. Pytorch Background
  • Pytorch 기본 테크닉1
    Pytorch 기본 테크닉2
  • 04
    Section3. Deep Learning
  • Deep Learning의 정의
    DropOut/ReLu
    Batch Normalization
    AutoEncoder
    실습 강의 소개
    [실습] MLP를 이용한 MNIST 숫자 분류 모델 구축
    [실습] AutoEncoder를 이용한 Feature 추출 및 분류 모델 학습
  • 05
    Section4. Convolution Neural Network
  • Convolution Neural Network (CNN)
    Data Augmentation
    ResNet/DenseNet
    다양한 Initialization/optimizer
    Transfer Learning
    CNN의 활용
    [실습] CNN을 이용한 MNIST 숫자 분류 모델 구축
    [실습] Live Coding - Cifar10 이미지 분류 모델 따라 작성해보기
    [실습] CNN 모델의 다양한 customization1
    [실습] CNN 모델의 다양한 customization2
    [실습] ResNet을 이용한 Cifar10 이미지 분류 모델 구축
    [실습] TransferLearning
  • 06
    Section5. Recurrent Neural Network
  • Recurrent Neural Network
    Long-Short Term Memory (LSTM)
    [실습] RNN을 이용한 영화 리뷰 예측 모델 만들기
  • 07
    Section6. 딥러닝의 다양한 분야
  • 딥러닝의 다양한 분야
  • 08
    Section7. 딥러닝의 Generalization
  • 딥러닝 일반화에 대한 재고찰 - Understanding deep learning requires rethinking generalization
    CNN은 이미지의 shape를 학습시키는 것이 아니다 - ImageNET-Trained CNNS Are Biased Towards Texture
    인간과 딥러닝의 일반화 차이점 - Generalization in humans and deep neural networks
    Cutout/Cutmix, Knowledge Distillation에 대한 기본 개념
    KD를 통한 이미지 Regularization - Regularizing Class-wise Predictions via Self-knowledge Distillation
    KD를 이용하여 이미지 분류 성능 최대화 - Self-training with Noisy Student improves ImageNet classification
  • 09
    Section8. 읽어볼만한 논문 리뷰
  • 하나의 noise를 이미지에 추가하면 대부분의 딥러닝이 속는다? - Universal Perturbation
    딥러닝의 크기, 학습시간과 overfitting 간의 관계 - Deep Double Descent
    여러 도메인에 걸쳐 Genelarization을 해보자 - Domain Generalization With MixStyle
마지막 업데이트|2020년 11월 13일
강의자 소개
안녕하세요. 구름에듀 캡틴 코코입니다. 함께 학습을 시작해봐요!

강좌 후기
82,500

평균평점
0.0
난이도
보통
수강기간
평생 무제한