Backpropagation과 야코비안 행렬 - goormEDU

Backpropagation과 야코비안 행렬

딥러닝에서 가장 중요한 Backpropagation의 원리를 기초부터 심화까지 다루는 강의입니다.

Lecture Introduction
Difficulty
Normal
Category
Programming - AI
Tag
딥러닝, 파이썬
Target Audience
- 딥러닝을 공부하는데 수학능력이 부족한 분
- 딥러닝의 기초를 완벽히 다지고 싶은 분
- Backpropagation의 원리를 완벽히 이해하고 싶은 분

딥러닝의 핵심 Backprogagation(역전파)!
원리부터 깊이있게 학습해 보세요.

학습 전 확인해주세요!

  • 본 강의는 Learning 4 Deep Learning(L4DL)의 모든 강의와 통합된 Private Slack 채널에서 함께 운영되고 있습니다. 강의를 신청하신 뒤 섹션0 - 수업2: 슬랙 (Slack) 커뮤니티 가입 신청에서 가입하실 수 있습니다.
  • 질문&답변은 슬랙 채널에 남겨주시면 보다 빠르게 확인해드리고 있습니다.

[L4DL] Project Currimulum 📑



전체화면 보기 (클릭)

강의 목표


"딥러닝의 핵심: Backpropagation!"

딥러닝을 동작시키는 엔진인 Backpropagation은 딥러닝 기초 과정 중 가장 심도있게 배워야 하는 부분입니다. 본 강의에서는 다음과 같이 Backpropagation을 통해 뉴럴 네트워크를 학습시키는 원리를 어떤 강의보다도 집중적으로 다룹니다.

Backpropagation을 이해하기 위해선 야코비안 행렬을 이해해야 하지만, 수학에서 다루는 야코비안 행렬은 딥러닝의 backpropagation을 표현하기에 부족한 점이 많습니다. 따라서 본 강의에서는 수학에서 다루는 야코비안 행렬을 확장하여 딥러닝의 backpropagation을 설명합니다. 배우는 내용 본 강의에서는 미분의 기초부터 다변수 함수의 미분을 거쳐 벡터함수의 미분을 다루고 딥러닝의 backpropagation을 설명하기 위한 확장된 야코비안을 배웁니다. Backpropagation 실습 본 강의에서는 이론적으로 배운 backpropagation을 이용하여 간단한 모델을 학습시켜 봅니다. 학습된 모델의 결과를 어렵지 않은 선에서 관찰하고, 학습의 원리를 분석해봅니다.

Curriculum
Expand All
  • 01
    Chap.0 오리엔테이션
  • 오리엔테이션
    슬랙(Slack) 커뮤니티 가입 신청
  • 02
    Chap.1 Backpropagation과 딥러닝에서의 야코비안 행렬
  • 1-1 학습변수와 그래디언트
    1-2 Gradient-based Learning 구현 연습
    1-3 Backpropagation 소개
    1-4 야코비안 행렬의 필요성
  • 03
    Chap.2 기초 미분법
  • 2-1 변화율의 개념
    2-2 미분과 도함수
    2-3 삼수함수, 멱함수의 미분
    2-4 로그함수와 지수함수의 미분
    2-5 삼각함수와 구간별로 정의된 함수의 미분
    2-6 상수 곱의 법칙과 합의 법칙
    2-7 LTI 시스템과 미분
    2-8 곱의 미분법과 몫의 미분법
    2-9 합성함수와 채인룰
    2-10 Backpropagation 모듈
  • 04
    Chap.3 다변수 함수와 야코비안 행렬
  • 3-1 다변수 함수
    3-2 편미분과 학습변수의 업데이트
    3-3 편미분과 그래디언트
    3-4 그래디언트와 학습변수의 업데이트
    3-5 Affine 함수의 야코비안
    3-6 인공신경과 Backpropagation
    3-7 미니배치에 대한 야코비안
    3-8 MSE와 BCEE의 야코비안
    3-9 CCEE의 야코비안
    3-10 Softmax의 야코비안
  • 05
    Chap.4 Linear/Logistic Regression(1)
  • 4-1 Linear Regression 이론
    4-2 Linear Regression 구현(1 Feature)
    4-3 Linear Regression 구현(n Features)
    4-4 Logistic Regression 이론, 시그모이드 함수의 변수
    4-5 시그모이드 함수의 특징
    4-6 Logistic Regression 구현(1 Feature)
    4-7 Logistic Regression 구현(n Features)
  • 06
    Chap.5 벡터함수와 야코비안 행렬
  • 5-1 벡터함수
    5-2 벡터함수의 야코비안
    5-3 벡터함수로서의 Afifne 함수1
    5-4 벡터함수로서의 Affine 함수2
    5-5 벡터함수로서의 Softmax
  • 07
    Chap.6 원소별 연산과 야코비안 행렬
  • 6-1 대각행렬
    6-2 단항 원소별 연산과 야코비안
    6-3 Activation 함수의 야코비안
    6-4 Dense 레이어 안에서의 Backpropagation
    6-5 인공신경과 미니배치
    6-6 이항 원소별 연산과 야코비안
    6-7 Loss 함수의 야코비안
  • 08
    Chap.7 Linear/Logistic Regression(2)
  • 7-1 Minibatch를 입력받는 Linear Regression(이론)
    7-2 Minibatch를 입력받는 Linear Regression(구현)
    7-3 Minibatch를 입력받는 Logistic Regression(이론과 구현)
  • 09
    Chap.8 전미분(Total Derivative)
  • 8-1 함수의 Multipath
    8-2 전미분 이론1
    8-3 전미분 이론2
    8-4 벡터함수와 전미분
    8-5 Linear/Logistic Regression과 전미분
  • 10
    Chap.9 확장된 야코비안 행렬
  • 9-1 확장된 야코비안의 소개
    9-2 확장된 야코비안의 핵심
    9-3 단항 원소별 연산과 확장된 야코비안
    9-4 단항/이항 원소별 연산과 확장된 야코비안
  • 11
    Chap.10 딥러닝에서의 확장된 야코비안
  • 10-1 MSE, BCEE와 확장된 야코비안
    10-2 CCEE와 확장된 야코비안
    10-3 Softmax 함수와 확장된 야코비안
    10-4 행렬의 곱셈 복습
    10-5 행렬의 곱셈과 확장된 야코비안
    10-6 Bias 덧셈과 확장된 야코비안
  • 12
    Chap.11 MLP와 확장된 야코비안 적용
  • 11-1 MLP 이론
    11-2 MLP의 학습과 확장된 야코비안
Instructor Introduction
Lecture Reviews
Ends in D-0
39,000
35,100
(10%)

Average Rating
0.0
Difficulty
Normal
Lecture Period
Unlimited