신경망 학습

  1. 인공 신경망은 입력에 대해서 순전파 연산
  2. 순전파 연산을 통해 나온 예측값과 실제값의 오차를 Cost Function 통해 계산
  3. 오차(Cost)를 미분하여 Gradient(기울기) 구하고,
  4. 역전파 수행
  5. (Zeroing Gradients)
원본 링크

개요

이름 그대로. 출력에서 입력 방향으로 ‘거꾸로’들어가면서 가중치를 하나씩 업데이트함

역전파 1단계, 2단계 라는 식으로 명명할 수 있는데,
레이어 사이의 가중치 행렬을 업데이트하는 하나하나의 단계를 뜻하는거임.
근데 거꾸로 들어가니까 제일 첫단계인 1단계는 가장 마지막 가중치행렬 업데이트.

직접 계산해보는 역전파


활성화 함수로 시그모이드, 비용함수로 MSE 사용

역전파 1단계 를 찾기

Chain Rule

, , 는 모두 에 대한 함수가 아님.
임. 표기법 차이.

: 알고 있는 값.

참고,

Sigmoid의 미분

원본 링크

또한, 이다.

: 알고 있는 값.

왜 why?
: 알고 있는 값.

역전파 2단계 찾기

1단계와 같은 방법

: 알고 있는 값.

: 알고 있는 값.

: 알고 있는 값 (역전파 1단계에서 구함)

결론

이처럼 역전파 단계를 거쳐가며 새로운 가중치 값을 찾아낼 수 있음을 확인하였다.