Kim Seon Deok

밑바닥부터 시작하는 딥러닝 1 : 5장 - 오차역전파법 본문

AI/Deep Learning

밑바닥부터 시작하는 딥러닝 1 : 5장 - 오차역전파법

seondeok 2022. 3. 8. 01:03

 

5-1. 계산 그래프

오차역전파법 = 역전파(backpropagation)

가중치 매개변수의 기울기를 효율적으로 계산하는 방법

계산그래프 : 계산과정을 그대로 나타낸 것 - 복수의 노드와 에지로 표현

 

순전파(forward propagation)

계산그래프의 출발점 ~ 종착점으로의 전파

국소적 계산을 전파함으로써 최종 겨로가를 얻음

* 계산 그래프의 이점

국소적 계산을 통해 각 노드에서 단순한 계산에 집중해 문제를 단순화 시킴

 중간중간 계산결과를 모두 보관할 수 있다.

순전파, 역전파를 통해 '미분'을 효율적으로 계산할 수 있다.

 

5-2. 연쇄법칙(chain rule)

합성함수 : 여러 함수로 구성된 함수

연쇄법칙 : 합성함수의 미분에 대한 성질

연쇄법칙의 원리 : 합성함수의 미분은 합성함수를 구성하는 각 함수의 미분의 곱으로 나타낼 수 있다.

덧셈노드 역전파
곱셈노드 역전파

import os , sys
sys.path.append()
import numpy as np
from common.layers import *
from common.gradient import numerical_gradient
from collections import OrderedDict

class TwoLayerNet:
  def __init__(self, input_size, hidden_size, output_size, weight_init_std = 0.01):
    # 가중치 초기화
    self.params = {}
    self.params = ['w1'] = weight_init_std * np.random.radn(input_size, hidden_size)
    self.params = ['b1'] = np.zeros(hidden_size)
    self.params = ['w2'] = weight_init_std * np.randmo.randn(hidden_size, output_size)
    self.params = ['b2'] = np.zeros(output_size)

    # 계층 생성
    self.layers = OrderedDict()
    self.layers['Affine1'] = Affine(self.params['w1'], self.params['b1'])
    self.layers['Relu1'] = Relu()
    self.layers['Affine2'] = Affine(self.params['w2'],self.params['b2'])

    self.lastLayer = SoftmaxWithLoss()

  def predict(self,x):
    for layer in self.layers.values():
      x = layer.forward()
    return x

  # x : 입력 데이터, t : 정답 레이블

  def loss(self, x, t):
    y = self.predict(x)
    return self.lastLayer.forward(y,t)

  def accuracy(self,x,t):
    y = self.predict(x)
    y = np.argmax(y, axis = 1)
    if t.ndim != 1:
      t = np.argmax(t, axis = 1)

      accuracy = np.sum(y == t) / float(x.shape[0])
    return accuracy


    # x: 입력 데이터, t: 정답 레이블
    def numerical_gradient(self, x, t):
      loss_w = lambda w:self.loss(x,t)

      grads = {}
      grads['w1'] = numerical_gradient(loss_w, self.params['w1'])
      grads['b1'] = numerical_gradient(loss_w, self.params['b1'])
      grads['w2'] = numerical_gradient(loss_w, self.params['w2'])
      grads['b2'] = numerical_gradient(loss_w, self.params['b2'])
      return grads

    def gradient(self,x,t):
      # 순전파
      self.loss(x,t)

      # 역전파
      dout = 1
      dout = self.lastLayer.backward(dout)

      layers = list(self.layers.valuees())
      laysers.reverse()
      for layer in layers:
        dout = layer.backward(dout)

      # 결과 저장
      grads = {}
      grads['w1'] = self.layers['Affine1'].dw
      grads['b1'] = self.layers['Affine1'].db
      grads['w2'] = self.layers['Affine2'].dw
      grads['b2'] = self.layers['Affine2'].db

      return grads
Comments