Dev study and notes

[딥러닝] 4-8 활성화 함수의 미분 본문

studyLog

[딥러닝] 4-8 활성화 함수의 미분

OPENLUNCH 2021. 8. 15. 16:58
반응형

이전포스팅:https://devlunch4.tistory.com/105

 

[딥러닝] 4-7 왜 비선형 활성화 함수를 써야할까요?

이전포스팅; https://devlunch4.tistory.com/104 [딥러닝] 4-6 활성화 함수 이전 포스팅: https://devlunch4.tistory.com/102 [딥러닝] 4-5 벡터화 구현에 대한 설명 이전포스팅; https://devlunch4.tistory.com/1..

devlunch4.tistory.com

 

4-8 활성화 함수의 미분

 

학습목표;    활성화 함수를 미분할 수 있다.

 

핵심키워드;    미분(Derivatives)

 

학습내용;

  • 시그모이드

         g(z)=1/(1+e^−z1​)

         g​′​​(z)=​(d/dz)*g(z)=g(z)(1−g(z)) 

  • Tanh

         g(z)=(e^z​​-^e-z​)/(e^z+e^-z​​)

         g​′​​(z)=1−(g(z))^2​​ 

  • ReLU

         g(z)=max(0,z) 

         g​′​​(z)=0  (z < 0인 경우)

         g​′​​(z)=1  (z >= 0인 경우)

  • Leaky ReLU

         g(z)=max(0.01z,z) 

         g​′​​(z)=0.01  (z < 0인 경우)

         g​′​​(z)=1 (z >= 0인 경우)

 

 

  • 영상시작
  • >
  • 신경망의 역방향 전파를 구현하려면 활성화 함수의 도함수를 구해야한다.
  • 활성화 함수와 그 함수의 기울기를 어떻게 구하는가?
  • 요약하자면 a가 g(z)인 tanh(z)일 때 도함수인 g'(z)는 1 - a²가 됩니다 
  • >
  • 끝.

 

반응형
Comments