Activation Functions
Based on the lecture “Intro. to Deep Learning (2023-2)” by Prof. Seong Man An, Dept. of Data Science, The Grad. School, Kookmin Univ.
활성화 함수의 이해
-
정의 : 순입력 함수 결과값에 대하여, 역치를 기준으로 정보 전달 여부를 판단하는 함수
-
문제점
종류
Step Function
-
공식
\[\text{step}(x)=\begin{cases} 1, \ \text{if} \ x>0 \\ 0, \ \text{otherwise} \end{cases}\] -
공역
\[y \in \{0, 1\}\]
Sigmoid Function
-
공식
\[\text{sigmoid}(x)=\frac{1}{1+e^{-x}}\] -
공역
\[y \in [0, 1]\]
Hyperbolic TANgent(TANH) Function
-
공식
\[\begin{aligned} \text{tanh}(x)&=\frac{\text{sinh}(x)}{\text{cosh}(x)} \\ &=\frac{e^{x}-e^{-x}}{e^{x}+e^{-x}} \end{aligned}\] -
공역
\[y \in [-1, 1]\]
ReLU Function
-
공식
\[\text{ReLU}(x)=\max(0,x)\] -
공역
\[y \in [0, \infty]\]
Softmax Function
-
공식
\[\begin{aligned} \text{softmax}(x)_{i} &= \frac{e^{x_i}}{\textstyle \sum_{j \ne i}^{}{e^{x_j}}}\\ \displaystyle\sum_{i=1}^{n}{\text{softmax}(x)_{i}} &= 1\\ \text{softmax}(x) &= \Big\{\frac{e^{x_1}}{\textstyle \sum_{j \ne 1}^{}{e^{x_j}}}, \frac{e^{x_2}}{\textstyle \sum_{j \ne 2}^{}{e^{x_j}}}, \cdots , \frac{e^{x_i}}{\textstyle \sum_{j \ne i}^{}{e^{x_j}}}, \cdots , \frac{e^{x_n}}{\textstyle \sum_{j \ne n}^{}{e^{x_j}}}\Big\} \end{aligned}\] -
공역
\[y \in [0, 1]\]
This post is licensed under
CC BY 4.0
by the author.