Neural Network
Based on the following lectures
(1) “Intro. to Machine Learning (2023-2)” by Prof. Je Hyuk Lee, Dept. of Data Science, The Grad. School, Kookmin Univ.
(2) “Intro. to Deep Learning (2023-2)” by Prof. Seong Man An, Dept. of Data Science, The Grad. School, Kookmin Univ.
Neural Network
Perceptron
-
퍼셉트론(Perceptron) : 다수의 신호를 입력 받아 하나의 신호를 출력하는 알고리즘
-
논리 회로(Logic Gate) : 하나 이상의 논리 입력을 받아 일정한 논리 연산을 거쳐 논리 출력을 얻는 회로
Gate Desc AND
입력값이 모두 이면 을 출력함OR
입력값이 하나라도 이면 을 출력함NOT
입력값이 이면 을, 이면 을 출력함NAND
입력값이 모두 이면 을 출력함NOR
입력값이 하나라도 이면 을 출력함XOR
입력값이 서로 다르면 을, 같으면 을 출력함XNOR
입력값이 서로 다르면 을, 같으면 을 출력함 -
MLP(
M
ulti-L
ayerP
erceptron)
Neural Network
-
인공신경망(Artifical
N
euralN
etwork) : 생물학적 신경망에서 영감을 얻은 통계학적 학습 알고리즘 -
MLP(Multi-Layer Perceptron) is FC(
F
ully-C
onnected) FFNN(F
eed-F
orwardN
euralN
etwork)- Layer : 하나 이상의 퍼셉트론으로 구성된 모듈
- FC(
F
ully-C
onnected) : 레이어의 모든 뉴런이 다음 레이어의 모든 뉴런과 연결된 상태 - FFNN(
F
eed-F
orwardN
euralN
etwork) : 신호가 하나의 방향으로만 전달되는 인공신경망
-
MLP Definition
: Single Layer : Activation Value : Activation Function : Net Input : Summed Input Function or Weighted Sum Function
-
활성화 함수(Activation Function) : 다음 레이어 뉴런으로의 전달 여부를 판단하는 함수(
)Function Output Step Sigmoid TANH ReLU Softmax
Backward Propagation
Gradient Descent
-
그라디언트(Gradient) : 다변수 함수에 대하여 모든 방향으로의 순간변화율 벡터
-
경사하강법(Gradient Descent) : 손실 함수의 도함수(그라디언트)를 최소화하는 가중치를 추정하는 방법
: Learning Parameter : Learning Rate or Learning Step : Gradient of the Loss Function is Learning Direction
Backward Propagation
-
역전파(Backward Propagation) : 경사하강법을 활용하여 오차를 출력층에서 입력층 방향으로 전파하며 가중치를 조정하는 학습 방법
-
Learning Direction
-
손실
를 번째 계층의 번째 가중치 에 대하여 미분하면 다음과 같음 -
위 각 항목을 일반화하면 다음과 같음
-
따라서 파라미터 갱신 방향은 다음과 같이 일반화할 수 있음
-
Optimizer
-
Update Learning Rate-based Approach
-
Adagrad
: 이전까지 누적 갱신 규모를 반영하여 학습률을 결정함 -
RMSProp
: 이전까지 누적 갱신 규모를 지수가중이동평균하여 반영하여 학습률을 결정함
-
-
Update Learning Direction-based Approach
-
Momentum
: 직전 시점 갱신 방향을 관성 계수( )만큼 반영하여 갱신 방향을 결정함
-
Reference
- https://codetorial.net/tensorflow/basics_of_optimizer.html
- https://namu.wiki/jump/JsjHPjk9qYK%2Fl54QLaGyq5jupzXBHwWbSS0dMWuO%2B3lzPTdSDH1TiTY1jg9ysGRCY1f5J8NIWqRsnWauQXGsLQ%3D%3D
- https://gentlesark.tistory.com/44
- https://www.asimovinstitute.org/neural-network-zoo/
- https://www.oreilly.com/library/view/tensorflow-for-deep/9781491980446/ch04.html
- https://towardsdatascience.com/an-intuitive-explanation-of-gradient-descent-83adf68c9c33