What is a deep neural network?
- hidden layer가 2개 이상이면 deep neural network임
→ hidden layer 없거나 1개면 “shallow” network
→ hidden layer 2개 이상이면 “deep” network
Deep neural network notation
→ 이때 input data를 가상의 뉴런의 출력값으로 봄
→ 마지막으로 출력되는 값은 이렇게 표현
Forward propagation in deep neural network
Forward propagation in deep network
training data 하나에 대한 forward propagation
training data 여러개에 대한 forward propagation
→ 주의해야할게
activation function
weight
bias
는 training data 1개일 때랑 차이가 X
즐 알았는데 bias는 차이가 있음
근데 bias는 같은거 m개 가져다 붙인거
→ X, Z, A는 matrix로 바뀜
Parameters and
training data 하나에 대해 생각해보면

→ input 2차원이니까 라고 표현
matrix랑 vector 크기는 이럼
💡
그리고 또 생각해둬야할게 미분해도 차원 랑 똑같고, 차원 랑 똑같음
training data 여러개에 대해 생각해보면

💡
결론: deep이나 shallow이나 차이가 X
Intuition about deep representation

결론적으로...

💡
layer가 더 깊어질수록 더 복잡한 패턴 인식하도록 만들어짐

💡
→ 이런식으로 model을 다 학습시키고 뉴런 역할, layer 역할 어느정도 설명이 가능하다.
- deep neural network는 big data가 있을때 hand crafted filter를 만들 필요가 없음
→ 학습시키면 이런식으로 자동으로 만들어준다
→ 단, big data가 있을때만 가능하다
Circuit theory and deep learning → 왜 layer를 깊게 가져가야할까?
layer를 깊게 가져갈 경우
layer 얕게 가져갈 경우
💡
즉, layer를 많이 사용하면 뉴런의 개수를 줄일 수 있다.
Forward and backward functions → Caching을 하자!
💡
forward propagation 할 때 a값과 z값을 caching 해놓고 back propagation에서 사용하자

→ 그리고 back propagation 할 때 caching 된 값을 사용해 , , 값을 계산
Forward propagation for layer l


Back propagation for layer l

💡
back propagation 가물가물해서 그림을 다시 그려보면...

💡
back propagation에서 먼저 계산된 애들을 앞에 곱하는 줄 알았는데 보니까 그런것도 아님. 그냥 결과값이 차원 맞게 알아서 잘해야함
What are hyperparameter
💡
parameter랑 hyperparameter를 구분해야함
Parameter
- 파라미터는 weight 값과 bias 값
- ex) ...
이건 학습되면서
자동으로 setting
이 된다.
Hyperparameter
- neural network의 성능을 위해서는 parameter 뿐만 아니라 hyperparameters도 organize 해야한다
- parameter를 제외한 각종것들을 전부 hyperparameter라고 한다
- learning rate α
- iteration 몇번할지 (training data 전부 다 돌면 iteration 1번)
- hidden layer 개수
- hidden layer의 뉴런 개수 hidden units , , ...
- activation function 뭐쓸지 (ReLU, tanh, sigmoid...)
→ 이런걸 잘 선택하는 만병통치약은 없음
→ 케바케임. training data의 양의 영향도 받고...
이건 자동으로 setting이 안되고, neural net 디자이너가 정함. 그래서
사람이 필요한거임
Applied deep learning is a very empirical process
What does this have to do with the brain
💡
실제 뇌 속의 뉴런이랑 neural net의 뉴런 비슷하게 생김. 근데 진짜 하는일 비슷한거 맞나??
⇒ 이렇게 동작하는 방식이 조금 다르다!
Uploaded by N2T