Tunning Process
![Untitled](https://s3-us-west-2.amazonaws.com/secure.notion-static.com/5c34680e-f05f-4577-94ee-e65f7e6254d8/Untitled.png)
- 머신러닝 알고리즘 초기에는 아래 2가지를 하이퍼파라미터 초기화를 위해 이용하였다.
![Untitled](https://s3-us-west-2.amazonaws.com/secure.notion-static.com/3a05e38a-7dc3-4e55-8a2c-7288e2a5adfb/Untitled.png)
Using an appropriate scale to pick hyperparameters
임의로 샘플링 → 균일화된 임의의 작업 x
적절한 scale 선택 → 하이퍼파라미터 탐색
![Untitled](https://s3-us-west-2.amazonaws.com/secure.notion-static.com/ab1bf14b-2771-42b5-ba46-4bfe30e1713a/Untitled.png)
![Untitled](https://s3-us-west-2.amazonaws.com/secure.notion-static.com/ee24b9b8-c61f-4edb-9131-264a4334d9c7/Untitled.png)
hyperparameter의 적절한 scale / log scale , exponentially weighted averages
hyperparameter tunning in practice : pandas vs caviar
하이퍼파라미터를 업데이트 하는 데 사용되는 방법들
![Untitled](https://s3-us-west-2.amazonaws.com/secure.notion-static.com/dbf2a51c-cf3d-432f-bb1c-a2d4da7d7591/Untitled.png)
Normalizing Activations in a Network
- normalize 하면, learning이 빨라진다.
- 활성화 함수 이전에 Normalize할 수도 있고, 이후에 할 수도 있다.
![Untitled](https://s3-us-west-2.amazonaws.com/secure.notion-static.com/87d7523b-6400-40f6-9027-c156fa24f135/Untitled.png)
감마와 베타를 Learnable Parameter로 두어
모든 hidden unit이 항상 평균0, 분산1을 가지지 않도록 해준다.