SGD

AI Fundamentals/BITAmin DL

[BITAmin DL] Session 1.4 - DL Basics 4 (Optimizer - GD, SGD, Momentum, Adagrad, RMSProp, Adam / Backpropagation)

1. Optimization (Normal Equation vs Gradient Descent) d-dimension vector : row 형태로 들어가 있음 θ0에 곱해지는 input parameter = 1로 설정하기 위해 각 vector의 first entry = 1로 처리 최적화 parameter θ : cost function을 가장 최소화하는 것 Vector X, Θ 내적 : XTΘ (Transpose가 앞에 붙는다) Transpose 성질 : (XΘ)T=ΘTXT : Transpose를 분배하면 순서가 바뀐다 Normal Equation 행렬 미분 법칙 선형 모형: 선형 모형을 미분하..