네이버 부트캠프 (URL : https://www.boostcourse.org/) 공부 정리 과목 : 딥러닝 1단계: 신경망과 딥러닝강사 : Andrew Ng 4. 경사하강법 (Gradient Descent)로지스틱 회귀의 Loss Function => 전체 데이터셋 기준 예측 정확도를 보는 것로지스틱 회귀의 경사하강법 => 이를 가능케하는 예측 모델의 파라미터 w, b를 찾는 방법 중 하나비용 함수는 볼록해야 함 (볼록하지 않은 함수의 경우, 경사하강법 적용 불가능)함수의 최소값을 모르기 때문에 임의의 점을 잡고 시작아래 x, y축은 w, b 파라미터, z축(높이)이 J(w, b) 값가장 가파른(steepest) 방향, 즉 함수의 기울기를 따라 최적의 값으로 한 스텝씩 업데이트하게 됨 (가장 아래 점..