모두를 위한 딥러닝1 모두를 위한 딥러닝 시즌 2 / 3강 정리 Simplified hypothesis 원래 hypothesis와 cost에서 W(weight,기울기)만 남고 b(bias)만 생략되었다. Hypothesis : H(x) = Wx Cost : 오차 제곱의 평균 W값이 바뀔 때 cost값의 변화 Data set (x,y) = (1,1), (2,2), (3,3)일 때 w값이 1을 기준으로 완만한 2차함수 형태를 그리게된다. 우리의 목적은 cost가 최소화되는 W값을 찾는것이므로, 코스트를 최소화하는 W값은 1임을 알 수 있다. 그래프를 그려 확인하면 직관적으로 알 수 있지만, 컴퓨터를 이용해 찾기위해서는 알고리즘을 이용해 기계적으로 해당 W값을 찾도록 계산시켜야한다. 이러한 과정을 구현한 알고리즘이 Gradient descent algorithm이다. Gr.. 2020. 4. 6. 이전 1 다음