linear regression1 모두를 위한 딥러닝 시즌2 / Lab 2강 정리 복습 > cost = (1/갯수)*([(예측값-실제값=오차)^2]들의 합) 즉 오차 제곱의 평균. 따라서 cost가 최소가 되도록 만드는 W,b값(예측값의 변수)를 찾는것이 learning의 핵심목적. hypothesis와 cost 만들어보기 - 데이터 셋을 설정 (x_data -> 입력 값, y_data -> 출력 값) - W값과 b값을 설정 (초기에는 random값으로 설정) - hypothesis = W * x_data + b - cost = tf.reduce_mean(tf.square(hyphothesis - y_data)) reduce_mean이라는 이름은 높은 차원(리스트는 1차원이다)을 낮은차원(하나의 value는 0차원이다)으로 끌어내리므로 reduce라는 이름이 붙었다. Gradient .. 2020. 3. 24. 이전 1 다음