딥러닝2 모두를 위한 딥러닝 시즌2 / Lab 2강 정리 복습 > cost = (1/갯수)*([(예측값-실제값=오차)^2]들의 합) 즉 오차 제곱의 평균. 따라서 cost가 최소가 되도록 만드는 W,b값(예측값의 변수)를 찾는것이 learning의 핵심목적. hypothesis와 cost 만들어보기 - 데이터 셋을 설정 (x_data -> 입력 값, y_data -> 출력 값) - W값과 b값을 설정 (초기에는 random값으로 설정) - hypothesis = W * x_data + b - cost = tf.reduce_mean(tf.square(hyphothesis - y_data)) reduce_mean이라는 이름은 높은 차원(리스트는 1차원이다)을 낮은차원(하나의 value는 0차원이다)으로 끌어내리므로 reduce라는 이름이 붙었다. Gradient .. 2020. 3. 24. 모두를 위한 딥러닝 시즌2 / 1~2강 정리 1.Supervised/Unsupervised learning Supervised learning : labeled examples를 가지고 기계가 학습하도록 하는방식 ex - 개 사진들과 고양이 사진들을 준 뒤 이를 통해 학습하여 개와 고양이를 구별 할 수 있게 만드는 방식 —> ML의 일반적인 방식 Unsupervised learning : label 되지 않은 examples를 주고 기계가 스스로 유사한 것을 판단하여 grouping할 수 있도록 하는 방식 ex - Google news grouping, 비슷한 단어를 모으는 word clustering 2.Training data set X값에 연관된 Y값(label 값)쌍이 여러개 존재하는 데이터셋. 이를 통하여 기계가 Y가 없는 X를 받았을 때.. 2020. 3. 16. 이전 1 다음