본문 바로가기

머신러닝3

모두를 위한 딥러닝 시즌 2 / 3강 정리 Simplified hypothesis 원래 hypothesis와 cost에서 W(weight,기울기)만 남고 b(bias)만 생략되었다. Hypothesis : H(x) = Wx Cost : 오차 제곱의 평균 W값이 바뀔 때 cost값의 변화 Data set (x,y) = (1,1), (2,2), (3,3)일 때 w값이 1을 기준으로 완만한 2차함수 형태를 그리게된다. 우리의 목적은 cost가 최소화되는 W값을 찾는것이므로, 코스트를 최소화하는 W값은 1임을 알 수 있다. 그래프를 그려 확인하면 직관적으로 알 수 있지만, 컴퓨터를 이용해 찾기위해서는 알고리즘을 이용해 기계적으로 해당 W값을 찾도록 계산시켜야한다. 이러한 과정을 구현한 알고리즘이 Gradient descent algorithm이다. Gr.. 2020. 4. 6.
모두를 위한 딥러닝 시즌2 / Lab 2강 정리 복습 > cost = (1/갯수)*([(예측값-실제값=오차)^2]들의 합) 즉 오차 제곱의 평균. 따라서 cost가 최소가 되도록 만드는 W,b값(예측값의 변수)를 찾는것이 learning의 핵심목적. hypothesis와 cost 만들어보기 - 데이터 셋을 설정 (x_data -> 입력 값, y_data -> 출력 값) - W값과 b값을 설정 (초기에는 random값으로 설정) - hypothesis = W * x_data + b - cost = tf.reduce_mean(tf.square(hyphothesis - y_data)) reduce_mean이라는 이름은 높은 차원(리스트는 1차원이다)을 낮은차원(하나의 value는 0차원이다)으로 끌어내리므로 reduce라는 이름이 붙었다. Gradient .. 2020. 3. 24.
모두를 위한 딥러닝 시즌2 / 1~2강 정리 1.Supervised/Unsupervised learning Supervised learning : labeled examples를 가지고 기계가 학습하도록 하는방식 ex - 개 사진들과 고양이 사진들을 준 뒤 이를 통해 학습하여 개와 고양이를 구별 할 수 있게 만드는 방식 —> ML의 일반적인 방식 Unsupervised learning : label 되지 않은 examples를 주고 기계가 스스로 유사한 것을 판단하여 grouping할 수 있도록 하는 방식 ex - Google news grouping, 비슷한 단어를 모으는 word clustering 2.Training data set X값에 연관된 Y값(label 값)쌍이 여러개 존재하는 데이터셋. 이를 통하여 기계가 Y가 없는 X를 받았을 때.. 2020. 3. 16.