Coursera Stanford University Professor Andrew Ng's Course
시작으로는 Linear Algebra에대 배우게 되는데
크게 3단계로 Hypothesis Function, Cost Function, Gradient Descent에 대해 배우게 된다.
Hypothesis Function
h세타(x) = 세타0 | 세타1*x 의 형태로
x(input) y(output)
0 4
1 7
2 7
3 8
형태를 가지고 있을 경우
세타0는 2, 세타1은 2 그러므로 hypothesis function은 h0(x) = 2 +2x 가 되어진다.
Cost Function
우리는 hypothesis function의 정확성을 알기 위해 x와 y의 hypothesis function을 통한 결과들의 평균을 구하는 방법
예측값 에서 y를 뺀값을 2곱의 평균을 구한다. 앞의 1/2은 미분을 하였을시 편하게 풀어내기 위해서 적은 1/2이고 결과값에는 크게 영향을 미치지 못한다.
이것으로 우리는 정확한 예측한 function이 정확한 결과를 가져오는지 가져오지 못하는지에 대해 알 수 있게 되었다.
Gradient Descent
그래서 우리는 이제 hypothesis function 의 정확도를 측량 가능하다. 그래서 이것을 이요하여 자동적으로 hypothesis function의 정확도를 늘려주는 방법을 gradient descent라 한다.
위의 식을 j=0 이 되거나 1에 도달할때 까지 반복하면 된다.