Coursera Stanford University Professor Andrew Ng's Course

시작으로는 Linear Algebra에대 배우게 되는데


크게 3단계로 Hypothesis Function, Cost Function, Gradient Descent에 대해 배우게 된다.


Hypothesis Function

h세타(x) = 세타0 | 세타1*x 의 형태로


x(input) y(output)

0        4

1        7

2        7

3        8

형태를 가지고 있을 경우

세타0는 2, 세타1은 2 그러므로 hypothesis function은 h0(x) = 2 +2x 가 되어진다.


Cost Function

우리는 hypothesis function의 정확성을 알기 위해 x와 y의 hypothesis function을 통한 결과들의 평균을 구하는 방법


예측값 에서 y를 뺀값을 2곱의 평균을 구한다. 앞의 1/2은 미분을 하였을시 편하게 풀어내기 위해서 적은 1/2이고 결과값에는 크게 영향을 미치지 못한다.


이것으로 우리는 정확한 예측한 function이 정확한 결과를 가져오는지 가져오지 못하는지에 대해 알 수 있게 되었다.



Gradient Descent

그래서 우리는 이제 hypothesis function 의 정확도를 측량 가능하다. 그래서 이것을 이요하여 자동적으로 hypothesis function의 정확도를 늘려주는 방법을 gradient descent라 한다.


위의 식을 j=0 이 되거나 1에 도달할때 까지 반복하면 된다.



Posted by MIDDLE
,