본문 바로가기

나의 플랫폼/TensorFlow

[Machine Learning] Gradient Descent 공식 미분

336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

Coursera 강의에서 Gradient Descent에 대한 설명을 할 때, 


아래 화면과 같이 편미분이 된다고 하면서 알아서 해보라고 나온다.




수학을 잘 몰랐던 나는 열심히 구글링을 한 결과 다음과 같은 결론을 내렸다.



위 내용은 X 제곱을 편미분한 결과 이다.


왜 2X가 되는지 이미지를 보면 알 수 있다.


이걸 보여준 이유는 Gradient Descent의 공식도 이 원리로 하면 되기 때문이다.



전체적으로 미분 하면 위와 같은 형태가 된다.

θ0에 대한 미분은 표현을 어떻게 할지 몰라서.. 그냥 글로 썼다.


예제로 보여준 편미분 그 형태 그대로 했다.


그럼 여기서 θ0, θ1 에 대한 미분의 결과는 아래와 같다.




0 의 결과 값은 1,  dθ1의 결과 값은 x(i) 으로 나온다.



그래서 결론은!



위와 같이 되는 것을 알 수 있다.!!



아... 편미분하나 하는데 이렇게 많은 시간을 투여 하다니...


앞으로도 수학 공부는 계속 될 듯 하다.



참고 하세요.