336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.
Coursera 강의에서 Gradient Descent에 대한 설명을 할 때,
아래 화면과 같이 편미분이 된다고 하면서 알아서 해보라고 나온다.
수학을 잘 몰랐던 나는 열심히 구글링을 한 결과 다음과 같은 결론을 내렸다.
위 내용은 X 제곱을 편미분한 결과 이다.
왜 2X가 되는지 이미지를 보면 알 수 있다.
이걸 보여준 이유는 Gradient Descent의 공식도 이 원리로 하면 되기 때문이다.
전체적으로 미분 하면 위와 같은 형태가 된다.
θ0에 대한 미분은 표현을 어떻게 할지 몰라서.. 그냥 글로 썼다.
예제로 보여준 편미분 그 형태 그대로 했다.
그럼 여기서 θ0, θ1 에 대한 미분의 결과는 아래와 같다.
dθ0 의 결과 값은 1, dθ1의 결과 값은 x(i) 으로 나온다.
그래서 결론은!
위와 같이 되는 것을 알 수 있다.!!
아... 편미분하나 하는데 이렇게 많은 시간을 투여 하다니...
앞으로도 수학 공부는 계속 될 듯 하다.
참고 하세요.
'나의 플랫폼 > TensorFlow' 카테고리의 다른 글
Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2 (0) | 2017.12.27 |
---|---|
Could not find 'cudart64_80.dll' (0) | 2017.12.27 |
[Python] UnicodeDecodeError: 'cp949' codec can't decode byte 0xe2 in position 6987: illegal multibyte sequence (0) | 2017.11.24 |
[TensorFlow] TensorFlow를 윈도우에 설치하기 (39) | 2016.12.23 |
[TensorFlow] TensorFlow 참고 사이트 (0) | 2016.12.23 |