linear regression(2)
-
[텐서플로우로 시작하는 딥러닝 기초] Lec 04: Multi-variable Linear Regression
휴가 다녀와서 2주 동안 격리를 당하느라 거의 3주 만에 노트를 작성한다. 마침 친절하게도 강의 초반에 이전 강의들을 복습시켜줬다. 지금까지 가설과, 비용함수의 개념과 비용을 최소화시키는 방법 중 하나인 경사 하강법을 배웠다. 우리가 지금까지 배운 개념은 하나의 variable에 하나의 feature가 있다. 그런데 위와 같이 하나의 변수를 가지고 정확한 예측을 할 수 있을까? 가능할 수 도 있지만 그렇지 않은 경우가 더 많을 것이다. 그래서 우리는 둘 이상의 변수를 같은 예측치를 가지고 학습을 시켜야 할 것이다. 그래서 오늘 다중 선형 회귀(Multi-variable Linear Regression)를 배울 것이다. 위와 같이 다중 변수(x1, x2, x3)를 갖는 경우이다. 이렇게 되면 차원이 증가하..
2020.08.31 -
[텐서플로우로 시작하는 딥러닝 기초] Lec 03: Linear Regression and How to minimize cost
간략화 하기 위해 H(x)에서 b를 생략하여 H(x) = Wx 라고 하고 이에 따라 Cost 함수도 간략해진다. 이 Cost 함수가 어떻게 생겨먹었는지 살펴보자. 아! 당연히 cost(W)는 W에 대한 이차함수일 것이다. 우리는 이 cost가 최소가 되는 W를 구하는 것이 목표이다. 오! cost(W)를 W로 미분하였을 때 0이 되는 값(꼭지점)의 W값이겠구나! (위 함수에서는 1) 이러한 방식의 알고리즘이 Gradient descent algorithm (경사하강법)이다. 그럼 Gradient descent algorithm이 작동하는 방법을 보자. Initial Weight에서 기울기를 구한 뒤, 그 기울기 값을 W에 곱한 값을 W에서 빼준다. 이를 계속해서 반복하는데 그럼 W값은 꼭지점으로 이동할 ..
2020.08.05