다중선형회귀(2)
-
[텐서플로우로 시작하는 딥러닝 기초] Lab 04: Multi-variable Linear Regression 를 TensorFlow 로 구현하기
아래의 데이타를 사용하여 다중선형회귀를 텐서플로우로 구현해보자. import tensorflow as tf import numpy # data and Label x1 = [73., 93., 89., 96., 73.] x2 = [80., 88., 91., 98., 66.] x3 = [75., 93., 90., 100., 79.] y = [152., 185., 180., 196., 142.] # weights w1 = tf.Variable(tf.random.normal([1])) # [1]은 shape. 1 크기의 난수 w2 = tf.Variable(tf.random.normal([1])) w3 = tf.Variable(tf.random.normal([1])) b = tf.Variable(tf.random...
2020.09.01 -
[텐서플로우로 시작하는 딥러닝 기초] Lec 04: Multi-variable Linear Regression
휴가 다녀와서 2주 동안 격리를 당하느라 거의 3주 만에 노트를 작성한다. 마침 친절하게도 강의 초반에 이전 강의들을 복습시켜줬다. 지금까지 가설과, 비용함수의 개념과 비용을 최소화시키는 방법 중 하나인 경사 하강법을 배웠다. 우리가 지금까지 배운 개념은 하나의 variable에 하나의 feature가 있다. 그런데 위와 같이 하나의 변수를 가지고 정확한 예측을 할 수 있을까? 가능할 수 도 있지만 그렇지 않은 경우가 더 많을 것이다. 그래서 우리는 둘 이상의 변수를 같은 예측치를 가지고 학습을 시켜야 할 것이다. 그래서 오늘 다중 선형 회귀(Multi-variable Linear Regression)를 배울 것이다. 위와 같이 다중 변수(x1, x2, x3)를 갖는 경우이다. 이렇게 되면 차원이 증가하..
2020.08.31