딥러닝(3)
-
[텐서플로우로 시작하는 딥러닝 기초] Lec 06-2: Softmax Classifier의 cost함수
저번 강의에 이어서 세 개의 다중 분류를 하려고 보니. Binary Classification을 세 번 하면 되니까. 각각의 Label에 대한 가중치를 행렬로 묶어서 한 번에 계산했다. 그래서 각각의 Hypothesis는 하나의 Hypothesis 처럼 보이고. 여기에 어떤 x 값(test set)을 넣으면 우리의 Hypothesis는 A, B, C에 대한 결과 값을 Weight에 따라 벡터의 형태로 출력할 것이다. 근데 우리가 원하는건 그래서 결과가 뭔데?이다. Binary에서는 Sigmoid를 이용해 출력 값을 0~1의 값으로 만들었는데, Multinomial에서는 다른 함수를 사용해서 다수의 출력을 각각 0~1, 합이 1이 되게 만든다. 이를 위한 함수가 Softmax이다. 사실 아주 단순하다. n..
2020.11.11 -
[텐서플로우로 시작하는 딥러닝 기초] Lab 02: Simple Linear Regression 를 TensorFlow 로 구현하기
import tensorflow as tf x_data = [1, 2, 3, 4, 5] y_data = [1, 2, 3, 4, 5] W = tf.Variable(2.9) b = tf.Variable(0.5) # hypothesis = W*x+b hypothesis = W*x_data+b #cost(W,b) cost = tf.reduce_mean(tf.square(hypothesis - y_data)) reduce_mean 은 평균을 내는 함수인데 reduce는 차원의 감소를 의미한다. cost를 최소화 하는 알고리즘 중 Gradient descent는 경사를 줄이면서 cost가 minimize되는 W와 b를 찾는다. 우리의 데이터를 보아 W값은 1, b값은 0에 가까운 값이 나와야 할 것이다. # Lea..
2020.08.04 -
[텐서플로우로 시작하는 딥러닝 기초] Lec 02: Simple Linear Regression
OSAM 강의에서 이 강의로 넘어오게 된 이유는 아래 글에.. 2020/08/03 - [AI] - [OSAM] 2. Training set과 Test set, Overfitting과 Underfitting Regression Regression 은 정확하게 "Regression toward the mean" - Sir Francis Galton (1822~1911) : 어떤 데이타들이 크거나 작거나 하는 값들이 나와도 전체의 평균으로 회귀하려는 특징이 있다는 의미로 통계적 원리를 의미한다. Linear Regression 한 마디로 데이타를 가장 잘 대변하는 직선의 방정식을 찾는 것. 대표적인 예시로는 Predicting exam score : regression. 공부한 시간과 점수의 상관관계가 있겠다..
2020.08.04