로지스틱 회귀(3)
-
[텐서플로우로 시작하는 딥러닝 기초] 복습과 고민
20.10.14 너무 오랜만이다. 사실 중간에 자바 공부로 넘어갔다 오기도 했고 9월에 대대전술훈련과 10월 초에 종측 선발이 되어서 한동안 머신러닝 공부를 못했다. 오늘은 지금까지 배운 선형회귀와 로지스틱 회귀에 대해 복습하는 시간을 가진 후 머신러닝으로 복귀를 했다. Logistic Regression: Linear Regression를 Classification에 사용할 때의 한계들을 수정하여 선형 가설을 Sigmoid 형태에 넣은 Hypothesis를 설정했다. 그리고 Local Minimum 문제를 피해 그에 맞는 log를 이용한 Cost Function을 만들었다. 이를 앞서 배운 경사하강법으로 Cost 값을 최소화시키는 Weight와 Bias를 찾는 것이다. 이미지가 잘 그려지지는 않는다. ..
2020.10.17 -
[텐서플로우로 시작하는 딥러닝 기초] Lec 05-2: Logistic Regression/Classification 의 cost 함수, 최소화
로지스틱 회귀의 전체적인 흐름에 대해 알아봤다. 그렇다면 Regression에서 정말 중요한 cost함수는 어떻게 생겼을까? 처음에 가설에서 Weight는 랜덤 하게 설정했을 경우, 좌측의 모델처럼 다양한 경우의 모습을 보인다. 우리의 목적은 우측의 그림처럼 두 가지 그룹을 나누는 모델이다. 그동안의 강의에서 배운 것과 마찬가지로 Cost function은 Label과 Hypothesis의 차이일 텐데 여기서 문제가 있다. 우리의 Hypothesis는 Sigmoid 함수로 곡선의 형태를 띄고 있고, Label값들은 이상적인 1과 0의 값을 가지기 때문에 둘의 차는 구불구불해진다. 그래서 y=1, y=0인 두 경우의 Label에서 log함수를 이용해 우리가 원하는 cost function의 형태를 만든다...
2020.09.07 -
[텐서플로우로 시작하는 딥러닝 기초] Lec 05-1: Logistic Regression/Classification 의 소개
로지스틱 회귀/분류의 개념을 알아보는 시간이다. Logistic regression과 Linear regression의 차이는 무엇일지 궁금하다. 또한 분류라고 하니 이번에는 Unsupervised learning인가?라고 생각되는데 과연 그럴지 알아보자. 강의 목차. 이 강의는 스탠포드 Andrew Ng 교수님의 ML강의와 모두를 위한 딥러닝 강의의 김성훈 교수님의 자료를 토대로 설명한다고 한다. Binary Classification은 예시들처럼 둘 중 하나로 분류가 된다. 그렇기 때문에 1 또는 0의 값을 갖는 학습 데이터가 쓰인다. 그렇다면 우리가 지금까지 배운 Linear regression과 Logistic regression의 차이는 우리가 원하는 출력에 있겠다. Linear regressi..
2020.09.03