이번 포스팅에서는 이항 분류(Binary Classification) 문제를 정의하고 있는 로지스틱 회귀에 대한 텐서플로우 구현에 대해서 이야기할 것이다. 구현하기전에 어떤 것을 다룰 것인지 간략하게 설명하자면.. 여기서 다룰 트레이닝 데이터는 학생이 n일동안 m시간 공부 했을 때 PASS 또는 FAIL에 대한 결과치에 해당하는 트레이닝 데이터 셋을 가지고 기계학습을 시킨 후 새로운 파라미터가 전달되었을 때 (일 수, 공부시간) 이 데이터에 대해서 PASS/FAIL을 결정하는 것을 지켜보겠다. 여기서도 마찬가지로 오차 함수(Cost Function)가 최소화가 되도록 적절한 learning_rate의 파라미터를 지정하고 경사하강법 또는 최대경사법 최적화 알고리즘을 이용하여 기울기의 반대방향으로 조금씩 이..
로지스틱 회귀(Logistic Regression) 이번 포스팅에서는 둘 중에 하나 (TRUE/FALSE) 이항 분류의 문제를 정의하고 있는 로지스틱 회귀에 대하여 알아 볼 것이다. ( 다항 분류의 문제는 다음 포스팅에서.. ) 우리는 이전 포스팅인 선형 회귀(Linear Regression)의 방법에서x의 값인 트레이닝 데이터(Training Data)를 입력하여 y의 값인 숫자를 예측하는 것의 모델(즉, 학습시간에 따른 시험 점수와 같은 문제) 에 대하여 알아 보았다. 이와 비슷하게, 로지스틱 회귀(Logistic Regression)는 y의 값이 숫자를 나타내는 것이 아니라 어떤 특정 분류에 속한다는 것의 결과치가 나오게 되는 모델이다. 그 중 이항분류의 문제를 살펴볼 것이다. 예를들어, 독립변수의..
이번에는 cost 비용을 최소화 하기 위한 최적화 알고리즘 경사 하강법(Gradient Descent) 에 대해서 간략하게 알아보겠다.먼저 최적화에 대한 개념을 잠깐 짚고 넘어가 보자.최적화란, 여러 가지 허용되는 값들 중에서 주어진 기준을 가장 잘 만족하는 것을 선택하는 것 을 의미한다.그 최적화의 종류에는 대표적으로 유전 알고리즘인 조합 최적화 그리고 경사 하강법인 함수 최적화 방법이 있다.그 중 우리는 함수 최적화 방법인 경사 하강법 알고리즘을 활용하여 비용함수(Cost Function)를 최소로 만드는 것이 목적이었다. (다른말로, 에너지 함수라고 했던가..) 경사 하강법(Gradient Descent)해당 함수의 최소값 위치를 찾기 위해 비용 함수(Cost Function)의 그레디언트 반대 방..
- Total
- Today
- Yesterday
- 선형회귀 구현
- Machine Learning
- 머신러닝
- 텐서플로우
- Machine Learning Concept
- 선형회귀
- linear regression
- dynamodb #dynamodb stream #stream
- 텐서플로우 아키텍쳐
- 머신러닝 개념
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |