본문 바로가기

AI/회귀19

[회귀 - 14] R을 이용한 서포트 벡터 회귀 실습 https://nhahan.tistory.com/30 2022. 4. 25.
[회귀 - 13] 서포트 벡터 회귀(Support Vector Regression)란? SVR 회귀선이 있고, 회귀선을 중심으로 튜브가 그려진다.이 튜브 안에 있는 데이터들에 대해서는 오차 범위 안의 정상 데이터로 판단하고, 밖에 있는 데이터들을 Support Vector라고 한다.그리고 튜브와 가까운 데이터들은 Potential Support Vector라고 한다.그러나 위 그래프는 선형 SVR의 경우이고, 비선형일 경우엔 3차원으로 넘어가기 때문에... 이런게 있다 정도만 알아두자. 2022. 4. 24.
[회귀 - 12] R을 이용한 다항 회귀 실습 새 직원을 뽑으려고 하는데 이 직원을 A라고 하겠다. A는 20년의 경력을 가지고 있고 이전 회사에서 16만 달러의 연봉을 받았다고 말하고 있다. 그리고 이전 회사에서는 Region Manager 직급으로 2년간 일했다고 하고 있다. 그럼 이 직원에게 제시 될 연봉은 6행과 7행 사이의 어딘가가 될 것이다. (이를 대강 6.5 수준의 급여라고 하겠다) 다중 회귀를 통해서 위 내용이 사실인지 거짓인지 알아보자. 일단 Position과 Level은 사실상 같은 내용이기 때문에 2, 3열만 가지고 모델을 만들 것이다. dataset = dataset[2:3] 데이터 세트가 작으니 이번에는 훈련 세트와 테스트 세트를 나누지 않고 진행할 예정이다. 이 데이터 세트에 선형 회귀가 어울릴지, 다항 회귀가 어울릴지 .. 2022. 4. 24.
[회귀 - 11] 다항 회귀(Polynomial Linear Regression)란? 다항 회귀는 2차식 이상인 모델을 말한다. 근데 Polynomial Linear Regression이라는 단어를 보면 'Linear(직선)'가 포함되어 있다. 곡선인데 웬 직선? 그 이유는 여기서의 Linear 뜻하는 건 계수가 선형적이냐 비선형적이냐를 말하는 것이기 때문이다. y = b0 + b1 * x1 + b2 * x2^2 + ... + bn * x^n 즉 여기서 계수인 b0, b1, ..., bn이 선형이라는 뜻이다. 비선형의 예시 y = (b0 + b1 * x1) / (b2 * x2) 2022. 4. 24.
[회귀 - 10] 후진 소거법 (Backward Elimination) 회귀 모델을 후진 소거법을 통해 만들어볼 것이다. regressor = lm(formula = Profit ~ R.D.Spend + Administration + Marketing.Spend + State, data = dataset) summary(regressor) [회귀 - 9]와 다르게 Profit ~ 이후 모든 독립 변수들을 적어준 이유는 후진 소거법을 통해 독립 변수들을 지워줄 것이기 때문이다. 신뢰 수준은 0.05으로 진행하겠다. State2의 p-value를 보면 0.990(99%)로 통계적으로 무의미한 것을 알 수 있다. 정석적인 후진 소거법에 의하면 독립 변수를 1개만 지워야하지만, State3의 p-value 또한 0.943(94%)로 역시 무의미할 것을 예측할 수 있으므로 2개를 모.. 2022. 4. 24.