본문 바로가기
AI_basic/ML

규제가 있는 선형 모델

by hits_gold 2022. 7. 28.
반응형

 1.  릿지 회귀

ridge regression loss function

     ->      학습 알고리즘을 데이터에 맞추면서 모델의 가중치가 가능한 작게 유지하려고 함

     ->      규제항은 훈련하는 동안에만 비용 함수에 추가되고, 모델의 성능은 규제가 없는 성능 지표로 평가함

     ->      a는 모델을 얼마나 많이 규제할지 조절하는데, 0이면 선형회귀와 같아짐

릿지 규제를 사용한 선형회귀와 다항회귀

 2. 라쏘 회귀

Lasso regression loss funcion

       ->  덜 중요한 특성의 가중치를 제거하려고 하는 경향 (가중치를 0으로 만듬)

       -> 자동으로 특성을 선택하여 sparse model을 만듬 (0이 아닌 특성의 가중치가 적음)

 

라쏘 규제를 사용한 선형회귀와 다항회귀

 

3. 엘라스틱넷  (라쏘 + 릿지 = 쏘릿)

 

elasticnet loss function

  ->  r을 통해 라쏘와 릿지 회귀의 혼합 비율을 조절함

 

      1)  일반적으로 규제가 약간있는 것이 대부분의 경우에 좋아 평범한 선형 회귀는 피하는 것이 좋음

      2)  기본적으로? -> 릿지

      3) 특성이 몇 개뿐이라고 의심될 때는 -> 라쏘 or 엘라스틱넷

     4) 특성 수가 훈련 샘플 수보다 많거나 특성 몇 개가 강하게 연관되어 있을 때는 라쏘 < 엘라스틱넷

 

4.  로지스틱 회귀 (이거 분류라고~)

 

로지스틱 함수

   -> 선형회귀처럼 결과를 출력하지 않고 로지스틱을 출력함

  -> 확률값에 의해 분류 클래스 예측

 

 

 

5. 소프트맥스 회귀

   

Softmax function

    -> 소프트맥스 함수를 통해 각 클래스별 확률값 계산

    -> 다중 클래스 분류를 지원하도록 일반화되어 다항 로지스틱 회귀라고도 함

cross entropy loss function

      -> 크로스 엔트로피 함수를 Loss function으로 이용

      -> 타깃 클래스에 대해 낮은 확률을 예측하는 모델을 억제함

       -> 딥러닝 모델에서 소프트맥스 함수 + 크로스엔트로피 함수 => 오차역전파시 loss를 그대로 전달할 수 있음 찰떡궁합임

   

반응형