ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 서포트 벡터 머신
    기계학습 2021. 10. 15. 15:10

    선형 SVM

    Support Vector Machine

    • 분류 문제에서 일반화(generalization)능력이 입증되어 머신러닝 알고리즘에서 인기가 높다
    • 선형 또는 비선형 분류뿐만 아니라 회귀, 이상치 탐색에도 사용된다.
    • 복잡한 분류 문제와 잘 맞고, 중간 크기의 데이터 셋

    소프트 마진 SVM

    • Support vectors가 위치한 경계선에 여유를 두자
    • 여유 변수 (Slack Variable)
    • C 라는 하이퍼파라미터 제공(penalty)

    Slcak 변수와 규제

    • C 값을 줄이면 오류를 허용하는 정도가 커지며 , Margin 또한 커진다
    • C 값을 크게하면 오류를 허용하는 정도가 작아지며 , Margin 또한 작아진다

    비선형 SVM

    • 선형적으로 분류할 수 없는 데이터 셋이 존재한다.
    • 다항 특성과 같은 특성을 추가

    다항 특성 사용한 SVM

    다항 특성을 사용해서 표현한다.

    커널 트릭 사용

    다항식 특성들이 추가되면 모델 속도가 느려진다. 속도 저하를 해결하기 위해 커널 트릭을 이용한다.

    SVM 회귀

    • 분류와 반대
    • 마진의 밖이 오류에 해당 , 마진 안쪽으로 최대한 많은 데이터들이 포함되도록

    선형 회귀

    비선형 획귀

    SVM 이론

    여백(margin)의 크기는 일반화하고 관련이 있다.

    마진을 최대화 하는 결정 초평면을 찾는 것이 목표이다.

    • 3번이 두 클래스를 잘 나누고 있다.
    • wx + b =0 이 구간은 나눈는 경계선이다.

    w : 초평면의 법선의 벡터
    b : y절편

    Margin

    목표

    마진을 가장 크게 하는 결정 초평면을 찾는 것이다.

    w 를 찾는 것이 목표

    손실 함수

    최대 마진을 구하는 문제에 역수를 취해 최소화 문제

    Soft margin

    Soft Margin SVM

    Slack 변수를 추가한 소프트 마진의 목적함수(min뒤에 나온 부분이다.)

    소프트 마진의 제약식

    Kernel SVM

    • 선형으로 분리되지 않는 데이터를 비선형 매핑
    • 저차원에서 고차원으로의 매핑을 통해 해결한다.

    두개의 벡터(데이터)를 입력을 가진다.

    k(a,b) 형태이다.

    L 공간 상의 두 벡터 a 와 b 를 입력 변수로 갖는 커널 함수 K( a,b ) 는 K( a,b )=Φ(a) Φ(b)를 만족하는 매핑 함수 Φ(⋅) 가 존재해야 함

    2차 다항식 매핑

    '기계학습' 카테고리의 다른 글

    비지도 학습  (0) 2021.11.12
    트리 알고리즘  (0) 2021.10.29
    분류 알고리즘  (0) 2021.10.01
    머신 러닝 만들기 - 선형 회귀  (0) 2021.09.24
    머신러닝 만들기 - K최근접 이웃회귀  (0) 2021.09.24

    댓글

Designed by Tistory.