공부 정리 블로그

선형 SVM 본문

대학원 수업/패턴인식

선형 SVM

따옹 2022. 12. 18. 20:21

 

선형 SVM

 

라그랑제 multipier 도입

 

선분과 sample 사이에 속하는 margin

각각의 class에 있는 sample들과 만나게 되는 처음 sample => support vector

여백을 가장 크게하는 w를 찾아라 => 최적화 문제

d(x) 정규화시켜 거리가 1로 정규화 시킴

 

(sample, class)

 

w역수를 취해서 최소화

*해의 유일성

아래로 볼록이므로 해는 유일

구한 해는 전역 최적 점 보장

*문제의 난이도

N개의 선형 부등식을 조건으로 가진 2차 함수의 최적화 문제

조건부 최적화 문제는 라그랑제 승수로 푼다(lagrange multiplier)

 

 

w, b에 대해 구함 / 최적화 => 최댓값(Wolfe 듀얼)
3가지 조건을 만족하도록 풀면 최솟값을ㅇ 나타내는 theta를 찾을 수 있음
t : label / x : sample

 

ㅈWolfe 듀얼로 최댓값을 구하는 문제로 변환

부등식  조건이 등식 조건이 되어 풀기 유리해짐

 

=> (x1+x2)**2 = x1x1 + x1x2 + x2x1 + x2x2

=> (a1t1x1 .... antnxn)

 

 

1. 최대화 문제로 바뀜 (2차 함수)

2. w와 b 사라짐(라그랑제 a를 찾는 문제가 됨

3. 특징 벡터 x가 내적 형태로 나타남(비선형으로 확장 발판)

4. 목적 함수의 두번째 시그마 항은 N**2개의 항을 갖는다.

 

지금까지의 과정 정리

예시

x1= (2,3)t , t1 =1

x2 = (4.1)t, t2 = -1

 

 

slack 변수 추가하여 식 변형

선형분리 불가능한 상황

슬랙 변수를 도입하여 하나의 식으로 표현

 

선형 SVM에 비해 C만 추가로 생김 (Cost factor) / 최소화 문제이기 때문에 C가 커지면 slack변수 항이 작아져야 하고, C가 작아지면 slack변수 항이 커짐

C작으면 오분류 허용  ( c-> 0 : error 증가) soft margin

C 크면 오분류 허용 x(c->무한대 : error 허용 줄어듦) hard margin

3 :soft margin / 4: hard margin
조건

일반적인 성능을 중요 hard margin : over fiting 이므로 soft margin 이 더 좋은 svm

train 시점에 좋은 성능을 내는 것 보다 test 시 좋은 성능을 내는 것이 더욱 중요 test시점에 오류가 적어지는 방향으로