支持向量機(jī)(Support Vector Machine,SVM)是一種用于分類問題的監(jiān)督算法。主要用于二分類和多分類問題。其基本思想是找到一個超平面,能夠?qū)⒉煌悇e的樣本點(diǎn)盡可能地分開,并使得離超平面最近的樣本點(diǎn)盡可能遠(yuǎn)離超平面,從而實現(xiàn)較好的分類效果。
SVM的關(guān)鍵是找到一個最優(yōu)的超平面,這個超平面可以通過使得最靠近超平面的樣本點(diǎn)之間的間隔最大化來定義。這些最靠近超平面的樣本點(diǎn)被稱為支持向量。SVM的優(yōu)化目標(biāo)可以表示為一個凸二次規(guī)劃問題,可以通過求解對應(yīng)的拉格朗日函數(shù)來得到最優(yōu)解。
SVM除了能夠處理線性可分離的問題外,還可以通過核函數(shù)的引入處理線性不可分的問題,將樣本映射到高維空間,從而使得在高維空間中變得線性可分。SVM使用鉸鏈損失函數(shù)計算經(jīng)驗風(fēng)險并在求解系統(tǒng)中加入了正則化項以優(yōu)化結(jié)構(gòu)風(fēng)險,是一個具有稀疏性和穩(wěn)健性的分類器。同時,SVM可以通過核方法進(jìn)行非線性分類,是常見的核學(xué)習(xí)方法之一。常見的核函數(shù)包括線性核、多項式核、高斯核等。
超平面與最近的類點(diǎn)之間的距離稱為邊距。最優(yōu)超平面具有最大的邊界,可以對點(diǎn)進(jìn)行分類,從而使最近的數(shù)據(jù)點(diǎn)與這兩個類之間的距離最大化。
例如,H1 沒有將這兩個類分開。但 H2 有,不過只有很小的邊距。而 H3 以最大的邊距將它們分開了。
SVM是一種常見的監(jiān)督學(xué)習(xí)算法,具有很好的泛化能力和較高的分類準(zhǔn)確率。在實際應(yīng)用中,SVM廣泛用于文本分類、圖像識別、生物信息學(xué)等領(lǐng)域。
如有疑問請進(jìn)群交流,點(diǎn)擊鏈接加入群聊【信創(chuàng)技術(shù)交流群】:http://qm.qq.com/cgi-bin/qm/qr?_wv=1027&k=EjDhISXNgJlMMemn85viUFgIqzkDY3OC&authKey=2SKLwlmvTpbqlaQtJ%2FtFXJgHVgltewcfvbIpzdA7BMjIjt2YM1h71qlJoIuWxp7K&noverify=0&group_code=721096495