序列最小優化算法

序列最小優化算法(英語:Sequential minimal optimization, SMO)是一種用於解決支持向量機訓練過程中所產生優化問題的算法。SMO由微軟研究院約翰·普萊特英語John Platt於1998年發明[1],目前被廣泛使用於SVM的訓練過程中,並在通行的SVM庫LIBSVM中得到實現。[2][3] 1998年,SMO算法發表在SVM研究領域內引起了轟動,因為先前可用的SVM訓練方法必須使用複雜的方法,並需要昂貴的第三方二次規劃工具。而SMO算法較好地避免了這一問題。[4]

序列最小優化算法
概況
類別訓練支持向量機的優化算法
複雜度
最壞時間複雜度O(n³)
相關變量的定義

問題定義 編輯

SMO算法主要用於解決支持向量機目標函數的最優化問題。考慮數據集 的二分類問題,其中 是輸入向量, 是向量的類別標籤,只允許取兩個值。一個軟間隔支持向量機的目標函數最優化等價於求解以下二次規劃問題的最大值:

 
滿足:
 
 

其中, 是SVM的參數,而 核函數。這兩個參數都需要使用者制定。

算法 編輯

SMO是一種解決此類支持向量機優化問題的迭代算法。由於目標函數為凸函數,一般的優化算法都通過梯度方法一次優化一個變量求解二次規劃問題的最大值,但是,對於以上問題,由於限制條件 存在,當某個  更新到 時,上述限制條件即被打破。為了克服以上的困難,SMO採用一次更新兩個變量的方法。

數學推導 編輯

假設算法在某次更新時更新的變量為  ,則其餘變量都可以視為常量。為了描述方便,規定

 
 

因而,二次規劃目標值可以寫成

 

由於限制條件 存在,將 看作常數,則有 成立( 為常數)。由於 ,從而  為變量  )。取 為優化變量,則上式又可寫成

 

 偏導以求得最大值,有

 

因此,可以得到

 

規定誤差項 ,取 ,並規定 ,上述結果可以化簡為

 

再考慮限制條件  的取值只能為直線 落在 矩形中的部分。因此,具體的SMO算法需要檢查 的值以確認這個值落在約束區間之內。[1][5]

算法框架 編輯

SMO算法是一個迭代優化算法。在每一個迭代步驟中,算法首先選取兩個待更新的向量,此後分別計算它們的誤差項,並根據上述結果計算出  。最後再根據SVM的定義計算出偏移量 。對於誤差項而言,可以根據   的增量進行調整,而無需每次重新計算。具體的算法如下:

1 随机数初始化向量权重 ,并计算偏移 
2 初始化误差项 
3 选取两个向量作为需要调整的点
4 令 
5 如果 
6     令 
7 如果 
8     令 
9 令 
10 利用更新的  修改  的值
11 如果达到终止条件,则停止算法,否则转3

其中,   的下界和上界。特別地,有

 

這一約束的意義在於使得  均位於矩形域 中。[5]

優化向量選擇方法 編輯

可以採用啟發式的方法選擇每次迭代中需要優化的向量。第一個向量可以選取不滿足支持向量機KKT條件的向量,亦即不滿足

 

的向量。而第二個向量可以選擇使得 最大的向量。[5]

終止條件 編輯

SMO算法的終止條件可以為KKT條件對所有向量均滿足,或者目標函數 增長率小於某個閾值,即

 [5]

參考資料 編輯

  1. ^ 1.0 1.1 Platt, John, Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines, 1998 [2010-12-03], (原始內容存檔於2012-10-15) 
  2. ^ Chih-Chung Chang and Chih-Jen Lin (2001). LIBSVM: a Library for Support Vector Machines頁面存檔備份,存於網際網路檔案館.
  3. ^ Luca Zanni (2006). Parallel Software for Training Large Scale Support Vector Machines on Multiprocessor Systems頁面存檔備份,存於網際網路檔案館.
  4. ^ Rifkin, Ryan, Everything Old is New Again: a Fresh Look at Historical Approaches in Machine Learning, Ph.D. thesis, 2002: 18 [2010-12-04], (原始內容存檔於2012-03-14) 
  5. ^ 5.0 5.1 5.2 5.3 Tsang, I. W.; Kwok, J. T.; Cheung, P. M., Core Vector Machines: Fast SVM Training on Very Large Data Sets, Journal of Machine Learning Research (6), 2005, (6): 363–392 [2010-12-06], (原始內容存檔於2016-03-05) 

參見 編輯