|
===================================== 〔語彙分解〕的な部分一致の検索結果は以下の通りです。 ・ 逐次 : [ちくじ] 1. (adv) successively 2. one after another ・ 次 : [つぎ] 1. (n,adj-no) (1) next 2. following 3. subsequent 4. (2) stage 5. station ・ 最 : [さい] 1. (n,pref) the most 2. the extreme ・ 最小 : [さいしょう] 【名詞】 1. smallest 2. least ・ 問 : [もん] 【名詞】 1. problem 2. question ・ 問題 : [もんだい] 【名詞】 1. problem 2. question ・ 題 : [だい] 1. (n,vs) title 2. subject 3. theme 4. topic ・ 最適 : [さいてき] 1. (adj-na,n) optimum 2. the most suitable ・ 化 : [か] (suf) action of making something ・ 法 : [ほう] 1. (n,n-suf) Act (law: the X Act)
逐次最小問題最適化法(, SMO)はサポートベクターマシン(SVM)の訓練で生じる(QP)を解くためのアルゴリズムである。1998年にマイクロソフトリサーチのによって発明された。SMOはサポートベクターマシンの訓練のために広く使われ、人気のLIBSVMツールによって実装される〔Luca Zanni (2006). ''Parallel Software for Training Large Scale Support Vector Machines on Multiprocessor Systems ''.〕。以前から利用できたSVM訓練法はより一層複雑で、高価なサードパーティのQPソルバーを必要としたので、1998年のSMOアルゴリズムの公表はSVMコミュニティでたくさんの興奮を引き起こした。 == 最適化問題 == データセット (''x''1, ''y''1), ..., (''x''''n'', ''y''''n'') に関する二項分類問題を考える。ここで ''x''''i'' は入力ベクトル、はそれに対応する2値ラベルである。ソフトマージンサポートベクターマシンは以下の双対問題で表される2次計画問題を解くことによって訓練される: ここで ''C'' は SVM hyperparameter、''K''(''x''''i'', ''x''''j'') はで、どちらもユーザが与える。変数 はラグランジュ乗数である。 抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)』 ■ウィキペディアで「逐次最小問題最適化法」の詳細全文を読む スポンサード リンク
|