|
===================================== 〔語彙分解〕的な部分一致の検索結果は以下の通りです。 ・ 近傍 : [きんぼう] 【名詞】 1. neighborhood 2. neighbourhood ・ 傍 : [わき] 【名詞】 1. side 2. besides 3. while ・ 法 : [ほう] 1. (n,n-suf) Act (law: the X Act)
''k''近傍法(ケイきんぼうほう、)は、特徴空間における最も近い訓練例に基づいた分類の手法であり、パターン認識でよく使われる。最近傍探索問題の一つ。k近傍法は、インスタンスに基づく学習の一種であり、怠惰学習 (lazy learning) の一種である。その関数は局所的な近似に過ぎず、全ての計算は分類時まで後回しにされる。また、回帰分析にも使われる。'k''近傍法(ケイきんぼうほう、)は、特徴空間における最も近い訓練例に基づいた分類の手法であり、パターン認識でよく使われる。最近傍探索問題の一つ。k近傍法は、インスタンスに基づく学習の一種であり、怠惰学習 (lazy learning) の一種である。その関数は局所的な近似に過ぎず、全ての計算は分類時まで後回しにされる。また、回帰分析にも使われる。 'k''近傍法(ケイきんぼうほう、)は、特徴空間における最も近い訓練例に基づいた分類の手法であり、パターン認識でよく使われる。最近傍探索問題の一つ。k近傍法は、インスタンスに基づく学習の一種であり、怠惰学習 (lazy learning) の一種である。その関数は局所的な近似に過ぎず、全ての計算は分類時まで後回しにされる。また、回帰分析にも使われる。 == 概要 == ''k''近傍法は、ほぼあらゆる機械学習アルゴリズムの中で最も単純である。あるオブジェクトの分類は、その近傍のオブジェクト群の投票によって決定される(すなわち、''k'' 個の最近傍のオブジェクト群で最も一般的なクラスをそのオブジェクトに割り当てる)。''k'' は正の整数で、一般に小さい。''k'' = 1 なら、最近傍のオブジェクトと同じクラスに分類されるだけである。二項分類の場合、''k'' を奇数にすると同票数で分類できなくなる問題を避けることができる。 同じ手法は回帰分析に使われる。この場合、オブジェクトの属性値を ''k'' 個の最近傍のオブジェクト群の属性値の平均値とする。より近いオブジェクトに大きく重み付けすることもできる。 近傍のオブジェクトは、正しい分類が判っているもの(あるいは回帰分析の場合、属性値が判っているもの)から選ばれる。これをアルゴリズムの訓練例と考えることもできるが、明確な訓練段階は不要である。近傍を選ぶにあたって、各オブジェクトは多次元の特徴空間における位置ベクトルで表される。通常、ユークリッド距離を使うが、マンハッタン距離などの他の距離も原理的には使うことができる。''k''近傍法は、データの局所的構造に左右されやすい。 抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)』 ■ウィキペディアで「K近傍法」の詳細全文を読む スポンサード リンク
|