|
===================================== 〔語彙分解〕的な部分一致の検索結果は以下の通りです。 ・ 自己 : [じこ] 【名詞】 1. self 2. oneself ・ 己 : [き, つちのと] 【名詞】 1. 6th in rank 2. sixth sign of the Chinese calendar ・ 組 : [くみ] 【名詞】 1. class 2. group 3. team 4. set ・ 組織 : [そしき] 1. (n,vs) (1) organization 2. organisation 3. (2) structure 4. construction 5. (3) tissue 6. (4) system ・ 組織化 : [そしきか] 1. (n,vs) organization 2. organisation 3. systematization 4. systematisation ・ 織 : [おり] 【名詞】 1. weave 2. weaving 3. woven item ・ 化 : [か] (suf) action of making something
自己組織化写像(じこそしきかしゃぞう、)はニューラルネットワークの一種であり、大脳皮質の視覚野をモデル化したものである。 自己組織化写像はコホネンによって提案されたモデルであり、教師なし学習によって入力データを任意の次元へ写像することができる。 主に1~3次元への写像に用いられ、多次元のデータの可視化が可能である。 出力となる空間をマップ(map)、競合層(competitive layer)、もしくは出力層(output layer)と呼ぶ。 出力層に対して入力データの空間を入力層(input layer)と呼ぶこともある。 自己組織化写像はコホネンマップ(Kohonen map)、コホネンネットワーク(Kohonen network)、自己組織化マップ、ソム(SOM)などと呼ぶこともある。 自己組織化写像は複数の人工ニューロン(artificial neuron)が接続された構造である。 この人工ニューロンはノード(node)、もしくはユニット(unit)と呼ぶこともある。 == 定性的紹介 == 自己組織化写像は入力層と競合層(出力層)からなる2層構造の教師なし学習ニューラルネットワークである。 入力層は単に入力を与えるだけであるため、競合層のみを単に自己組織化写像と呼ぶこともある。 入力は次元の数値データであり、出力は競合層に配置されたノードとなる。 各ノードは次元空間上に配置され、それぞれのノードに入力データの次元と同じ次元のベクトルが対応付けられている。 この対応付けられたベクトルのことを重みベクトルと呼び、この重みベクトルを更新することで学習が行われる。 競合層のノード配置の次元は自由に設定できる。 最も基本的な利用法は、2次元上にノードを配置し、高次元データを学習させることで高次元データの関係性を可視化するというものである。 このように、自己組織化写像は高次元のデータ間に存在する非線形な関係を簡単に幾何学的関係を持つ像に変換することができる。 現在、自己組織化写像には様々なバリエーションがあり、従来の自己組織化写像を基本SOM(Basic SOM, BSOM)と呼ぶことがある。 しかし、BSOMという略し方は後述するバッチ学習SOM(Batch Learning SOM, BL-SOM)と混同しかねないため望ましくない。 抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)』 ■ウィキペディアで「自己組織化写像」の詳細全文を読む 英語版ウィキペディアに対照対訳語「 Self-organizing map 」があります。 スポンサード リンク
|