Subject : 深層学習(Deep Learning)
カテゴリー : 情報産業・技術
深層学習(ディープ・ラーニング)
-
多層化したニューラル・ネットワークを用いることで、より高度な能力を実現する機械学習の手法のひとつです。
典型的なニューラルネットワークは、3層構造がよく挙げられ、入力層、中間層、出力層から構成されていますが、深層学習は、その層の数がさらに多くなっているということを指しています。
ディープラーニング(深層学習)とは、機械学習の手法の1つ。「分けるための軸を自分で見つけることができる」ものを言います。
十分なデータ量があれば、機械が自動的に特徴を抽出してくれ、特に画像認識の領域でよく用いられています。
層の多いニューラルネットワークはDNN(Deep Neural Network)と呼ばれます。層が多いのは、数百層、数千層のものもあります。ただし、層が多ければ、多いほど良いというわけではりません。結果とコストパフォーマンスが判断の基準となります。
深層学習のネットワークモデルには様々な種類があります。
- ● 畳み込みニューラルネットワーク(Convolutional Neural Network)
-
全結合していない順伝播型ニューラルネットワークの一種。特に2次元の畳込みニューラルネットワークは人間の視覚野のニューロンの結合と似たニューラルネットワークであり、人間の認知とよく似た学習が行われることが期待される。結合がスパース(疎)であるため、全結合しているニューラルネットワークに比べて学習が高速である。
- ● 回帰型ニューラルネットワーク(Recurrent Neural Network)
-
有向閉路を持つニューラルネットワークのこと。それ以前の入力によって変化する状態を保持する(オートマトン)。動画像、音声、言語など、入力データの順序によって出力が変わる場合に有効である。
- ● 敵対的生成ネットワーク(Generative Adversarial Networks)
-
2つのニューラルネットワークを互いに競わせて入力データの学習を深めていく
- ● オートエンコーダ(Auto Encoder)
-
オートエンコーダ(自己符号化器)とは、ニューラルネットワークの1つです。入力されたデータを一度圧縮し、重要な特徴量だけを残した後、再度もとの次元に復元処理をするアルゴリズムを意味します
- ● Long short-term memory(LSTM)
-
リカレントニューラルネットワークの一種であるLong short-term memory(LSTM)の存在感が増してきています。LSTMは現在Google Voiceの基盤技術をはじめとした最先端の分野でも利用されていますが、その登場は1995年とそのイメージとは裏腹に歴史のあるモデルでもあります
⇒
[メニューへ戻る]
[カテゴリー一覧]
[HOMEへ戻る]
[前のページに戻る]