chakokuのブログ(rev4)

テック・コミック・DTM・・・ごくまれにチャリ

Cloud,Smart,BigDataときて、今はDeep Learning(DL)でつか

新聞で取り上げられていたのだけど、今の時代はDeep Learningだそうで。。かつてAIが夢の新技術(フロンティア)と信じられていた幸せな時代があったけど(その頃自分は高校→大学)、AIは結局何も生み出せず*1、第5世代コンピュータの失敗とかもあり、エンジニアにとって、人口知能とかAIという用語を安易に口にすること自体が恥ずかしい時代に入った。
自分の理解では当時は認知心理学の協力も得て、ある程度人間のしくみを解明しようという理学的アプローチにも基づいて研究がなされたものの、複雑系の脳味噌をシンボリックにモデル化するのは限界があり*2、結局成果が出なくなったと理解しています。
それから時代が流れ、コンピュータの計算性能と記憶性能の大幅な増進により、脳の原理原則は分からずとも、内部の動きはブラックボックスとしておいといて、入力と出力さえ適合すればよしという工学的アプローチで、大量の入出力を集めてきて、それぞれの状況にパターンマッチさせて最適な出力を選択することで、あたかも人間のような知的処理をしているように動かすことが可能になった(と自分は理解しています)。
DLもこの技術の延長線上で(人間の脳ってどうやって動いてるんだろう?というのは考えず)、大量の入出力に基づき最適解を計算して生成していると思える。仕組みを実現するアプローチはどうであれ、工学的な観点では、人間の脳の働きに基づいてなくても、当初の目的(要求仕様)が実現できればOKとは思う。
人の頭の中も、本質的には実はこういった大量のSR(刺激と反応)のルールだけで成り立っていて、種が生き残るのに適したSRルールだけが強化学習されているだけなのかもしれない。人間なんて刺激と反応だけの生き物なんですよというと気持ち悪くて落ち着かないので、ロジックとかセオリーとか倫理とか道徳etcを後付けで作っているだけなのかも。。
人の本質はSRであって、今のブラックボックス的アプローチは実は本道なのかも。だから、、脳の知的に見える働きをモデル化しようとしたり、分析的アプローチで取り組んでも最後はニューロンの動きまで行ってしまい、結局何も分からず仕舞なのかも。

いちエンジニアとしてあまりに諦めすぎですかね。。

■いきなり訂正
Deep Learningググると、大脳皮質とかいうキーワードも出てきて、ある程度脳味噌の働きも参考にしているようです。すみません、よく調べもせずにブラックボックスだと言いましたが訂正します。自分が若いころだったら、これは素晴らしい技術だ!と希望に燃えて飛びついていたのだろうか。。

■追記(140621)
Deep Learningの基礎技術はニューラルネットの学習の性能上限(過学習?)を超える新しい学習手法(スパースオートエンコーダとプレトレーニング?)が元になっているそうで、大量のデータを使ってブラックボックス的な工学的アプローチというのはさらに間違いでした。すみません。思い込みで話すものではありませんね。。いろいろ読んでると、Googleの猫の話も、ディープラーニングができるように改良されたニューラルネットに大量の画像を見せて、画像の差異を特徴点として認識できるようになり、最終的に猫を識別でるようにニューラルネットの各ノードのパラメータが収束したということなのかと思っていますけど。。


■参考資料
勝手にリンク:
情報論的学習理論と機械学習 (IBISML) 研究会
企画セッション2「ディープラーニング
http://ibisml.org/archive/ibis2013/pdfs/ibis2013-okatani.pdf

*1:コンパイラとか、自然言語処理とか、音声認識や画像認識とか成果あったにせよ、人間って何なのか?自我って何なのか?は分からずじまいと自分は理解しています

*2:非シンボリズムとしてニューロ・ファジーってのありましたけど