りおパパの日記

徒然なるままに。ドトールのコーヒーが好きです。

脳・心・人工知能

 甘利俊一先生の「脳・心・人口知能」を読みました。この本、凄いです。さすがに甘利先生だと思いました。何かとても腹落ちする解説でした。専門書のような難しさがなく、極めて概念的にでも数理モデルをベースとしてアプローチしてくれているのがとてもよかったです。これから機械学習に入る人は、まずこの辺から入って全体を大ぐくりに把握してから専門書に行くと良いような気がしました。

・1つのパルスがくると電位をどのくらい上げる(下げる)か、その強さを「シナプスの効率」または「シナプス結合の強度」という。強度が強いほど、効果が高い。脳が柔軟に働くのは、実はこのシナプス結合の強度を必要に応じて自動的に変えていくからである。これを「シナプス可塑性」という。
・脳は極めて柔軟で、いつでも環境に適応するように自分を作りかえる能力、つまり可塑性を持っているからである。
・海馬は空間や事物の関連をシナプス強度の形で記憶する。その後、机などのキーとなる目印がくれば、海馬の関連するニューロンがそれを手がかりに発火し、記憶が再生できる。だから、発火したままの興奮パターンとして物事を記憶するのではなくて、覚えたパターンを再生する「仕掛け」を静的に蓄えておけばよい。
・人間はありのままの情報を蓄えるのではない。必要な情報を再生して作り出す仕掛けを記憶する。
・海馬は短期記憶を蓄えて、これを長期記憶に移す役目を担っている
・海馬からの情報の転送はいつ起こるのであろうか。これは睡眠時に起こり、整理した情報を送り出している。
・「理解する」とは、その動作の細部の詳細を知ることではない。動作の基本原理を知り、何がくれば何が起こるかを「予測する」ことである。
・もちろん、パーセプトロンには限界がある。しかし、ミンスキーらが用いたパーセプトロンのモデルはあまりに単純で、これをもってパーセプトロンの限界を議論するのは当を得ていない。
・数理工学とは、数学の方法を用いて工学その他の現実世界の仕組みを調べ、できればその本質を数理により解明することを目指している。
・変化を見るには出力関数をパラメータで微分すればよく、アナログ関数 f を用いればこれが微分できるというところがみそである。
・数理脳科学は、脳が実現した原理を単純なモデルを用いて数理的に解明する。
・多くの場合、脳は個々のニューロンに基礎を置きつつも、集団として情報を処理するからである。
・回路が保持できる安定状態が2つあり、どちらを保持するかは過去の履歴で決まる。このような回路を「双安定」という。
・安定回路は、一度励起して高い活動状態に達すると、励起に必要だった外部からの刺激が消えてもこれを保持できる。いい方を変えれば、過去の刺激を記憶として保持できる
・カオスは非線形のダイナミックスによく現れ、脳はこれを活用していると考えられている。
・脳は記憶そのものを蓄えるのではない。これを思い出すための仕掛けを蓄え、ヒントから復元すべき情報を作り出す。だからときには間違えるし、思い出せないことも起きる。思い違いだってある。
・具体的には誤差の2乗を損失関数として、これを wi で微分すれば、どの方向に wi を変えれば誤差が減るかがわかる。この方法でシナプスの重みを変えていけば、誤差の小さいところに落ち着くだろう。
・関数をベクトルのパラメータで微分したものを、関数の「勾配」という
・回路の中の1つのシナプス wi を変える式は、このニューロンへの入力信号と誤差の微分から決まるある信号の積の形に書ける。
・この信号は、出力素子の誤りから逆算して、回路を逆方向に伝搬してそれを経路ごとに足し合わせた形をしている。奇妙で美しい。
・中間層のニューロンの数を増やせば、どんな関数でも計算できる万能機械であることは、ローゼンブラットにはわかっており、1970年代にはアナログパーセプトロンの計算万能性が証明された。
・この難点を解決する方法として、サポートベクトル機械が提案された。
・第2次ニューロブームが終わるにつれ、学習の理論研究も二極化していった。1つは、もっと脳に忠実なモデルを作り、実際の脳における学習の基盤を理論として明らかにする計算論的神経科学である。
・もう1つは、機械の学習に焦点を当て、その一般的な仕組みを明らかにする方向である。例題をもとに学習した機械がその例題にない新しい入力信号に直面したとき、どの程度うまく処理できるかを問う。
・例題をもとに学習したときに、その結果が例題に含まれていないもっと広い範囲の問題に対してどの程度妥当かを論ずることである。これを汎化の問題といい、いわゆる訓練誤差と汎化誤差の関係を調べることになる。
・局面を一段ずつ変える方策を「多段決定過程」という。
マルコフ決定過程での学習戦略は、心理学の言葉を使って「強化学習」と呼ばれる。
・いまの状態から次の状態へ移って、その価値が予想どおりであればよいが、そうでなければ変えなければいけない。このとき、自分の予測とどのくらい違ったか、これが予測の誤差である。予測の誤差を教師信号として使って、これが減る方向に学習を進めていけばよい。これが強化学習である。
ドーパミンは餌に対して出るのではなくて、「予想したよりよかったとき」に出るのである。
・強化学習は、数学的には難しい非線形の確率最適化問題である。脳がこれに似た仕組みを採用して学習を行うということは、大変興味深い。
・本当の脳で自己組織化が起こることは、実験によって確かめられていた。
・ベクトル x があったときに、その成分のほとんどが0であるとしよう。これを「スパースベクトル(疎ベクトル)」といい、0でないものを「活性化した成分」と呼ぶ。
k が小さければ、測定数 n が m よりずっと小さい k log m 程度でも多くの場合解が求まることがわかった。
・脳は、スパース表現の利点を進化の過程で獲得して定着したのかもしれない。
・意識とは、自分がいま何をしようとしているかを自分で知っていることである。こう考えれば、コンピュータに意識を植え付けることは容易であろう。
・将来、人とロボットが共生する社会がくれば、ロボットには人の心の働きを理解して対応して欲しいと私は思う
・私たちの人生は一回限りの掛け替えのないものである。人は誕生し、成長し、そして亡くなる。一回限りの人生を生きる中に、喜びもあり悲しみもある。自分を律してよりよくしようと努力する。人は信念を持ち、自分に誇りを感じる。

脳・心・人工知能 数理で脳を解き明かす (ブルーバックス)

脳・心・人工知能 数理で脳を解き明かす (ブルーバックス)

 

 [DATA]

今月の読書 1冊

1月からの読書 47冊