研究者の卵の卵

決して頭がいいとは言えない大学生が、日々おもったことや学んだことをつらつら書きます。人工知能や脳科学の話が多くなりそうです。

Computational Neuroscienceの受講

Computational Neuroscienceとは

脳科学に関する研究分野の一つで、日本語ではしばしば「計算論的神経科学」と訳されているようです。
Wikipediaでは、

計算論的神経科学(けいさんろんてきしんけいかがく、英語:computational neuroscience)は、脳を情報処理機械に見立ててその機能を調べるという脳研究の一分野である。

という説明がなされています。
あと、英語版の記事では

Computational neuroscience (also known as theoretical neuroscience or mathematical neuroscience) is a branch of neuroscience which employs mathematical models, theoretical analysis and abstractions of the brain to understand the principles that govern the development, structure, physiology and cognitive abilities of the nervous system.

だそうです。

もう少し具体的にいくと、Computational Neuroscienceは、計算論的な議論を用いて、脳がいかにして行動や認知を生み出しているのかを説明することを目標としています。
あえて少し抽象的な説明を持ち出すとすれば、Computational Neuroscienceは我々に、神経システムが

  • 何を しているのかの特徴づけ
  • どのように 働くのかの特定
  • なぜ そう機能するのかの理解

を達成するためのツールと方法を提供してくれるというわけです。

エラそうに説明してみましたが、私も実はComputational Neuroscienceを勉強し始めたばかりで、 上記の説明も受講し始めたばかりのCourseraのコースで先生が仰っていたことの受け売りです。
今回はComputational Neuroscienceは面白いねっていう話と、Courseraの宣伝をしようかと思います。

Courseraについて

こんな記事読んでる時点でほとんどの人がCourseraがナニモノなのかは知っていると思いますが、一応触れておきます。
Courseraはスタンフォード大学Andrew Ng大先生たちが創設した、MOOCプロバイダです。
MOOCってのは、「授業」をオンラインで受講できるサービスのことですね。
Courseraは世界中の有名大学が協賛していて、発祥の地であるスタンフォード大学とか、さらに東へ回るとスコットランドエディンバラ大学の授業なんかも受けたことがあります。
ちなみに創設者のAndrew Ngさんは、機械学習とかディープラーニングを勉強している人にはなじみ深い名前ですよね。

読み物とかレクチャー動画にアクセスするだけなら、無料でもある程度学べる(聴講)のですが、課題にチャレンジしたり修了証を発行してもらうためにはコースごとに学費を払う必要があります。
たとえば、今回受講を開始したComputational Neuroscienceだと50ドルぐらいでしたかね、そんな感じです。

ただ、Courseraさんは私みたいな下流階級出身のしがない貧乏学生のために学資免除という素晴らしい制度を用意してくださっています。
申し込み方は簡単で、学資免除申請のページで指定されたフォームに「なぜ学資免除が必要なのか」「このコースを受講すれば自分のキャリアにどのような効果をもたらすのか」を記入して送信するだけです。
言語には指定がなかったのですが、まぁ日本のサービスではないので一応英語で書いて出しました。
承認を通知するメールが案外あっさりしていて、少し寂しかったですねw

そんなこんなで全額免除を受け、
昨日からワシントン大学が開講しているComputational Neuroscienceに関するコースで勉強を始めたわけです。

講義を受けてみて

とりあえず、「Course Introduction」というセクションのレクチャーを一通り見終わりました。
意識が高いのでちゃんとノートも取りながら見ましたよ。

神経システムの計算論的モデルには「Descriptive Models」「Mechanistic Models」「Interpretive Models」の三つがあって、それぞれ上で紹介した 何をしているのか、 どのように働くのか、 なぜそう機能するのか を知ることに、それぞれ重きを置いているようです。

猫の視覚機能の実験

具体的な例として、Hubel先生とWissel先生の、猫の脳の視覚機能に関する実験について取り上げていました。
猫の後頭部に電極を差し込んで、あるひとつの(?)神経細胞の反応を観測できるようにした状態で、その猫にある映像を見せます。
それが、ディスプレイ上に表れる棒状や面状の光です。
そして、観測されていた一つの神経細胞は、その光の棒が右肩上がり45度になっているときだけ、スパースなスパイクを発生したのです。

受容野という概念の導入

この実験に関する議論をさらに展開し、受容野(Receptive field)という概念を導入しました。
特定の神経細胞に強い反応を生み出す外的刺激の特性という定義で話していました。
そして、この受容野という性質に対し、Descriptive/Mechanistic/Intepretive Modelの例を論じていました。
視覚機能は、網膜・外側膝状体(LGN)・一次視覚野(V1)を信号がフローしていくことで実現していて、
網膜やLGNの神経細胞は、網膜のある部分に点で光を受け取っているかどうかを認知していて、これを単純モデルにしたものをDescriptive Modelのひとつとして論じています。
また、それがV1では、いくつかの点を認識する神経細胞からの情報が統合されて、ある角度で傾く光の棒にだけ反応する猫の神経細胞のような機能が発現している、と説明していました。
その統合の過程がMechanistic Modelの一例ですね。
で、最後には、V1の受容野がなぜそのような形をしているのか、という問いを軸に、
その形がいろんな映像を正しく認知するのに一番合理的だから、という説明をInterpretive Modelの一例として議論しました。

ディープラーニングの考えと比較

要は、脳では、網膜→LGN→V1と信号が流れるにつれて、点→線という風に受容する信号の特性が変わるわけです。
ここで畳み込みニューラルネットワークアルゴリズムを考えてみると、
深い層に信号が流れていくにつれて、信号は 画像→特徴量→クラス分類 とフローしていきます。
システムに対して入力があった時点で、それを統合されたひとつの「画像」として扱う畳み込みニューラルネットワークに対し、
神経科学における視覚機能は、入力をあくまでばらばらの点信号としてとらえ、それが脳内をフローしていくにしたがって統合され、ひとつの画像として認知されるという流れがあるようです。
もともとニューラルネットワークは読んで字のごとく、脳のニューロンの単純モデルからなる機械学習アルゴリズムですが、
意外とアプローチは似て非なるものなんですね・・・。

さいごに

いろいろ書きましたが、まだあと7週間ほどプログラムが残っているので、コツコツ勉強していきたいと思います。
なんか、あんまり授業の内容を詳しく書いていると怒られそうなので、文献を探せば出てきそうな議論を中心に軽くレビューしてみました。
これからは黙って勉強していって、最後の最後で重要なことを備忘録としてまとめるつもりです。
何か面白い話題があればまた書きますね!