変分法に感動

最近通勤電車の中でビショップのPRMLの訳本を読んでます。理解力が遅い事もあってまだまだ最初の方なのですが、この本は本当に良いです。はなから目から鱗が落ちっぱなしな感じです。特に今日読んだ変分法を使って、期待損失を最小化する回帰関数の形を導入するところ(pp. 45-46)を見て久々に「おぉー」と感動してしまいました。最近プラクティカルであることを最も重要視している(ため、どちらかというと理論よりも実践に重きをおいている)自分ですが、こういうことに面白さを感じる気持ちはまだまだ残っているんだなぁと改めて気がつきました。

変分法は物理専攻の学部2年生だった頃に物理数学で勉強したのが始めてのことで、物理数学は厳密で退屈な定式化から始まることと、何に役に立つかの見通しが自分にとってはわからなかったことがあり、正直あまり興味が持てないでいました。結局そこで学んだ変分法は次の3年生で履修する解析力学で役に立ったのですが、Newton eq と等価な Lagrange eq をエレガントな方法で導きだす際に使いました。このあたりは演習の授業があって、かなり苦労して(というか実のところは同期の優秀な奴の力を最大限に利用して)数式を色々といじった記憶があります。それはそれでなるほどと感心した記憶がありますが、この数学的に洗練された表現を使う目的はさらに次の4年生で履修する量子力学を理解するのに必要となり、・・・というわけで元々変分法を学習してから最終的な目的に行き着くまでに随分と高い壁というかステップがありました。それすら素粒子物理学の入り口に過ぎないわけですから理論物理の道は本当に険しいです。恐らくその壁をすんなりと越えられないと物理学者になる資格はないのだと思うのですが、案の定自分は量子力学は必修なので履修はしたもののどうもよくわからずじまいで、それよりは計算機シミュレーションや研究室内LANに心を奪われてしまい現在に至る訳ですが、今になって振り返ってみると物理学者になるかならないかはともかく、変分法(とその他諸々の物理数学)が必要となる全体的なビジョンや見通しがつかめていれば、もうちょっとモチベーションもあがり、勉学に身に入っただろうなと思った次第です。授業の合間に先生はそういうことを口頭で言っていたのかもしれないですけどね。まぁそういうのは全然聞いていない口でした。

今日読んだ箇所では変分法が比較的平易に説明されているだけでなく(といいつつ自分は厳密な部分は無視し、実際の計算も実際に手を動かしたわけではないので理解した気になっているだけなのですけど)、損失の期待値を最小にするような回帰関数は、所与の x に対し、その x に対応する観測値 t の条件付き平均値となるという、とても直感的な結果をエレガントに導きだしていること、そして個人的には記憶の遥か彼方にあった変分法がこんなところで役に立つんだということにとても感動を覚えました。付録Dの内容も Euler motion eq そのものでしたが、久々に物理の楽しさの片鱗を思い出しました。ビショップ氏は元々物理の出身みたいですので、この説明はそのあたりのバックグランドが反映されているのでしょうね。

もちろんこの例はこの本の序の口に過ぎなくて、登っていった先にはさらなる見通しの良い高見があるのだと想像していますが、そうやすやすとは登れないと思います。幸いな事に訳者陣がとても優秀であることと教育的なこともあって原本にない途中の式変形なども掲載されていますので、そこは大きな助けになると思います。当初は原書を買おうと思っていたのですが、これは訳本を選択して良かったと思います。
そして今日「面白い!」と思った気持ちを忘れずに地道にちょっとずつ登っていこうと思います。それと決してすべてを登り切らなくても随所に役に立つ情報がありますので、そのあたりを今やっている仕事で実践していこうと思っています。

パターン認識と機械学習 上 - ベイズ理論による統計的予測

パターン認識と機械学習 上 - ベイズ理論による統計的予測

パターン認識と機械学習 下 - ベイズ理論による統計的予測

パターン認識と機械学習 下 - ベイズ理論による統計的予測