機械学習のための連続最適化

機械学習のための連続最適化

金森敬文, 鈴木大慈, 竹内一郎, 佐藤一誠

2016年12月 発行

どんな本?

「損失関数を最小化したい」と意気込んだはいいが、なぜ勾配降下法がそこで止まるのか説明できない——そんな"なんとなく動いてる民"に刺さる一冊。ニュートン法や準ニュートン法の仕組みを丁寧に掘り下げてくれるので、読後はオプティマイザの引数をフィーリングで選ぶ習慣から卒業できます。ヘッセ行列の計算コストが高いから近似する、その「なぜ」が腑に落ちた瞬間、これまでのハイパーパラメータ探しがいかに勘頼みだったかを静かに思い知らされます。数学から逃げてきたツケを、ここで払う。

注目の引用記事