機械学習のための連続最適化 まとめ
書籍「機械学習のための連続最適化」を読んでいる途中ですが、自分用にまとめます。 1、3、9、10章は個人的に目新しさがなかったので省略。 随時追記予定。
2019/2/10: 2章を加筆、11、12章を追記しました。
機械学習のための連続最適化 (機械学習プロフェッショナルシリーズ)
- 作者: 金森敬文,鈴木大慈,竹内一郎,佐藤一誠
- 出版社/メーカー: 講談社
- 発売日: 2016/12/07
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (3件) を見る
2章:基礎事項
リプシッツ連続
関数がリプシッツ連続であるとは、
が成り立つこと。
一階微分の絶対値が有限とみなすと覚えやすい。
γ平滑
勾配がリプシッツ連続性
を満たすとき、を-平滑関数という。
二階微分が有限。
アフィン包
集合を包むような超平面で次元が最小になるもの
例えば、集合が二次元でものように一次元的に点が並んでいれば、その直線がアフィン包になる。
相対的内点
集合の相対的内点はなどと書かれる。 内点と比較して考えるとわかりやすい。
内点:ε近傍(中心がで半径εの円)がSに含まれるようなε近傍が存在するとき、点を内点という。
相対的内点:アフィン包とε近傍との共通集合が、Sに含まれるようなε近傍が存在するとき、点を相対的内点という。
相対的内点ではアフィン包との共通集合をとっているために、相対的内点ではあるが内点ではない点というのが存在する。 例えば、だが、の制限が有り、点が平面に拘束される場合を考える。この場合、方向にから少し(たとえεでも)ずれると、そこはに属さないため、内点は存在しない。 だが、アフィン包(この場合は平面)とε近傍との共通集合である相対的内点は存在する。
以下の記事は例が豊富でとてもわかりやすい。 seetheworld1992.hatenablog.com
相対的内部の扱いどころは、Wikipedia大先生が詳しい。
相対的内部は(中略)高次元空間内の低次元集合を扱う際にしばしば有用となる
エピグラフ
関数のエピグラフは以下のように定義される、「ある関数の上側の領域」。
凸関数のエピグラフが空集合でないとき、を真凸関数という。 真凸関数であることは、となるが存在することと同値。
By Eli Osherovich - 投稿者自身による作品, CC 表示-継承 3.0, Link
上図はエピグラフ (数学) - Wikipedia)より引用。
エピグラフが閉集合の時、を閉凸関数という。 閉凸関数であることは、凸関数が下半連続であることと同値。
下半連続
下半連続の概念は、Wikipediaの説明と図が理解しやすい。
半連続性(英: semi-continuity)とは、拡張実数値関数(値として[tex] \pm \infty]を取り得る)に対して定義される「連続性」よりも弱い性質である。
By Mktyscn - 投稿者自身による作品, パブリック・ドメイン, Link
上図は、で下半連続である関数を示している。半連続 - Wikipediaより引用。
がで下半連続であることは、数式では次のように書ける。
定義域の全ての点で下半連続となる関数を、下半連続関数という。
共役関数
真凸関数に対して次式で定義される関数のこと。
の接平面の情報を保持している。 双対上昇法で出てくる。
劣微分
勾配の概念を拡張したもの。微分可能とは限らない凸関数にも微分を定義できる。 凸関数が微分可能なら劣微分はその勾配に一致するが、そうでない場合は、劣微分は一般に集合となる。
4章:勾配法の基礎
直線探索
1変数関数の最小値を見つけるための計算法を直線探索法という。
関数値が十分に減少したかを判定するための条件がいくつか提案されている。
- アルミホ条件
- ウルフ条件
- 強ウルフ条件
- ゴールドシュタイン条件
アルミホ条件を用いて直線探索を行う方法の一つが、バックトラッキング法。
ゾーテンダイク条件
この条件が成り立つ関数を最小化する場合、最適化アルゴリズムが設定する降下方向と、目的関数の勾配方向が直交しなければ(ならば)、初期解に依存せずに、目的関数の勾配がゼロベクトルに収束(大域的収束)する。
したがって、最適化アルゴリズムの収束性を議論する際には以下の条件を示すことが多い。
座標降下法
目的関数を、各座標軸に沿って最適化していく手法。
最急降下法
関数を一次近似したときに、関数値が最も減少する方向であるの方向を探索する。
5章:ニュートン法
ニュートン法
おなじみニュートン法。関数を二次近似したときに、関数値が最も減少する方向を探索する。
ただし、ヘッセ行列が正定値でない場合、関数が減少しない。
修正ニュートン法
ヘッセ行列を修正し、確実に目的関数を減少できるようにした方法。
の最小固有値がのとき、をより大きくとれば、正定値性が保証される。
ガウスニュートン法
目的関数が次のように二乗の形で表されるときに使える。 目的関数を一次近似したときの線形最小二乗解の方向へ探索する。 Introduction to Applied Linear Algebraの説明の方がわかりやすい。
レーベンバーグ・マーカート法
ガウスニュートン法とレーベンバーグ・マーカート法の関係は、 ニュートン法に対する修正ニュートン法の関係と同じで、 正定値性を保証する修正を加えたもの。 Introduction to Applied Linear Algebraでは、 別の解釈が紹介されている。 すなわち、ガウスニュートン法で解く線形最小二乗問題の目的関数に、 との距離を小さくするという評価項を加えたものだと説明されている。
自然勾配法
距離構造が、ユークリッド距離でなくヘリンジャー距離で表される場合に用いる最適化手法。 機械学習屋さんは使うんですかね。。
6章:共役勾配法
目的関数が楕円のような形状をしている場合、最急降下法では効率的に最適化できない。 共役勾配法では、座標変換により楕円を真円に補正することで、この課題を解決している。
7章:準ニュートン法
ニュートン法の実行にはヘッセ行列を計算する必要があり、計算コストがかかる。 これを回避するために考えられた、ヘッセ行列を低計算量で模擬する方法が準ニュートン法である。 近似ヘッセ行列(正確にはその逆行列)は、漸化式の形で毎ステップ計算できる。
BFGS法、DFP法
目的関数の勾配:をまわりで1次近似した式を、近似ヘッセ行列が満たすべき拘束条件として扱う。 →セカント条件:式(7.2)
セカント条件を満たす正定値行列のなかで、今の近似行列に最も「近い」ものを次ステップの近似行列とする。
- 定式化:式(7.6)
- 本書では、主にKLダイバージェンスを使って「近さ」を定式化する
- 距離の公理を満たす基準を用いた場合→7.2.3節
距離基準としてKLダイバージェンスを採用した場合の解:BFGS公式、DFP公式:式(7.3), (7.4)
- ダイバージェンスをとる順番で、得られる公式がBFGSかDFPか決まる:式(7.8), (7.9)
- 図示:図(7.1)
- BFGSとDFPは相補的な関係:をBFGSで更新したとき、はDFPで更新されている。したがって、を計算した後にその逆行列を求める、といった回り道はせず、直に欲しい値:を公式で計算すればよい
- 行列の更新則は、座標変換に関して共変的(座標変換してから更新しても、その逆順でも、得られるは同じ)
L-BFGS法
BFGS:の計算量に加え、行列を記憶できるだけのメモリ容量が必要だが、が大きくなったとき、これらは現実的でない。 そこで計算量、必要なメモリ量がともになL-BFGS法が提案されている。 が記憶しておくべきベクトルの本数。 次元が数千の問題に対しては、程度で良好な結果が得られるとのこと。
8章:信頼領域法
信頼領域法ではまず、目的関数をモデル関数(通常、二次関数)で近似する。 次に、この近似が妥当な範囲(信頼領域)内でモデル関数を最適化する。 すなわち、次の2次関数の制約付き最適化問題を逐次解いていく形になる。
信頼領域は繰り返し計算中で一定ではなく、モデル関数が目的関数をよく近似できるようであれば大きくし、そうでないようであれば小さくする。
11章:主問題に対する最適化法
有効制約法
まず、有効制約式について説明する。 有効制約式とは、不等式制約()ありの最適化問題の実行可能解に対して、を満たす制約式の集合をいう。 実行可能解で等式が成り立っていない制約はの近傍では考慮する必要がないため、このような区別は有用である。
それでは、有効制約法の実行手順について説明する。テキストの図11.1を見ると理解が進む。なお、制約は線形不等式制約を仮定する。
- 有効制約を一定に保ったまま(有効な制約の直線上を滑らせ)、目的関数がこれ以上小さくならない点まで解を更新する。
- 有効制約のうちの幾つかを外し、の方向へ解を更新することで目的関数を小さくすることができるのであれば、そのように解を更新する。無理ならそこで終了。
- 手順2で更新する場合、別の制約に引っかかるか、あるいはの最小値を見つけるかするまで解を更新する。別の制約に引っかかった場合は、それを有効制約に加え、1へ戻る。の最小値が見つかったらもちろん終了。
ペナルティ法
目的関数を修正し、制約なし最適化問題として扱う手法。 具体的には、ペナルティ関数と呼ばれる非負値連続関数を目的関数に次のように加える。
等式制約に対してよく用いられるペナルティ関数は制約の二乗和。 ペナルティ関数を絶対値の和とした手法は正確なペナルティ関数法と呼ばれる。 通常のペナルティ法では、を徐々に大きくして最適化問題を繰り返し解く。 だが、を十分に大きくしないと元の問題の最適化問題の解が求まらない一方で、が大きいと最適化が困難になるというジレンマが存在する。 正確なペナルティ関数法では、ある程度大きなパラメータに対して1回だけ最適化を行えば、元の問題の局所解を得ることができる。
バリア関数法
方針はペナルティ法と同じ。 となる境界の点で無限大に発散する罰則項(バリア関数)を目的関数に加える点が異なる。 こちらも最適化問題を繰り返し解くが、ペナルティ法とは違い、途中でイテレーションを止めてもそれまでで最も良い実行可能解が得られるとのこと。つまり、繰り返しは必要ないと思われる。テキスト上に記載はないが。
12章:ラグランジュ関数を用いる最適化法
双対上昇法
主問題を変換し、双対問題を解くことに帰着させた最適化手法。 繰り返し計算の中で、主変数と双対変数(ラグランジュ変数)が交互に更新される。このような手法は主双対法と呼ばれる。
以下のように目的関数が和の形で表される場合、をそれぞれ独立して動かして最適化すること(双対分解)が可能なため、本手法の有用性が高い。