確率的勾配降下法(機械学習)

機械学習において、確率的勾配降下法とは、以下の手順で機械学習モデルを最適化する勾配降下法のことです。

1. 機械学習モデルを特徴付けるパラメーター(重みやバイアスなど)の初期値を設定します。

2. 機械学習モデルの性能を評価するために、損失関数を定義します。

3. 訓練データからランダムに一つのデータを選びます。

4. 選んだデータに対して、各パラメーターに対する損失関数の勾配を計算します。

5. この勾配に学習率を掛けた値をパラメーターから引きます。

6. 訓練データが1周するまで手順3〜5を繰り返します。

7. 損失関数の値の変化が非常に小さくなるまで手順6を繰り返します。

確率的勾配降下法のメリット

確率的勾配降下法では、一つの訓練データごとにパラメーターを更新するため、高速に機械学習モデルの最適化ができ、局所的な最適解に陥りにくい傾向があります。

確率的勾配降下法のデメリット

確率的勾配降下法では、更新の度に、一つの訓練データに偏ったパラメーター更新がなされるため、収束に時間が掛かる場合があります。