「少し変えたら結果がどれだけ変わるか」を測るのが微分。坂道の傾きを瞬間瞬間で測定する。この単純なアイデアが、ニューラルネットワークの学習を可能にしている。損失関数の「どちらに動けば良くなるか」を知る手段、それが微分である。
微分 導関数 傾き 極値 変化率
微分とは
導関数(Derivative)
関数 f(x) の導関数 f'(x) は:
f'(x) = lim[h→0] (f(x+h) - f(x)) / h
x における瞬間的な変化率(傾き)を表す。
記法:f'(x)、df/dx、∂f/∂x
直感的には、グラフ上のある点における接線の傾き。
基本的な導関数
| 関数 f(x) | 導関数 f'(x) | 備考 |
|---|---|---|
| c(定数) | 0 | 定数は変化しない |
| x | 1 | 傾き1の直線 |
| xⁿ | nxⁿ⁻¹ | べき乗則 |
| eˣ | eˣ | 自分自身(指数関数の特殊性) |
| ln(x) | 1/x | 対数関数 |
| sin(x) | cos(x) | 三角関数 |
| cos(x) | -sin(x) | 三角関数 |
微分の規則
和の微分
(f + g)' = f' + g'
積の微分(Product Rule)
(fg)' = f'g + fg'
商の微分(Quotient Rule)
(f/g)' = (f'g - fg') / g²
極値と最適化
導関数 = 0 となる点は、関数の極大値または極小値の候補。
極値の条件
f'(x) = 0 かつ
f''(x) > 0 → 極小値
f''(x) < 0 → 極大値
機械学習の目標は、損失関数の極小値(理想的には最小値)を見つけること。
実務での応用
WEB開発での応用
アニメーション:位置の時間微分 = 速度、速度の時間微分 = 加速度。
イージング関数:ease-in-out は微分すると滑らかな速度変化。
数値微分:差分近似 (f(x+h) - f(x)) / h で傾きを計算。
AI/MLでの応用
勾配降下法:損失関数の微分(勾配)の逆方向にパラメータを更新。
自動微分:PyTorch, TensorFlow が自動で導関数を計算。
感度分析:入力の変化が出力にどう影響するかを微分で評価。
深掘りリンク
- Wikipedia: 微分
- 動画:3Blue1Brown「微積分の本質」シリーズ
- 書籍:「解析入門」杉浦光夫
- 次のステップ:偏微分、多変数関数の最適化