「少し変えたら結果がどれだけ変わるか」を測るのが微分。坂道の傾きを瞬間瞬間で測定する。この単純なアイデアが、ニューラルネットワークの学習を可能にしている。損失関数の「どちらに動けば良くなるか」を知る手段、それが微分である。

微分 導関数 傾き 極値 変化率

微分とは

導関数(Derivative)

関数 f(x) の導関数 f'(x) は:

f'(x) = lim[h→0] (f(x+h) - f(x)) / h

x における瞬間的な変化率(傾き)を表す。

記法:f'(x)、df/dx、∂f/∂x

直感的には、グラフ上のある点における接線の傾き。

基本的な導関数

関数 f(x) 導関数 f'(x) 備考
c(定数) 0 定数は変化しない
x 1 傾き1の直線
xⁿ nxⁿ⁻¹ べき乗則
自分自身(指数関数の特殊性)
ln(x) 1/x 対数関数
sin(x) cos(x) 三角関数
cos(x) -sin(x) 三角関数

微分の規則

和の微分

(f + g)' = f' + g'

積の微分(Product Rule)

(fg)' = f'g + fg'

商の微分(Quotient Rule)

(f/g)' = (f'g - fg') / g²

極値と最適化

導関数 = 0 となる点は、関数の極大値または極小値の候補。

極値の条件

f'(x) = 0 かつ

f''(x) > 0 → 極小値

f''(x) < 0 → 極大値

機械学習の目標は、損失関数の極小値(理想的には最小値)を見つけること。

実務での応用

WEB開発での応用

アニメーション:位置の時間微分 = 速度、速度の時間微分 = 加速度。

イージング関数:ease-in-out は微分すると滑らかな速度変化。

数値微分:差分近似 (f(x+h) - f(x)) / h で傾きを計算。

AI/MLでの応用

勾配降下法:損失関数の微分(勾配)の逆方向にパラメータを更新。

自動微分:PyTorch, TensorFlow が自動で導関数を計算。

感度分析:入力の変化が出力にどう影響するかを微分で評価。

深掘りリンク

  • Wikipedia: 微分
  • 動画:3Blue1Brown「微積分の本質」シリーズ
  • 書籍:「解析入門」杉浦光夫
  • 次のステップ:偏微分、多変数関数の最適化