← AI最新動向に戻る

AI因果関係フロー

AI研究のコア概念と因果関係を視覚化

1. コア概念関係図

AI研究における主要概念の時系列的な因果関係

現在(観測されている) 近未来? 仮説(未達成) スケーリング則 Scaling Laws 創発 Emergence ※論争中 [3][4] AGI 汎用人工知能 再帰的自己改善 Recursive Self-Improvement 知能爆発 Intelligence Explosion 正のフィードバック 計算資源と性能 技術解説 定義・測定の議論 学術論争 到達時期の予測 未来予測 制御・アライメント 安全性・倫理 雇用・格差への影響 社会・経済 相互関連 各概念の説明: スケーリング則 計算量・データ量・パラメータ数と性能の関係を示すべき乗則 [1][2] 創発 モデル規模拡大で予期しない能力が突然出現する現象 [3] → 反論: 測定方法の問題であり「見かけ上」の現象という指摘あり [4] AGI 人間レベルの汎用人工知能(Human-Level AGI)- 未達成 再帰的自己改善 AIが自身を改善→改善されたAIがさらに改善するループ [5] - 仮説段階 知能爆発 再帰的改善による急激な知能増大(Singularity)[6] - 仮説段階 参考文献: [1] Kaplan et al. (2020) "Scaling Laws for Neural Language Models" arXiv:2001.08361 [2] Hoffmann et al. (2022) "Training Compute-Optimal Large Language Models" arXiv:2203.15556 [3] Wei et al. (2022) "Emergent Abilities of Large Language Models" arXiv:2206.07682 [4] Schaeffer et al. (2023) "Are Emergent Abilities of LLMs a Mirage?" arXiv:2304.15004 ← 創発への反論 [5] Yudkowsky (2007) "Levels of Organization in General Intelligence" MIRI Technical Report [6] Good (1965) "Speculations Concerning the First Ultraintelligent Machine" 凡例: 因果関係 正のフィードバック 時間境界/相互関連 現在 近未来 仮説