はとはとプロジェクト
>
AI最新動向
>
AI因果関係フロー
← AI最新動向に戻る
AI因果関係フロー
AI研究のコア概念と因果関係を視覚化
1. コア概念関係図
AI研究における主要概念の時系列的な因果関係
現在(観測されている)
近未来?
仮説(未達成)
スケーリング則
Scaling Laws
創発
Emergence
※論争中 [3][4]
AGI
汎用人工知能
再帰的自己改善
Recursive Self-Improvement
知能爆発
Intelligence Explosion
正のフィードバック
計算資源と性能
技術解説
定義・測定の議論
学術論争
到達時期の予測
未来予測
制御・アライメント
安全性・倫理
雇用・格差への影響
社会・経済
相互関連
各概念の説明:
スケーリング則
計算量・データ量・パラメータ数と性能の関係を示すべき乗則 [1][2]
創発
モデル規模拡大で予期しない能力が突然出現する現象 [3]
→ 反論: 測定方法の問題であり「見かけ上」の現象という指摘あり [4]
AGI
人間レベルの汎用人工知能(Human-Level AGI)- 未達成
再帰的自己改善
AIが自身を改善→改善されたAIがさらに改善するループ [5] - 仮説段階
知能爆発
再帰的改善による急激な知能増大(Singularity)[6] - 仮説段階
参考文献:
[1] Kaplan et al. (2020) "Scaling Laws for Neural Language Models" arXiv:2001.08361
[2] Hoffmann et al. (2022) "Training Compute-Optimal Large Language Models" arXiv:2203.15556
[3] Wei et al. (2022) "Emergent Abilities of Large Language Models" arXiv:2206.07682
[4] Schaeffer et al. (2023) "Are Emergent Abilities of LLMs a Mirage?" arXiv:2304.15004 ← 創発への反論
[5] Yudkowsky (2007) "Levels of Organization in General Intelligence" MIRI Technical Report
[6] Good (1965) "Speculations Concerning the First Ultraintelligent Machine"
凡例:
因果関係
正のフィードバック
時間境界/相互関連
現在
近未来
仮説