本ページについて
AI研究の主要トピックを俯瞰するロードマップ。各項目は概念の要点と主要論文を示す。詳細は原論文・教科書を参照されたい。対象読者:研究者、博士課程学生、上級エンジニア。
AI入門ロードマップ

※画像は生成AIによるイメージです。

0. 機械学習の基礎

機械学習・AIの基本概念。分類体系、学習パラダイム、主要手法の概観。

AIの種類と分類体系

Narrow/General/Super AI、弱いAI/強いAI、記号主義/接続主義/統計的学習。AGIレベル定義。

主要論文:Searle (1980); Bostrom (2014); Morris et al. (2023) AGI Levels

関連概念:GOFAI 接続主義 ニューロシンボリック

機械学習の基礎概念

ERM、データ分割、過学習と正則化、バイアス・バリアンス分解、モデル選択、交差検証。

主要論文:Hastie et al. (2009) ESL; Arlot & Celisse (2010) CV Survey

関連概念:訓練/検証/テスト L1/L2正則化 早期停止

教師あり学習

分類・回帰。線形モデル、SVM、決定木、アンサンブル(RF, XGBoost)、ニューラルネットワーク。

主要論文:Cortes & Vapnik (1995) SVM; Breiman (2001) RF; Chen & Guestrin (2016) XGBoost

関連概念:カーネル法 勾配ブースティング 確率的モデル

教師なし学習

クラスタリング、次元削減、密度推定、生成モデル。VAE、GAN、自己教師あり学習。

主要論文:Kingma & Welling (2014) VAE; Goodfellow et al. (2014) GAN; Chen et al. (2020) SimCLR

関連概念:k-means PCA/t-SNE/UMAP 対照学習

強化学習

MDP、価値関数、方策勾配、Actor-Critic、深層強化学習、RLHF。

主要論文:Mnih et al. (2015) DQN; Schulman et al. (2017) PPO; Ouyang et al. (2022) RLHF

関連概念:Q学習 PPO/TRPO DPO

NN実装の基礎

活性化関数、重み初期化、正規化技法、正則化、最適化アルゴリズム。

主要論文:Ioffe & Szegedy (2015) BatchNorm; Kingma & Ba (2015) Adam; He et al. (2015) 初期化

関連概念:ReLU/GELU/SwiGLU LayerNorm/RMSNorm Dropout

深層学習アーキテクチャ概観

CNN、RNN/LSTM、Transformer、Vision Transformerの歴史と比較。

主要論文:LeCun et al. (1998); Hochreiter & Schmidhuber (1997); Vaswani et al. (2017); Dosovitskiy et al. (2021)

関連概念:畳み込み Self-Attention 残差接続

1. 計算論的学習理論

機械学習の数学的基盤。学習可能性、汎化誤差、計算複雑性の理論的枠組み。

PAC学習理論

Probably Approximately Correct学習。仮説クラスの学習可能性を多項式サンプル複雑度で特徴づける。

主要論文:Valiant (1984) "A Theory of the Learnable", CACM

関連概念:サンプル複雑度 不可知論的PAC 計算効率

VC次元・Rademacher複雑度

仮説クラスの表現力を測る尺度。汎化誤差の上界を与える。

主要論文:Vapnik & Chervonenkis (1971); Bartlett & Mendelson (2002) JMLR

関連概念:Sauer-Shelahの補題 構造的リスク最小化 データ依存境界

統計的学習理論

経験的リスク最小化、バイアス・バリアンス分解、正則化の理論的基盤。

主要論文:Vapnik (1998) "Statistical Learning Theory"; Shalev-Shwartz & Ben-David (2014) textbook

関連概念:ERM 一様収束 No Free Lunch定理

情報理論的汎化境界

相互情報量に基づく汎化誤差の解析。深層学習の理論的理解への新アプローチ。

主要論文:Xu & Raginsky (2017); Steinke & Zakynthinou (2020)

関連概念:相互情報量 PAC-Bayes 圧縮境界

2. 知能の形式化

知能の数学的定義、評価理論、哲学的考察。

Kolmogorov複雑性・アルゴリズム情報理論

文字列の最小記述長。計算不可能だが、オッカムの剃刀の形式化として重要。

主要論文:Kolmogorov (1965); Li & Vitányi (2008) textbook

関連概念:MDL原理 ランダム性 不変性定理

Solomonoff帰納推論

万能事前分布に基づく最適な帰納推論。計算不可能だが理論的ゴールドスタンダード。

主要論文:Solomonoff (1964) "A Formal Theory of Inductive Inference"

関連概念:万能事前分布 収束性 予測最適性

AIXI・万能知能

Solomonoff帰納とベイズ最適決定を統合した理論的最適エージェント。

主要論文:Hutter (2005) "Universal Artificial Intelligence"; Legg & Hutter (2007)

関連概念:Pareto最適性 AIXItl MC-AIXI

知能評価・ベンチマーク設計

Turingテストの限界、サイコメトリックAI、ARC(抽象推論コーパス)。

主要論文:Chollet (2019) "On the Measure of Intelligence"; Hernández-Orallo (2017) textbook

関連概念:C-Test 流動性知能 Few-shot評価

3. ニューラルネットワーク理論

深層学習の数学的基盤、最適化理論、表現学習。→ 詳細ページ

万能近似定理

十分な幅のネットワークは任意の連続関数を近似可能。ただし深さの利点は別問題。

主要論文:Cybenko (1989); Hornik et al. (1989); Lu et al. (2017)

関連概念:幅 vs 深さ 近似効率 ReLUネットワーク

勾配降下法の理論

非凸最適化における収束性、損失地形、暗黙的正則化。

主要論文:Kingma & Ba (2015) Adam; Zhang et al. (2017) "Understanding deep learning requires rethinking generalization"

関連概念:損失地形 鞍点 暗黙的バイアス

Neural Tangent Kernel

無限幅極限でのニューラルネットワークのカーネル法としての理解。

主要論文:Jacot et al. (2018) NeurIPS

関連概念:Lazy training Mean field理論 Feature learning

良性過適合(Benign Overfitting)

補間学習器が良好な汎化性能を示す現象。古典的バイアス・バリアンス理解への挑戦。

主要論文:Belkin et al. (2019) "Reconciling modern machine learning"; Bartlett et al. (2020)

関連概念:二重降下 補間閾値 暗黙的正則化

4. アーキテクチャ進化

RNN/LSTMからTransformerへの変遷、現代的アーキテクチャ設計。→ 詳細セクション

RNN・LSTM・GRU

系列モデリングの古典的アプローチ。勾配消失問題とゲート機構による解決。Seq2Seq、限界。

主要論文:Hochreiter & Schmidhuber (1997) LSTM; Cho et al. (2014) GRU; Bahdanau et al. (2015)

関連概念:勾配消失 ゲート機構 Seq2Seq Attention

Attention機構

Seq2Seq AttentionからSelf-Attention、Multi-Head Attentionまで。QKVの理解。

主要論文:Bahdanau et al. (2015); Luong et al. (2015); Vaswani et al. (2017)

関連概念:Query-Key-Value Scaled Dot-Product Cross-Attention

Transformer革命

Self-Attention、Multi-Head、位置エンコーディング。BERT/GPT/T5の構造。

主要論文:Vaswani et al. (2017); Devlin et al. (2019) BERT; Brown et al. (2020) GPT-3

関連概念:Encoder-Decoder Causal Masking FFN

位置エンコーディング

正弦波、学習可能、相対位置、RoPE、ALiBi。長文脈外挿への対応。

主要論文:Vaswani et al. (2017); Su et al. (2021) RoPE; Press et al. (2022) ALiBi

関連概念:RoPE Position Interpolation YaRN

アーキテクチャ進化(2017-2025)

Pre-LN、RMSNorm、GQA、SwiGLU、FlashAttention。標準構成の変遷。

主要論文:Xiong et al. (2020) Pre-LN; Dao et al. (2022) FlashAttention; Ainslie et al. (2023) GQA

関連概念:Pre-LN vs Post-LN RMSNorm SwiGLU

Mixture of Experts (MoE)

条件付き計算。スパースゲーティング、負荷分散。Mixtral、DeepSeek-V3。

主要論文:Shazeer et al. (2017); Fedus et al. (2022) Switch; Jiang et al. (2024) Mixtral

関連概念:Expert並列 Top-K routing Auxiliary Loss

State Space Models (Mamba等)

長系列の線形時間処理。S4、選択的SSM、ハイブリッドアーキテクチャ。

主要論文:Gu et al. (2022) S4; Gu & Dao (2023) Mamba; Lieber et al. (2024) Jamba

関連概念:HiPPO 選択的状態空間 Parallel Scan

最新アーキテクチャ概観

2024-2025年の動向。LLaMA、Mistral、DeepSeek、Claudeの設計比較。

主要論文:Touvron et al. (2023) LLaMA; DeepSeek-AI (2024)

関連概念:効率的推論 長文脈 マルチモーダル

5. 大規模言語モデル(LLM)

スケーリング則、創発的能力、In-Context Learning。→ 詳細セクション

LLMとは何か

大規模言語モデルの定義、特徴、能力。基盤モデルの概念、言語モデリング、自己回帰生成。

主要論文:Vaswani et al. (2017); Brown et al. (2020) GPT-3; Bommasani et al. (2021)

関連概念:Next Token Prediction Foundation Model トークン化

スケーリング則

モデルサイズ・データ量・計算量と性能の冪乗則関係。Kaplan則、Chinchilla則、最適配分。

主要論文:Kaplan et al. (2020); Hoffmann et al. (2022) Chinchilla

関連概念:Compute-optimal Chinchilla則 Over-training

事前訓練とファインチューニング

訓練パラダイム:Pre-training、SFT、RLHF、DPO。LoRA等のPEFT手法。

主要論文:Ouyang et al. (2022) InstructGPT; Hu et al. (2022) LoRA; Rafailov et al. (2023) DPO

関連概念:Instruction Tuning RLHF QLoRA

創発的能力

スケールにより突然出現する能力。CoT、算術。測定アーティファクト議論。

主要論文:Wei et al. (2022); Schaeffer et al. (2023) "Are emergent abilities a mirage?"

関連概念:相転移 不連続メトリック 逆スケーリング

事前学習と微調整の役割分担

LIMA論文のSuperficial Alignment仮説。知識注入 vs スタイル学習の分離。

主要論文:Zhou et al. (2023) LIMA; Taori et al. (2023) Alpaca

関連概念:Superficial Alignment 品質 vs 量 少量データ微調整

In-Context Learning

プロンプト内の例示のみで新タスクを学習。Zero/Few-shot、理論的解釈。

主要論文:Brown et al. (2020) GPT-3; Xie et al. (2022); Olsson et al. (2022) Induction Heads

関連概念:Few-shot 暗黙的ベイズ推論 プロンプトエンジニアリング

主要モデル比較

GPT、Claude、Gemini、Llama、Mistral、DeepSeekの技術的特徴と性能比較。

主要論文:OpenAI (2023) GPT-4; Anthropic (2024) Claude 3; Meta (2024) Llama 3

関連概念:MoE 長文脈 オープン vs クローズド

マルチモーダルモデル

テキスト・画像・音声・動画の統合処理。ViT、CLIP、GPT-4V、拡散モデル。

主要論文:Dosovitskiy et al. (2021) ViT; Radford et al. (2021) CLIP; Liu et al. (2023) LLaVA

関連概念:Vision-Language 拡散モデル ネイティブマルチモーダル

モデル進化年表

2017年Transformerから2025年o3までのLLM進化。パラメータ・性能の爆発的拡大。

主要論文:Vaswani et al. (2017); Brown et al. (2020); OpenAI (2024) o1/o3

関連概念:GPT系譜 推論特化 エージェント

6. 訓練技術

大規模モデルの効率的訓練、分散学習、パラメータ効率化。→ 詳細セクション

最適化手法

SGD、Momentum、Adam、AdamW。学習率スケジューリング、ウォームアップ、勾配クリッピング。

主要論文:Kingma & Ba (2015) Adam; Loshchilov & Hutter (2019) AdamW

関連概念:適応的学習率 Cosine Annealing Weight Decay

分散訓練

データ並列、テンソル並列、パイプライン並列。ZeRO、FSDP、3D並列。

主要論文:Rajbhandari et al. (2020) ZeRO; Shoeybi et al. (2019) Megatron-LM

関連概念:AllReduce MoE並列 DeepSpeed

効率的訓練技術

混合精度、勾配チェックポイント、FlashAttention、量子化訓練、torch.compile。

主要論文:Micikevicius et al. (2018); Dao et al. (2022) FlashAttention

関連概念:BF16 FP8 QLoRA

パラメータ効率的ファインチューニング

全パラメータ更新せずに特定タスクに適応。LoRA、Adapter、Prefix-tuning。

主要論文:Hu et al. (2022) LoRA; Houlsby et al. (2019) Adapter

関連概念:低ランク適忚 Soft Prompt Instruction Tuning

7. アライメント・安全性

人間の意図・価値観との整合、安全なAIシステムの構築。→ 詳細セクション

RLHF

人間フィードバックからの強化学習。報酬モデル訓練とPPOによる方策最適化。

主要論文:Christiano et al. (2017); Ouyang et al. (2022) InstructGPT

関連概念:報酬モデル PPO KL制約

Constitutional AI・DPO

原則ベースのアライメント、RLAIF、直接選好最適化。報酬モデルなしでの訓練。

主要論文:Bai et al. (2022) CAI; Rafailov et al. (2023) DPO

関連概念:RLAIF IPO KTO ORPO

プロンプトエンジニアリング

Zero/Few-shot、Chain-of-Thought、Tree of Thoughts、自己一貫性、推論時スケーリング。

主要論文:Wei et al. (2022) CoT; Yao et al. (2023) ToT; Wang et al. (2023)

関連概念:CoT Self-Consistency ReAct

Mechanistic Interpretability

モデル内部の計算メカニズム解明。回路発見、特徴可視化。→ 説明可能性手法

主要論文:Olah et al. (2020) Circuits; Elhage et al. (2022) Superposition

関連概念:Activation Patching Probing SAE

AI安全性理論

能力制御、目標整合性、長期的リスク。技術的・哲学的課題。

主要論文:Amodei et al. (2016) "Concrete Problems"; Hubinger et al. (2019) Deceptive Alignment

関連概念:Inner Alignment Mesa-optimization Scalable Oversight

8. 評価・ベンチマーク

モデル能力の測定、ベンチマーク設計、比較方法論。→ 詳細セクション

評価指標

Perplexity、BLEU、ROUGE、BERTScore、人間評価、LLM-as-Judge。

主要論文:Papineni et al. (2002) BLEU; Zhang et al. (2020) BERTScore

関連概念:n-gram 意味的類似度 MT-Bench

ベンチマーク

MMLU、HellaSwag、GSM8K、HumanEval、HELM、Big-Bench、ARC-AGI。

主要論文:Hendrycks et al. (2021) MMLU; Cobbe et al. (2021) GSM8K

関連概念:知識 推論 コード生成

モデル比較

GPT、Claude、Gemini、Llama、Mistral、DeepSeekの特徴と性能比較。

主要論文:Zheng et al. (2023) Chatbot Arena

関連概念:Eloレーティング オープン vs クローズド

ベンチマーク汚染・限界

データ漏洩、Goodhartの法則、飽和問題。評価の信頼性。

主要論文:Sainz et al. (2023) Contamination; Raji et al. (2021) Benchmark Limitations

関連概念:Train-test overlap 動的ベンチマーク

9. マルチモーダル・生成モデル

視覚-言語統合、画像・音声・動画生成。→ 詳細セクション

Vision-Language Models

画像とテキストの統合理解。CLIP、GPT-4V、LLaVA。

主要論文:Radford et al. (2021) CLIP; Liu et al. (2023) LLaVA

関連概念:対照学習 Visual Instruction Tuning 画像エンコーダ

拡散モデル

ノイズ除去による生成。Stable Diffusion、DALL-E、Sora。

主要論文:Ho et al. (2020) DDPM; Rombach et al. (2022) Stable Diffusion

関連概念:Score Matching Classifier-Free Guidance Latent Diffusion

音声・動画モデル

Whisper、AudioLM、動画生成・理解。

主要論文:Radford et al. (2023) Whisper; Borsos et al. (2023) AudioLM

関連概念:音声認識 音声合成 時間的一貫性

10. エージェント・ツール利用

LLMの行動能力拡張、外部ツール連携、自律的タスク遂行。→ 詳細セクション

Tool Use・Function Calling

外部API・ツールの呼び出し能力。計算、検索、コード実行の統合。

主要論文:Schick et al. (2023) Toolformer; Patil et al. (2023) Gorilla

関連概念:API呼び出し ReAct 自己検証

LLMエージェント

計画・実行・反省のループ。AutoGPT、BabyAGI、エージェントアーキテクチャ。

主要論文:Yao et al. (2023) ReAct; Shinn et al. (2023) Reflexion

関連概念:タスク分解 記憶 マルチエージェント

RAG(検索拡張生成)

外部知識ベースの検索と生成の統合。幻覚軽減、知識更新。

主要論文:Lewis et al. (2020) RAG; Gao et al. (2023) Survey

関連概念:Dense Retrieval Chunking Reranking

11. 認知科学・神経科学・哲学

生物学的知能との接点、意識理論、哲学的考察。→ 詳細セクション

予測処理・自由エネルギー原理

脳の統一理論としての予測符号化。能動推論、生成モデル。

主要論文:Friston (2010); Rao & Ballard (1999)

関連概念:変分自由エネルギー 予測誤差 ベイズ脳

意識理論(IIT・GWT)

統合情報理論、グローバルワークスペース理論。意識の計算的アプローチ。

主要論文:Tononi et al. (2016) IIT 3.0; Dehaene et al. (2003) GNW

関連概念:Φ グローバル放送 ハードプロブレム

中国語の部屋・理解の問題

構文と意味論の分離。LLM時代における再検討。

主要論文:Searle (1980); Bender & Koller (2020) "Climbing towards NLU"

関連概念:記号接地 意味論 確率的オウム

ニューロシンボリックAI

記号主義と接続主義の統合。解釈可能性、因果推論、形式的検証。

主要論文:Garcez et al. (2019); Marcus (2020)

関連概念:記号的推論 知識グラフ 論理埋め込み

参考文献・教科書

教科書・サーベイ

体系的学習のための基本文献。

学習理論:Shalev-Shwartz & Ben-David (2014) "Understanding Machine Learning"
深層学習:Goodfellow et al. (2016) "Deep Learning"
NLP:Jurafsky & Martin (2024) "Speech and Language Processing" 3rd ed.
LLMサーベイ:Zhao et al. (2023) "A Survey of Large Language Models"
知能理論:Hutter (2005) "Universal Artificial Intelligence"

主要会議・ジャーナル

最新研究のフォロー先。

機械学習:NeurIPS, ICML, ICLR, COLT, JMLR
NLP:ACL, EMNLP, NAACL, TACL
AI一般:AAAI, IJCAI, AIJ
ビジョン:CVPR, ICCV, ECCV

プレプリント・リソース

最新動向の把握。

arXiv:cs.LG, cs.CL, cs.AI, stat.ML
技術レポート:OpenAI, Anthropic, Google DeepMind, Meta AI
ブログ:Distill.pub, Lilianweng.github.io, Jay Alammar