AlphaGo
更新日:2025年12月18日
1. 概要
AlphaGoは、深層ニューラルネットワークとモンテカルロ木探索(MCTS)を組み合わせた囲碁AIである。2016年3月、世界チャンピオンのイ・セドル九段に4勝1敗で勝利し、AIが人間の直感的な判断を要する領域で人間を超えられることを示した歴史的システムである。
2. 研究の背景
囲碁は19×19の盤面に約10^170通りの局面があり、チェス(10^47)とは比較にならない複雑さを持つ。従来のゲームAI手法(ミニマックス探索、アルファベータ枝刈り)では、この膨大な探索空間を扱うことは不可能だった。人間のトッププロに勝つことは、AI研究の「聖杯」とされていた。
3. 提案手法
AlphaGoは3つのネットワークとMCTSを組み合わせる。方策ネットワーク(Policy Network)は次の着手の確率分布を出力する。価値ネットワーク(Value Network)は局面の勝率を推定する。高速ロールアウト方策は高速な手の予測に使用する。MCTSはこれらを統合し、有望な手を効率的に探索する。学習は、プロ棋士の棋譜による教師あり学習と、自己対戦による強化学習を組み合わせた。
4. 実験結果
2015年10月、ファン・フイ二段(欧州チャンピオン)に5戦5勝。2016年3月、イ・セドル九段に4勝1敗。AI研究史上最も注目されたイベントの一つとなった。第4局でイ・セドルが見せた「神の一手」(78手目)も話題となった。
5. 意義と影響
AlphaGoは、AIが人間の直感的な判断を要するとされた領域で人間を超えられることを示した。深層学習と強化学習の組み合わせの有効性を実証し、AI研究への投資と関心を世界的に高めた。韓国では「AIショック」と呼ばれ、AI教育・研究への投資が急増した。
6. 関連論文
| 論文 | 関係 |
|---|---|
| AlphaGo Zero | 人間知識なしの発展版 |
| DQN | 深層強化学習の先駆け |
| ResNet | ネットワーク構造の基盤 |
参考文献
[1] Silver, D., et al. (2016). Mastering the Game of Go with Deep Neural Networks and Tree Search. Nature.
免責事項
本ページの情報は筆者の理解に基づくものである。正確な内容は原著論文を参照されたい。
[1] Silver, D., et al. (2016). Mastering the Game of Go with Deep Neural Networks and Tree Search. Nature.
免責事項
本ページの情報は筆者の理解に基づくものである。正確な内容は原著論文を参照されたい。
関連書籍
リンク