脳着想型AIアーキテクチャ研究考察|訓練データなしで脳活動を再現

脳着想型AIアーキテクチャ研究考察|訓練データなしで脳活動を再現

更新日:2026年1月12日

ジョンズ・ホプキンス大学の研究チームが、生物学的な脳の設計に着想を得たAIシステムが訓練データなしでも人間の脳活動に類似した挙動を示すことを実証しました。数千億ドル規模の計算リソースに依存する現在のAI開発アプローチに一石を投じるこの研究について、調査・考察してみました。参考になれば幸いです。
脳着想型AIアーキテクチャ研究考察|訓練データなしで脳活動を再現

1. 研究の背景と問題提起

1.1 現在のAI開発における課題

現代のAI開発は「スケーリング則」と呼ばれるアプローチに大きく依存している。GPT-5やClaude Opus 4.5といった大規模言語モデルの構築には、数兆トークンに及ぶ訓練データ、数ヶ月の訓練期間、そして数千億ドル規模の計算リソースが必要とされる。データセンターの消費電力は小都市規模に達し、環境負荷も無視できない水準となっている。

ジョンズ・ホプキンス大学認知科学助教授のMick Bonner氏は、この状況について次のように指摘している。「現在のAI分野は、モデルに大量のデータを投入し、小都市規模の計算リソースを構築する方向に進んでいる。これには数千億ドルが必要だ。一方、人間はごくわずかなデータで見ることを学習する」[1]。

スケーリング則とは
AIモデルの性能がパラメータ数、訓練データ量、計算量の増加に伴って予測可能な形で向上するという経験則。OpenAIのGPT-3(2020年)以降、この法則に基づいた開発が主流となっている。

1.2 生物学的学習との対比

人間の視覚システムは、AIシステムと比較して極めて効率的に学習を行う。乳児は生後数ヶ月で基本的な物体認識能力を獲得し、数年で複雑な視覚的推論が可能となる。この過程で必要とされる「訓練データ」は、AIが必要とする数十億枚の画像とは比較にならないほど少量である。

この効率性の差異は、学習アルゴリズムだけでなく、脳のアーキテクチャ(構造設計)そのものに起因する可能性がある。進化は数億年をかけて視覚処理に最適化されたニューラルネットワーク構造を獲得してきた。この「設計図」の重要性が、今回の研究の中心的な問いとなっている。

1.3 研究の位置づけ

本研究は2025年11月13日にNature Machine Intelligence誌に掲載された。論文タイトルは「Convolutional architectures are cortex-aligned de novo」であり、著者はAtlas Kazemian、Eric Elmoznino、Michael F. Bonnerの3名である[2]。ジョンズ・ホプキンス大学とケベックAI研究所(Mila)の共同研究として実施された。

2. 研究手法と主要な発見

2.1 検証対象のネットワークアーキテクチャ

研究チームは、現代AIの基盤となる3つの主要なネットワーク設計を検証対象とした。

アーキテクチャ 特徴 代表的な応用
Transformer 自己注意機構による長距離依存性の学習 GPT、BERT、LLM全般
全結合ネットワーク すべてのニューロン間が接続 分類タスク、回帰分析
畳み込みニューラルネットワーク(CNN) 空間的局所性を活用したフィルタ処理 画像認識、物体検出

2.2 実験手法

研究チームは上記3つの設計図を繰り返し修正し、数十の独自の人工ニューラルネットワークを構築した。これらのネットワークは一切の訓練を受けていない状態、すなわちランダムに初期化された重みのみを持つ状態で実験に使用された。

実験では、これらの未訓練ネットワークに物体、人物、動物の画像を入力し、その応答パターンを記録した。同時に、同じ画像セットに対する人間および霊長類の脳活動(腹側視覚経路の神経活動)を計測し、両者の類似度を定量的に評価した。

実験プロセス
1. 3種類のアーキテクチャの設計図を修正し、数十のネットワークを生成
2. 未訓練状態のネットワークに画像を入力
3. ネットワークの内部活動パターンを記録
4. 人間・霊長類の脳活動データと比較
5. 類似度を定量的に評価

2.3 主要な発見

実験結果は、アーキテクチャによって劇的な差異を示した。

アーキテクチャ ニューロン数増加時の変化 脳活動との類似度
Transformer ほとんど変化なし 低い
全結合ネットワーク ほとんど変化なし 低い
CNN 顕著な改善 訓練済みモデルに匹敵

特に注目すべきは、未訓練のCNNが、通常は数百万から数十億の画像で訓練される従来のAIシステムに匹敵する脳類似性を示したことである。これは、アーキテクチャの設計そのものが、従来考えられていたよりもはるかに重要な役割を果たすことを示唆している。

2.4 重要な技術的要因

CNNが脳類似性を獲得するために重要だった2つの要因が特定された。

空間的局所性(Spatial Locality)
画像の近接するピクセルを同時に処理する特性。生物の視覚系でも、網膜の隣接する光受容体が協調して情報を処理する。実験では、画像のピクセルをランダムに並べ替えて空間的局所性を破壊すると、脳類似性が大幅に低下した。
非線形性(Nonlinearity)
ReLU(整流線形ユニット)などの非線形活性化関数。生物のニューロンも閾値を超えた入力に対してのみ発火する非線形特性を持つ。実験では、ReLU活性化を除去すると性能が大幅に低下し、モデルを拡大しても効果がなくなった。

3. 産業への影響と今後の展望

3.1 AI開発パラダイムへの示唆

Bonner氏は研究の意義について次のように述べている。「大規模データでの訓練が本当に重要な要素であるなら、アーキテクチャの修正だけで脳に似たAIシステムに到達する方法はないはずだ。これは、正しい設計図から始め、生物学からの他の洞察を取り入れることで、AIシステムの学習を劇的に加速できる可能性があることを意味する」[1]。

この発見は、現在の「スケーリング一辺倒」のAI開発戦略に対する重要な代替案を提示している。

項目 現在のアプローチ 脳着想型アプローチ(潜在的)
訓練データ 数十億〜数兆トークン 大幅に削減可能
計算コスト 数千億ドル規模 削減の可能性
エネルギー消費 数千MW(小都市規模) 削減の可能性
訓練期間 数ヶ月 短縮の可能性
データセンター需要 急増中 緩和の可能性

3.2 関連研究の動向

脳着想型AIの研究は本研究に限らず、複数の研究機関で進行している。2025年10月にはNeurocomputing誌に、サリー大学のNature-Inspired Computation and Engineering(NICE)グループによる関連研究が掲載された。この研究では「Topographical Sparse Mapping(TSM)」と呼ばれる技術により、脳のスパースで構造化されたニューラル配線を模倣することで、精度を犠牲にすることなく人工ニューラルネットワークのエネルギー使用量を大幅に削減できることが報告されている[3]。

3.3 今後の研究方向

ジョンズ・ホプキンス大学のチームは現在、生物学に着想を得たシンプルな学習アルゴリズムの開発に取り組んでいる。これが新世代のディープラーニングフレームワークに情報を提供できることが期待されている。

研究から得られる実践的示唆

  • アーキテクチャ設計の重視:データ量や計算量の増加だけでなく、ネットワーク構造の最適化が性能向上に寄与する可能性がある
  • 生物学的知見の活用:神経科学の研究成果をAI設計に積極的に取り入れることで、効率性を高められる可能性がある
  • 空間的局所性の維持:視覚タスクにおいては、入力データの空間的構造を保持する設計が重要である
  • 非線形活性化の重要性:生物学的に妥当な非線形特性の導入が、脳類似の情報処理に寄与する

3.4 限界と今後の課題

本研究にはいくつかの限界も存在する。第一に、検証は主に視覚処理タスクに限定されており、言語処理や推論といった高次認知機能への適用可能性は未検証である。第二に、未訓練ネットワークが示した脳類似性が、実際のタスク性能向上にどの程度寄与するかは別途検証が必要である。第三に、本研究の知見を実用的なAIシステム開発にどのように応用するかについては、今後の研究に委ねられている。

それでも、本研究は「より大きく、より多く」という現在のAI開発トレンドに対する重要な問い直しを提供しており、持続可能なAI開発への道筋を示す可能性を秘めている。

参考文献
[1] Johns Hopkins University. "AI may not need massive training data after all." ScienceDaily, 4 January 2026.
[2] A. Kazemian, E. Elmoznino, and M. F. Bonner, "Convolutional architectures are cortex-aligned de novo," Nature Machine Intelligence, 13 November 2025. DOI: 10.1038/s42256-025-01142-3
[3] University of Surrey, NICE Group. "Topographical Sparse Mapping for energy-efficient neural networks," Neurocomputing, October 2025.

免責事項
本記事は2026年1月12日時点の情報に基づいています。AI研究は急速に進展しているため、最新の情報については原著論文や公式発表をご確認ください。