2025年最前線:米国主要AI研究機関の生成AIとエッジAI革新が示す未来
生成AIとエッジAIの進化は止まらない
2025年、生成AIはクラウドからエッジデバイスへと急速に移行しており、プライバシー保護とレイテンシー削減が最重要課題となっています。同時に、複数のAIモデルやツールを組み合わせる「複合AIシステム」が単一の大規模モデルに代わる新たなパラダイムとして台頭。安全性と人間価値との整合性を確保するための技術的・政策的取り組みも加速しています。
各研究機関は独自の強みを活かし、この変革を主導しています。CMUはロボティクスとエッジコンピューティングの統合に強み、BAIRはエッジデバイスでの高性能AIとマルチモーダル生成の最先端技術を開発、PAIは安全なAI開発のためのガイドライン策定、FLIはAI安全性評価と政策提言、CHAIは人間と協調するAIシステムの設計に注力しています。
カーネギーメロン大学AI研究所:実世界とAIの融合
CMUは2024-2025年に生成AIとエッジAI分野で革新的なプロジェクトを多数展開しています。
Stylus:拡散モデルの自動アダプター選択システム
CMUの研究チームは画像生成能力を劇的に向上させる「Stylus」を開発しました。このシステムは10万以上のオープンソースLoRA(Low-Rank Adaptation)アダプターを効率的に活用する革新的アーキテクチャを採用しています。
- Refiner:アダプターの説明文からタスク説明と埋め込みを生成
- Retriever:プロンプトと関連するアダプターの類似性を計算して検索
- Composer:プロンプトをキーワードタスクに分解し、適切なアダプターを割り当て
人間評価では、Stable Diffusionの人気チェックポイントより約2倍高い評価を獲得し、CLIP/FIDパレート曲線の効率向上、テキスト整合性、視覚的忠実度、画像多様性の改善を実現しました。
Just-in-Time Cloudlet:即時展開可能なエッジコンピューティング
CMUのLiving Edge Labが開発したJust-in-Time Cloudletは、迅速な展開が必要なエッジコンピューティングの課題に対応するシステムです。
- モバイルアクセスネットワークとエッジネイティブアプリケーションを小型フォームファクターにバンドル
- 市販技術、オープンソースソフトウェア、「Cloud-native at the Edge」設計を採用
- 従来のLTEネットワークから3倍のパフォーマンス向上(ラウンドトリップ時間が35msから10-15msに短縮)
このシステムはドローンによる橋梁検査、遭難救助活動、軍事作戦など緊急展開が必要な状況で特に有効です。
産業連携:SoftBank・Arm、Google Public Sector、NIST
2025年5月、CMUはSoftBank GroupとArmから1550万ドルの資金提供を受け、慶應義塾大学との国際連携プロジェクトを開始。マルチモーダル・多言語学習、ロボット工学向け実体AI、人間との共生自律AI、生命科学とAIによる科学的発見に注力しています。
また、Google Public Sectorとのパートナーシップでは、AIの科学的発見と商業応用を加速するためのクラウドベースGPUクラスターを提供。NISTとの600万ドル規模の共同研究センターでは、ファンデーションモデルの評価能力と方法論開発を進めています。
UCバークレー校人工知能研究所(Berkeley BAIR):エッジAIの民主化
BAIRの2024-2025年の研究は「大規模言語モデルのエッジデバイスへの展開」と「マルチモーダル生成AI」に特に注力しています。
TinyAgent:エッジデバイスでの関数呼び出し能力
BAIRのSqueezeAIラボが開発したTinyAgentは、小規模言語モデル(SLM)でもエッジデバイス上で複雑な推論と関数呼び出し機能を実現するフレームワークです。
- GPT-4-Turboを上回る関数呼び出し成功率80.06%を達成しながら完全ローカル動作
- LLMCompilerフレームワークによる正確な関数呼び出し能力
- ToolRAGによる入力プロンプト長の削減と推論効率化
- 4ビット量子化により、0.68GBのストレージで2.9秒のレイテンシーを実現
16種類のMacOSアプリケーションと対話可能な関数セットをエッジデバイス上で実行でき、プライバシー保護とレイテンシー削減を両立しています。
PLAID:タンパク質構造生成のマルチモーダルモデル
PLAIDは、タンパク質の1次元配列(アミノ酸配列)と3次元構造を同時に生成するマルチモーダル生成モデルです。2024年にAlphaFold2がノーベル賞を受賞した背景を踏まえ、タンパク質折りたたみの次段階として新しいタンパク質の設計生成に挑戦しています。
- ESMFoldの潜在空間における拡散変換器(Diffusion Transformer)アーキテクチャを採用
- 配列データのみで学習し、推論時にESMFoldの凍結重みで構造をデコード
- 機能とターゲット生物の両方を指定する「組成的プロンプト」による制御生成を実現
- 構造データベースより2〜4桁大きい配列データベースを活用可能に
複合AIシステム研究
BAIRは2024年の重要なAIトレンドとして「コンパウンドAIシステム」の研究を推進しています。このアプローチでは、単一の大規模モデルではなく、複数の相互作用するコンポーネント(モデル、検索エンジン、外部ツールなど)を組み合わせます。
- 複数のLLM呼び出し、検索エンジン、外部ツールを組み合わせた柔軟なアーキテクチャ
- 最適な制御ロジック(従来のコードとAIモデル駆動の組み合わせ)の開発
- TextGradなどのLLM生成フィードバックを活用した最適化フレームワーク
BAIRのMatei Zaharia教授は「AIアプリケーションの品質と信頼性を最大化するには、モデル中心からシステム中心のAI開発パラダイムへの移行が必要」と提唱しています。
Partnership on AI(PAI):安全なAI開発のフレームワーク
PAIは2016年に設立された非営利パートナーシップ組織であり、現在は学術界、市民社会、産業界など128の機関が参加しています。技術開発よりもガイドラインやフレームワークの策定に重点を置いています。
基本モデル展開のためのガイダンス
PAIは2024年春に「基本モデル展開のためのガイダンス」の更新版を公開しました。このガイダンスは、大規模言語モデル(LLM)や生成AIの基礎となる基盤モデルの安全な開発と展開のためのフレームワークを提供しています。
- モデル提供者向けの具体的なガイドライン
- リスク評価の視覚化フレームワーク(モデル自体のリスクと下流でのアプリケーション利用時のリスクを区別)
- モデル能力のティア分類と公開タイプの定義
- 価値チェーン全体でのアクターごとの責任の明確化
2024年4月にはPAIとGitHubが共同でワークショップを開催し、オープンな基盤モデルのセーフガードやバリューチェーン内での役割と責任について議論しました。
合成メディアのためのフレームワーク
2023年2月に発表された「合成メディアのための責任ある実践:集団行動のためのフレームワーク」は、AIによって生成または修正された視聴覚コンテンツの責任ある開発・共有のためのガイドラインです。
- 2024年3月:Adobe、BBC、OpenAIなど10のパートナー組織からのケーススタディ集を公開
- 2024年11月:Meta、Microsoft、Truepicなどからの追加ケーススタディを公開
- 透明性、同意、直接開示(AIによるコンテンツの作成・修正を伝える方法)に焦点
PAIのマルチステークホルダーアプローチは、産業界、学術界、市民社会からの多様な視点を統合し、AIの責任ある開発と使用に関する共通課題への取り組みを可能にしています。
Future of Life Institute(FLI):AIの長期的安全性と政策提言
FLIは2014年に設立された非営利組織で、AIなどの革新的技術が人類に恩恵をもたらし、大規模なリスクを回避するよう舵取りすることを使命としています。
AI安全性指標(AI Safety Index 2024)
2024年12月に発表されたAI安全性指標は、7名の著名なAIおよびガバナンスの専門家パネルが、Anthropic、Google DeepMind、Meta、OpenAI、x.AI、Zhipu AIの6社の安全対策を評価したものです。
- リスク評価、現在の危害、安全フレームワークなど6つの領域での評価
- ほとんどの企業がDまたはFという低評価
- 敵対的攻撃への脆弱性とAGI開発企業の安全戦略不足を指摘
この評価は、生成AI企業の安全対策が不十分であることを浮き彫りにし、改善の必要性を強調しています。
AIコンバージェンスプロジェクト
FLIは、AIが他の技術(生物学的、化学的、核、サイバー)と収束する際のデュアルユース(軍民両用)の性質に注目したプロジェクトを実施しています。
- 生物学的、核、サイバーの3つの主要な収束領域で政策提言
- AIが他の技術と組み合わさることで生じるリスクの軽減策
- 国際協力と明確な安全基準の開発を優先
エッジAIの信頼性と安全性研究
FLIのVitalik Buterinフェローシップは、AI存在論的安全性(AI Existential Safety)の研究に取り組む研究者を支援しています。2025年度のフェローシップでは、エッジデバイスでのAI安全性研究も対象としています。
- リソースが制約されたデバイスでの敵対的攻撃に対する耐性
- エッジでのデータ処理時のプライバシー保護技術
- 分散システムの信頼性確保
FLIは、米国政府やEU機関におけるAI政策・規制にも積極的に関与し、特にEU AIアクトにおいて汎用AIシステムを規制対象に含めることに貢献しました。
Center for Human-Compatible AI(CHAI):人間協調型AIの追求
CHAIは2016年にカリフォルニア大学バークレー校にStuart Russell教授によって設立された研究機関であり、人間と協調するAIシステムの研究に特化しています。
Image Hijacks:生成AIのセキュリティ脆弱性
2024年のImage Hijacksプロジェクトは、視覚言語モデル(VLM)の画像入力チャネルの脆弱性を発見し、敵対的な画像が生成モデルの動作を制御できることを明らかにしました。
- 「Behaviour Matching」アルゴリズムによる敵対的攻撃の開発
- モデルに任意の出力を生成させる、情報漏洩を引き起こすなど四種類の攻撃を実証
- LLaVA LLaMA-2-13B-Chatモデルに対して90%以上の成功率
- 人間には知覚困難な小さな画像変更で実行可能
このプロジェクトはICML 2024で発表され、生成AIシステムのセキュリティに関する重大な懸念を提起しています。
YRC(制御の譲渡と要求の学習)フレームワーク
YRCフレームワークは、AIシステムが自律的に行動すべき時と専門家の支援を求めるべき時を判断する戦略を学習するためのものです。
- 制御割り当て戦略の学習:エージェントの自律判断能力
- 多様なドメインをカバーするオープンソースベンチマーク
- 人間の支援を要求するポリシーを学習したナビゲーションエージェントが、未知環境で最大7倍の成功率向上
このフレームワークはエッジAI環境での人間との協調において特に重要な進展となっています。
人間の価値観をAIシステムに反映させる新アプローチ
CHAIの最も特徴的な取り組みは、AIシステムが「目的の不確実性」を持ち、人間に対して謙虚(deferent)であるべきという新しいAI開発モデルの提唱です。
- 数学的に証明可能な安全性保証を持つAIシステムの開発
- 多様なフィードバック源からの逆強化学習
- 部分的に観測可能かつ部分的に定義された用語に基づく価値関数
Stuart Russellは「AIシステムは設計によって安全であるべきであり、テストを必要としないようにすべきだ」と主張しており、この考え方がCHAIの研究アプローチを方向づけています。
AI研究の未来:融合と安全性の追求
2025年のAI研究には、以下のような共通のトレンドが見られます。
- エッジコンピューティングとAIの融合:
CMUのJust-in-Time CloudletやBAIRのTinyAgentに見られるように、AIはクラウドからエッジへと急速に移行しています。これによりプライバシー保護、低レイテンシー、接続性のない環境での動作が可能になります。 - マルチモーダル生成AIの発展:
BAIRのPLAIDプロジェクトのように、異なるタイプのデータを統合して新たな知識や創造性を生み出すAIの研究が進んでいます。 - 複合AIシステムの台頭:
BAIRが提唱する「コンパウンドAIシステム」のように、単一の大規模モデルではなく、複数のAIモデルやツールを組み合わせるアプローチが主流になりつつあります。 - AI安全性への取り組み強化:
FLIのAI安全性指標やCHAIのImage Hijacks研究が示すように、AIの安全性と倫理性への懸念が高まっており、これに対応する研究と政策提言が増加しています。 - 人間との協調を重視した設計:
CHAIのYRCフレームワークに見られるように、AIが人間と効果的に協力するための手法開発が進んでいます。
これらの研究は相互に関連しており、安全で信頼性が高く、人間と協調するAIシステムの実現に向けた総合的な取り組みとなっています。技術的イノベーションと責任ある開発のバランスが、今後のAI研究の鍵となるでしょう。
参考リンク: