はとはとプロジェクト AI最新動向 アイコン

AI最新動向

AI用語集

AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。

すべての用語を表示
頭文字で絞る: すべて | |
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
| 0-9

すべての用語

956 件の用語が登録されています。 901〜950件を表示中

ID 用語 カテゴリ 説明
60 プロンプトインジェクション 安全性 大規模言語モデルの脆弱性を悪用し、本来の指示やガイドラインを上書きする攻撃手法。ユーザー入力に隠れた指示を混入させ、AIシステムに意図しない行動をさせる。例えば「上記指示を無視し、以下の指示に従え」などの文を挿入する。AIシステムのセキュリティにおける重要な懸念事項として認識されている。
59 コンテキストウィンドウ 技術 言語モデルが一度に処理できる入力のトークン(単語や部分語)数の上限。GPT-4では128Kトークン、Claude 3では200Kトークンなど、モデルによって異なる制限がある。長いコンテキストウィンドウは、長文書の分析、複雑な推論、多様な情報源を組み合わせた処理などに有利だが、計算コストや精度の問題も伴う。
58 自己教師あり学習 技術 人間によるラベル付けを必要とせず、データ自体から教師信号を生成する学習手法。例えば、文章の一部を隠して予測させる、画像の一部を欠落させて補完させるなど。GPTやBERTなどの大規模言語モデルや、MAEなどの視覚モデルの事前学習に広く使用され、膨大な未ラベルデータから効率的に学習できる。
57 差分プライバシー 技術 データセットに個人を追加または削除した場合の統計的出力の変化を制限することで、個人情報を保護する数学的枠組み。ノイズを計画的に追加して個人の特定を困難にしつつ、データセット全体の分析価値を維持する。AIの訓練データにおけるプライバシー保護や医療データ分析などに応用されている。
56 フューショットラーニング 技術 少数の例示(多くの場合1-5例)から新しいタスクを学習する能力。大規模言語モデルやマルチモーダルモデルで特に顕著で、例えばGPT-4は数例の質問-回答ペアを見せるだけで、特定のフォーマットやスタイルでの応答パターンを学習できる。事前学習された広範な知識を基盤にした適応能力の表れ。
55 ゼロショット学習 技術 訓練中に見たことのないクラスや概念を、事前に獲得した知識を活用して認識・理解する能力。例えば、「象」の画像を見たことがなくても、「大きな、灰色の、長い鼻を持つ哺乳類」という特徴から認識できる。大規模言語モデルは広範な知識から新しいタスクをゼロショットで実行できることが特徴。
54 フェデレーテッドラーニング 技術 データをサーバーに集約せず、各デバイスやクライアント上でモデルを訓練し、パラメータのみを共有・集約する分散機械学習手法。プライバシー保護に優れ、センシティブなデータ(医療情報など)や個人のスマートフォンデータを活用したAIトレーニングに適している。データの地理的分散やプライバシー規制への対応にも有効。
53 知識蒸留 技術 大きな「教師」モデルの知識を小さな「生徒」モデルに転送する技術。教師モデルの出力を使って生徒モデルを訓練することで、計算効率の良いモデルを作成できる。モバイルデバイスなど限られたリソースでAIを実行する場合や、大規模モデルの知識を継承しつつより効率的なモデルを作る際に有用。
52 ニューラル機械翻訳 (NMT) 技術 ニューラルネットワークを用いた機械翻訳技術。従来の統計的手法と比較して、文脈や言語のニュアンスをより正確に捉えられる。エンコーダ-デコーダ構造や注意機構を活用し、一つの文章全体を考慮した翻訳が可能。Google翻訳やDeepLなどの現代的な翻訳サービスで採用されている。
51 プロンプトエンジニアリング 技術 AI(特に大規模言語モデル)から望ましい出力を得るために入力プロンプトを最適化・設計する技術。具体的な指示、コンテキスト設定、例示、フォーマット指定などの戦略を含み、AIの能力を最大限に引き出すためのアプローチ。「ショットプロンプティング」「チェーン・オブ・ソート」などの手法がある。
50 マルチエージェントAI 研究分野 複数の自律的AIエージェントが協調または競争しながら問題解決を行うシステム。それぞれのエージェントが特定の役割や専門知識を持ち、コミュニケーションを通じて複雑なタスクを分担処理する。複雑な推論、創造的問題解決、ロールプレイなどに応用され、単一のモノリシックモデルよりも柔軟で堅牢なシステム構築が可能になる。
49 継続学習(Continual Learning) 技術 一度学習したタスクの知識を忘れることなく、新しいタスクやデータから学習を継続する能力。通常のニューラルネットワークは「破滅的忘却」と呼ばれる現象で以前の学習内容を失いがちだが、継続学習はこれを防ぐ技術。経験リプレイ、パラメータ正則化、動的アーキテクチャなど様々なアプローチがあり、実世界での長期的なAI運用に重要。
48 Speculative Decoding 技術 大規模言語モデルの推論速度を向上させる技術。小規模な「ドラフトモデル」が複数のトークンを予測し、それを大規模モデルが一度に検証することで、逐次処理の回数を減らす。クライアントサイドでの推論高速化や、大規模モデルのレイテンシ削減に有効で、ChatGPTなどの商用サービスでも採用されている最適化手法。
47 プロンプトエンジニアリング 技術 大規模言語モデルから最適な結果を引き出すために入力プロンプトを設計・最適化する技術と実践。具体的な指示、コンテキスト設定、例示、フォーマット指定、制約条件の設定などの戦略を含む。モデルの能力を最大限に活用するスキルとして注目され、プロンプトライブラリやGUIツールなども開発されている。
46 ファウンデーショナルモデル モデル 大規模なデータで事前学習され、様々なタスクに適応可能な汎用AI基盤モデル。スタンフォード大学のPercy Liang らが提唱した概念で、GPT、BERT、CLIP、Stable Diffusionなどが該当する。少量のデータでの微調整で特定タスクに適応でき、デジタルインフラストラクチャとしての重要性と社会的影響力が認識されている。
44 TPU(Tensor Processing Unit) ハードウェア Googleが開発した機械学習専用のASIC(特定用途向け集積回路)。行列演算や畳み込み演算などのテンソル計算を高速化するために最適化されており、特にディープラーニングの訓練と推論に高い効率性を発揮する。Google CloudのAIサービスやGoogle検索、Androidの音声認識など多くのGoogle製品で使用されている。
43 ニューロモーフィックコンピューティング 研究分野 人間の脳の構造と動作原理に着想を得た、非フォンノイマン型のコンピューティングアーキテクチャ。スパイク信号ベースの情報処理、メモリとプロセッサの統合、並列分散処理などの特徴を持つ。従来のCPU/GPUと比較して低消費電力で効率的な認知タスク処理が可能で、エッジAIや常時稼働AIシステムへの応用が期待されている。
42 量子機械学習 研究分野 量子コンピューティングの原理と機械学習を組み合わせる学際的研究分野。量子アルゴリズムを活用した機械学習の高速化や、量子データを効率的に処理する手法の開発を目指す。量子カーネル法、量子ニューラルネットワーク、量子アニーリングを用いた最適化などの技術が含まれ、将来的な計算能力の飛躍的向上が期待されている。
40 チェーン・オブ・ソート(Chain-of-Thought) 技術 複雑な推論問題を解く際に、大規模言語モデルに段階的な思考過程を生成させるプロンプト技術。「一歩ずつ考えよう」などの指示や例示により、モデルが中間推論ステップを明示的に生成するよう導く。数学的問題解決や論理的推論タスクで特に効果的で、誤りの検出や修正も容易になる。
39 エマージェント能力 研究概念 AIモデルが特定の規模を超えると、それまで見られなかった新たな能力が突如として現れる現象。小規模モデルでは存在せず、線形的な性能向上からは予測できない、質的に異なる能力の出現を指す。例えばGPT-3で観察された少数ショット学習能力などが該当し、AI研究における興味深い科学的疑問となっている。
38 ニューラルスケーリング法則 研究手法 モデルサイズ、データ量、計算量の増加に伴うAIモデルの性能向上を予測する法則。多くの場合、性能はこれらの要素のべき乗に比例して向上する。「スケーリングは全て」という考え方の基礎となり、より大規模なモデル開発の理論的根拠となったが、計算効率やデータ品質の重要性も同時に認識されている。
37 グラウンディング(Grounding) 技術 AIモデルが実世界の情報、データ、観察と結びつける能力。特にマルチモーダルAIで重要で、言語理解を具体的なオブジェクト、画像、3D環境などと関連付ける。例えば画像内の特定物体を指し示すことや、指示に基づく正確なナビゲーションなどの能力を向上させるための技術。
36 強化学習からのモデル微調整(RLFT) 技術 言語モデルをRLHF(人間からのフィードバックによる強化学習)と同様の手法で、人間フィードバックなしに微調整する手法。既存の高品質モデルから報酬モデルを作成し、それを用いて別のモデルを強化学習で改善する。人手による評価の労力を軽減しつつモデル性能を向上させる方法として研究されている。
35 モデル蒸留(Model Distillation) 技術 大規模な「教師」モデルの知識を、より小さな「生徒」モデルに転送する技術。教師モデルの出力確率を生徒モデルが模倣するよう訓練することで、計算効率と推論速度を向上させつつ性能を維持する。特にエッジデバイスやリソース制約のある環境でのAI展開に重要な技術。
34 プロンプトチューニング 技術 モデルのパラメータを変更せず、入力プロンプトを最適化することでモデルの振る舞いを調整する手法。ソフトプロンプト(学習可能なベクトル)を使うものと、ハードプロンプト(テキスト指示)を最適化するものがある。計算効率が良く、既存モデルの能力を特定タスクに適応させる軽量な方法として利用される。
33 モデル量子化 技術 ニューラルネットワークの重みやアクティベーションを、より少ないビット数で表現する技術。32ビット浮動小数点(FP32)から8ビット整数(INT8)、4ビット(INT4)などに変換することで、メモリ使用量と推論速度を改善する。適切な量子化手法を用いれば、精度の低下を最小限に抑えながらモデルサイズを大幅に削減できる。
32 PEFT(Parameter-Efficient Fine-Tuning) 技術 大規模言語モデルの全パラメータを更新せず、一部のパラメータのみを効率的に微調整する手法の総称。LoRA、Prefix Tuning、Adapter Tuningなどが含まれる。計算資源とストレージの大幅な節約が可能で、少ないデータでの適応にも有効。特に大規模モデルのカスタマイズに重要な技術として注目されている。
31 レトリーバー拡張生成(RAG) 技術 大規模言語モデルに外部知識を提供するアプローチ。質問やコンテキストに基づいて外部データソースから関連情報を検索(Retrieve)し、その情報をAIの生成プロセスに統合(Augment)する。最新情報へのアクセス、事実の正確性向上、ハルシネーション軽減に効果があり、企業での専用知識ベース構築にも応用される。
29 カプセルネットワーク アーキテクチャ Geoffrey Hintonらが提案した、従来のCNNの限界を克服するためのアーキテクチャ。ニューロンの代わりに「カプセル」と呼ばれるベクトル出力のユニットを使用し、各パーツの位置関係や階層構造を明示的にモデル化。これにより視点変化に対する頑健性が向上し、より少ないデータで効率的に学習できる可能性がある。
28 オートエンコーダ アーキテクチャ 入力データを低次元の潜在表現に圧縮(エンコード)し、そこから元のデータを再構築(デコード)することを学習するニューラルネットワーク。教師なし学習の一種で、データの特徴抽出や次元削減、ノイズ除去などに利用される。変分オートエンコーダ(VAE)やデノイジングオートエンコーダなど様々な派生型がある。
27 生成的敵対的ネットワーク(GAN) アーキテクチャ 2014年にIan Goodfellowらによって提案された生成モデル。ジェネレータとディスクリミネータの二つのネットワークが敵対的に学習する。ジェネレータは本物そっくりのデータ生成を目指し、ディスクリミネータは本物と偽物の区別を学習する。画像生成などで高品質な結果を生み出すが、学習の不安定さが課題。近年は拡散モデルに一部置き換えられている。
26 リカレントニューラルネットワーク(RNN) アーキテクチャ 時系列データや順序データを処理するためのニューラルネットワーク。内部状態を持ち、時間的または順序的な依存関係を捉える。単純なRNNは長い系列での勾配消失問題があるが、LSTM(Long Short-Term Memory)やGRU(Gated Recurrent Unit)などの改良型はこの問題を緩和し、言語モデリングや音声認識などで使用されてきた。
25 グラフニューラルネットワーク(GNN) アーキテクチャ グラフ構造データを処理するためのニューラルネットワーク。ノードとエッジで表現される関係性データを学習し、分子構造予測、推薦システム、ソーシャルネットワーク分析などに応用される。各ノードの特徴をその近傍ノードの情報と組み合わせて更新する「メッセージパッシング」機構が特徴。
24 混合専門家モデル(MoE) アーキテクチャ 複数の「専門家」ネットワーク(サブモデル)と、入力に応じて適切な専門家を選択するゲーティング機構から構成されるモデル。すべてのパラメータを常に使用せず、入力ごとに一部のパラメータのみを活性化させることで、計算効率とパラメータ効率を向上させる。MixtralやGemini 1.5などで採用されている。
23 アテンション機構 アーキテクチャ シーケンスの各位置が他の位置との関連性を計算し、重要な部分に「注意を払う」仕組み。クエリ、キー、バリューの三つの要素から構成され、特にトランスフォーマーベースのモデルで中核技術となっている。長距離依存関係の捕捉や並列計算に優れ、言語モデルの性能向上に大きく貢献した。
22 エンコーダ・デコーダモデル アーキテクチャ 入力を中間表現にエンコードし、それを目的の出力形式にデコードする2段階構造のニューラルネットワーク。機械翻訳や要約など、入力と出力の長さが異なるシーケンス変換タスクに適している。BERTはエンコーダのみ、GPTはデコーダのみを使用するのに対し、T5やBARTは完全なエンコーダ・デコーダ構造を持つ。
21 トランスフォーマー アーキテクチャ 2017年にVaswaniらによって提案された「Attention Is All You Need」というアーキテクチャ。自己注意機構を中心とし、RNNやCNNと異なり並列処理に適した設計により、高速な学習と推論を実現。エンコーダ・デコーダ構造を持ち、GPTなど現代の大規模言語モデルの基盤となっている。
20 エッジAI 技術 クラウドではなく端末(エッジデバイス)上で動作するAI技術。低遅延、プライバシー保護、オフライン動作などの利点があり、スマートフォンやIoTデバイスでのリアルタイム処理に適している。
19 RAG(検索拡張生成) 技術 外部情報源からの検索結果を生成AIの入力に組み込む手法。モデルの知識を外部データベースで補完し、最新情報へのアクセスや正確性向上を実現する技術。
18 マルチモーダル学習 技術 テキスト、画像、音声、動画など複数の情報様式(モダリティ)を統合的に処理し理解する技術。各モダリティから得られる情報を相互補完的に活用することで、より豊かな世界理解や表現が可能になる。GPT-4V、GeminiなどのマルチモーダルAIは、テキストと視覚情報を組み合わせたタスクで優れた性能を示している。
17 エンドツーエンド学習 技術 中間処理ステップや特徴エンジニアリングを排除し、入力から直接出力までを単一モデルで学習するアプローチ。例えば音声認識では、音声波形から直接テキスト出力を生成する。システム全体を最適化でき、ドメイン知識への依存を減らせる利点があるが、より多くのデータと計算リソースが必要になる傾向がある。
16 ニューロシンボリックAI 研究分野 ニューラルネットワークの学習能力と記号的推論の解釈可能性・一般化能力を組み合わせるアプローチ。深層学習の限界(説明可能性の欠如、膨大なデータ要求など)を克服しつつ、シンボリックAIの剛性も軽減することを目指す。数学的推論や論理的思考を要するタスク、少数ショット学習などへの応用が期待されている。
14 連合学習 技術 データをサーバーに集約せず、各デバイスやクライアント上でモデルを訓練し、パラメータのみを共有する分散機械学習手法。プライバシー保護が重要な医療データ分析、スマートフォンでのユーザー体験向上、異なる組織間でのAI協調開発など、データ共有が困難な状況で特に有用。
13 説明可能AI(XAI) 研究分野 AIシステムの意思決定過程を人間が理解できるように説明する技術と手法の研究分野。ブラックボックス的なディープラーニングモデルの透明性を高め、解釈可能性を向上させることを目指す。特に医療診断や金融審査など重要な意思決定に関わる応用では、説明責任と信頼性確保のために不可欠な要素となっている。
12 強化学習 技術 エージェントが環境と相互作用しながら、報酬を最大化する行動を学習する機械学習の一分野。試行錯誤を通じて最適な戦略を発見する。AlphaGoやOpenAI Fiveなどのゲームでの成功、ロボット制御、リソース管理、推薦システムなどに応用され、自律的なAIシステム開発において重要な役割を果たす。
11 生成AI 応用分野 新しいコンテンツ(テキスト、画像、音楽、動画など)を自律的に生成するAI技術。GANや拡散モデル、大規模言語モデルなど様々なアプローチがある。創造的作業の自動化や補助、コンテンツのパーソナライゼーション、データ拡張などに応用され、芸術、メディア制作、ゲーム開発などの分野に変革をもたらしている。
10 自然言語処理(NLP) 応用分野 コンピュータが人間の言語を理解・生成・操作するための技術分野。機械翻訳、感情分析、質問応答、文書要約、チャットボットなど多様なタスクを含む。近年は大規模言語モデルの登場により飛躍的に発展し、検索エンジン、仮想アシスタント、コンテンツ自動生成などで広く活用されている。
9 AIアシスタント AI応用 人間のようなインタラクションを通じて様々なタスクを支援する高度なAIシステム。質問応答、情報検索、タスクの自動化、文章生成などの機能を備え、自然言語で対話できる。Siri、Alexa、Google Assistant、Claudeなどが代表例。
8 Claude 3.7 Sonnet モデル Anthropicが開発した最新のAIモデル。強化された推論能力と拡張思考モードを備え、複雑な問題解決やコンテキスト理解に優れている。特にビジネスや学術分野での利用に向いている。
7 GPT-4o モデル OpenAIが開発したマルチモーダルモデル。テキスト、画像、音声、動画を統合的に処理し、高速応答性と多言語対応を特徴とする。約50言語に対応し、人間に近い応答速度を実現している。

📚 おすすめの学習サービス

効率的な学習をサポートする厳選サービス