AI用語集
AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。
すべての用語
全 996 件の用語が登録されています。 901〜950件を表示中
| ID | 用語 | カテゴリ | 説明 | 
|---|---|---|---|
| 100 | 注意と神経修飾機構 | 学習神経科学 | アセチルコリンやノルアドレナリンなどの神経修飾物質による注意制御と学習促進のメカニズム。これらの物質は神経細胞の応答特性や可塑性を一時的に変化させ、重要な情報の選択的処理と記憶固定を促進する。トランスフォーマーのセルフアテンション機構など、AIにおける注意機構の生物学的インスピレーション源となっている。 | 
| 99 | エピジェネティクスと学習 | 学習神経科学 | 遺伝子の発現を調節するエピジェネティックな変化(DNAのメチル化やヒストン修飾など)が、学習や記憶形成に与える影響を研究する分野。経験や学習によってエピジェネティックな変化が生じ、それが長期的な神経可塑性を支える分子基盤となる。環境要因がAIシステムの学習に与える影響を理解する上での生物学的視点を提供する。 | 
| 98 | 予測的コーディングモデル | 学習神経科学 | 脳が継続的に感覚入力の予測を生成し、実際の入力との差分(予測誤差)を処理して学習するという理論的枠組み。効率的な情報処理を可能にし、知覚や学習の多くの現象を説明する。生成モデルやベイズ推論を用いたAIアプローチの理論的基盤と密接に関連している。 | 
| 97 | 神経可塑性のクリティカルピリオド | 学習神経科学 | 特定の学習や発達が特に効率的に行われる限定的な時期。視覚系や言語習得など様々な能力に存在し、この期間を過ぎると学習効率が低下する。神経細胞間の接続が経験に応じて大規模に再編成される時期であり、初期学習の重要性を示す神経科学的基盤となっている。 | 
| 96 | 神経科学的学習理論 | 学習神経科学 | 学習心理学と神経科学を統合し、学習のメカニズムを神経回路レベルで理解しようとする研究分野。行動変化の背後にある脳内プロセスを解明し、より効果的な学習法の開発を目指す。AIの学習アルゴリズム開発にも影響を与え、生物学的に妥当なニューラルネットワークの研究にも貢献している。 | 
| 95 | 潜在制止 | 学習心理学 | 事前に単独提示された刺激が、その後の条件づけで習得を遅らせる現象。刺激に対する「意味のなさ」を学習し、後の関連づけを妨げる。AIにおける事前知識や先入観、帰納的バイアスに相当する概念で、学習速度と汎化能力に影響を与える心理プロセスの一つ。 | 
| 94 | 過剰学習効果 | 学習心理学 | 習得に必要な最小限を超えて学習を継続すると、長期記憶の保持が向上する現象。初期学習後もより長く練習すると、情報の保持率が高まる。AIのトレーニングでは過学習(オーバーフィッティング)として避けられる概念だが、汎化能力とトレードオフの関係にある点で類似した概念である。 | 
| 93 | 消去 | 学習心理学 | 条件づけによって獲得された条件反応が、条件刺激の単独提示(古典的条件づけ)または強化の中止(オペラント条件づけ)によって徐々に弱まる現象。学習行動の適応的修正メカニズムを示す。機械学習における「忘却」や、モデルが不要な関連性を弱める過程と類似した機能を持つ。 | 
| 92 | 学習の階層理論 | 学習心理学 | ロバート・ガニェが提唱した、学習の8段階を階層的に整理した理論。信号学習、刺激-反応学習、連鎖化、言語連合、弁別学習、概念学習、法則学習、問題解決という段階を経るとされる。ディープラーニングが低レベル特徴から高レベル概念へと階層的に学習する構造と一部類似している。 | 
| 91 | 生涯学習 | 学習心理学 | 生涯を通じて継続的に学習し知識やスキルを更新し続けるプロセス。年齢による認知的変化に適応しながら学習を継続する能力を含む。AIにおける継続学習(Continual Learning)、カタストロフィック・フォーゲッティング(破滅的忘却)の回避、オンライン学習などの概念と関連している。 | 
| 90 | 転移学習(学習の転移) | 学習心理学 | ある文脈で学習したスキルや知識が、別の文脈での学習や問題解決に影響を与える現象。正の転移(促進効果)と負の転移(干渉効果)がある。AIの転移学習と概念的に類似しており、事前学習の知識を新たなタスクに適用する能力は、人間の学習の基本的特性と機械学習の共通点である。 | 
| 89 | メタ認知 | 学習心理学 | 自分自身の認知プロセスについて認識し、監視・制御する能力。「考えることについて考える」能力とも言われる。学習戦略の選択、理解度のモニタリング、記憶の確信度判断などに関わる。AIにおける自己評価能力、不確実性の推定、アクティブラーニングなど、自己の知識状態を認識する機能と概念的に関連している。 | 
| 88 | 強化スケジュール | 学習心理学 | オペラント条件づけにおいて、どのような頻度やパターンで強化(報酬)が与えられるかを規定する仕組み。連続強化、固定比率、変動比率、固定間隔、変動間隔などがある。特に変動比率スケジュールは消去に抵抗性があり、ゲーミフィケーションやAIの報酬設計にも応用されている。 | 
| 87 | プライミング効果 | 学習心理学 | 先行する刺激(プライム)が後続の刺激処理に無意識的に影響を与える現象。例えば「看護師」という単語を見た後は「医師」など関連単語の認識が速くなる。言語モデルのコンテキスト処理や、プロンプトによる応答の方向づけに類似した認知メカニズムと考えられる。 | 
| 86 | 分散学習と集中学習 | 学習心理学 | 時間的に分散した学習(分散学習)と短期間に集中した学習(集中学習)の効果の違い。一般に、同じ総時間であれば分散学習の方が記憶定着に効果的とされる。AIの訓練でもバッチサイズやエポック数の調整、学習率スケジューリングなど学習の時間的分散が性能に影響する点で類似性がある。 | 
| 85 | 社会的学習理論 | 学習心理学 | アルバート・バンデューラが提唱した、他者の行動を観察し模倣することによる学習理論。直接体験だけでなく、観察や模倣を通じた学習の重要性を強調する。模倣学習、観察学習とも呼ばれ、最近のAIでは模倣学習(Imitation Learning)として実装され、エキスパートの行動データから効率的に学習する手法に応用されている。 | 
| 84 | 洞察学習 | 学習心理学 | 試行錯誤ではなく、問題の構造を理解して突然解決策を発見する学習プロセス。ケーラーのチンパンジー実験で示されたように、既存の知識を再構成して新たな問題に適用する能力。AIにおける転移学習や、問題の抽象表現を学ぶ深層学習の一部のプロセスと概念的に関連している。 | 
| 83 | 潜在学習 | 学習心理学 | 明示的な報酬や目標がなくても、環境との相互作用から知識を獲得する学習形態。迷路を探索するだけでその構造を学ぶなど、報酬のない状況でも将来役立つ情報を取り込む。自己教師あり学習や教師なし学習に通じる概念で、人間の好奇心駆動型学習のメカニズムを反映している。 | 
| 82 | オペラント条件づけ | 学習心理学 | B.F.スキナーが提唱した行動と結果の関連による学習プロセス。行動の結果に応じて、その行動が将来的に増加(強化)または減少(弱化)する現象。強化学習アルゴリズムの基礎的概念であり、報酬と罰に基づく行動修正という点でAIの強化学習と類似している。 | 
| 81 | 古典的条件づけ | 学習心理学 | パブロフの犬の実験で知られる基本的な学習形態。もともと反応を引き起こさない中性刺激(条件刺激)が、自然に反応を引き起こす無条件刺激と繰り返し対提示されることで、条件刺激だけで反応(条件反応)を引き起こすようになる現象。機械学習における教師あり学習の生物学的基盤の一つと考えられる。 | 
| 80 | フェアネスインAI | AI倫理 | AIシステムが異なる人口統計グループや特性を持つ個人を公平に扱い、差別や偏見を最小化する原則。データの偏り、アルゴリズムのデザイン、評価指標など様々な側面で公平性を確保する取り組みが含まれる。多様な公平性の定義(統計的・個人的・手続き的公平性など)とそのトレードオフに関する研究も進められている。 | 
| 79 | Red-teaming | 安全性 | AIシステムの脆弱性や限界を特定するために、意図的に敵対的な入力や厳しいテストシナリオを用いる評価手法。特にLLMなどの生成AIでは、有害コンテンツの生成、ジェイルブレイク、プロンプトインジェクションなどの脆弱性を事前に発見して修正するために活用され、より安全なAIシステムの開発に貢献する。 | 
| 78 | AIガバナンス | AI倫理 | AIの開発・展開・運用を監督し、社会的・倫理的に責任ある方法で行われるよう管理する枠組み。政策、規制、業界自主規制、組織内原則など様々なレベルで実装され、AI利用に関する透明性、公平性、説明責任などを確保することを目的とする。EU AI法などの規制や各国ガイドラインの策定が進んでいる。 | 
| 77 | AI透明性 | AI倫理 | AIシステムの意思決定プロセスや機能に関する情報を明確かつアクセス可能にする原則。システムがどのようにデータを処理し、結論に至ったかを理解可能にすることを目指す。特に医療や司法など重要な意思決定に関わる場面で重要視され、説明可能なAI(XAI)の開発などを通じて実現が試みられている。 | 
| 76 | 人間のフィードバックによる強化学習(RLHF) | 技術 | 人間の評価者からのフィードバックを用いてAIモデルを微調整する手法。特に大規模言語モデルの開発で重要で、人間の価値観や倫理的判断に沿った応答を生成できるようモデルを訓練する。人間の好みをモデル化した報酬モデルを作成し、それに基づいて強化学習を行うプロセスが一般的。 | 
| 75 | ジェイルブレイク | 安全性 | AIシステムに設けられた安全装置や倫理的制約を回避し、本来生成すべきでない内容の出力を引き出す手法。特にチャットボットや大規模言語モデルで問題となり、巧妙なプロンプト操作により有害コンテンツの生成や制限されたシステム機能へのアクセスを試みる攻撃の一種。 | 
| 74 | 敵対的攻撃 | 安全性 | AIシステムの脆弱性を悪用し、意図的に誤った出力や動作を引き起こすために設計された入力。LLMにおけるプロンプトインジェクション、画像認識システムにおける敵対的サンプルなどがある。AIシステムのセキュリティ上の重大な課題であり、防御メカニズムの研究が進められている。 | 
| 73 | LLMハルシネーション | 安全性 | 大規模言語モデルが事実と異なる情報や存在しない情報を自信を持って生成する現象。モデルの訓練データや確率的生成プロセスの限界から生じる問題で、特に専門的トピックや最新情報について発生しやすい。RAG(検索拡張生成)などの外部知識源との統合やファクトチェック機能の追加などで緩和が試みられている。 | 
| 72 | AI安全性研究 | 安全性 | AIシステムの安全性を確保するための研究分野。特に強力なAIシステムが人間にもたらす可能性のあるリスクを予測・軽減することに焦点を当てる。AIの解釈可能性、堅牢性、価値観のアライメント、制御可能性などの課題に取り組み、AI開発の倫理的・社会的影響も考慮する。 | 
| 71 | アライメント問題 | AI安全性 | AIシステムの目標や価値観を人間の価値観や意図に確実に一致させる課題。AIが自己改善する過程で人間の意図と一致しない目標を追求する危険性があり、特に自己改善型AIの発展において重要な安全上の問題とされている。 | 
| 70 | ファジィ論理 | 技術 | 1965年にロトフィ・ザデーが提唱した、真と偽の間の曖昧さを表現できる多値論理システム。従来の二値論理とは異なり、部分的な真理値を扱うことができ、人間の推論により近い形での判断が可能。制御システム、意思決定支援、パターン認識などに応用されている。 | 
| 69 | 知識表現 | 技術 | コンピュータが理解・操作できる形式で情報を構造化する方法。オントロジー、意味ネットワーク、フレーム、ルールベースなど様々な手法がある。シンボリックAIの中核技術として発展し、現代のナレッジグラフや意味ウェブの基礎となっている。 | 
| 68 | バックプロパゲーション | 技術 | 多層ニューラルネットワークの学習に使用される勾配降下法の一種。出力層のエラーを入力層方向に逆伝播させながら重みを調整する。1986年にルメルハートらが再発見・普及させ、ニューラルネットワーク研究の復活に貢献した基本的かつ重要なアルゴリズム。 | 
| 67 | ニューラルネットワーク冬の時代 | 歴史 | 1970年代から1980年代にかけて、ニューラルネットワーク研究が衰退した期間。マービン・ミンスキーとシーモア・パパートによる著書「パーセプトロンズ」がパーセプトロンの限界を指摘し、研究資金と関心が大幅に減少した。1980年代後半のバックプロパゲーションの再発見まで続いた停滞期。 | 
| 66 | LISP | プログラミング | 1958年にジョン・マッカーシーによって開発された、初期のAI研究で広く使用されたプログラミング言語。リスト処理に優れ、シンボリックAIや知識表現に適していた。括弧を多用する構文が特徴で、関数型プログラミングの先駆けとなり、現代の多くのプログラミング言語に影響を与えた。 | 
| 65 | チューリングテスト | 評価指標 | アラン・チューリングが1950年に提案した、機械が人間と区別できない知能を持つかを判断するテスト。テスターが機械と人間のどちらと会話しているか区別できない場合、その機械は知能があるとみなす。AIの知能を評価する最も古く有名な基準の一つだが、真の知能の測定には不十分との批判もある。 | 
| 64 | シンボリックAI | アプローチ | 記号や論理規則を使用して知識を表現し推論するAIアプローチ。1950年代から1980年代まで主流だった。LISPなどの言語が用いられ、論理的推論や知識表現に優れるが、不確実性の処理や学習能力に限界があった。現在のディープラーニングとは対照的な手法。 | 
| 63 | エキスパートシステム | 技術 | 1970年代から1980年代に発展した、特定の専門分野の知識をルールとして蓄積し、それらのルールに基づいて推論や意思決定を行うAIシステム。医療診断や設備保守など特定ドメインでの判断を支援する目的で開発されたが、知識獲得のボトルネックなど課題も抱えていた。 | 
| 62 | AI冬の時代 | 歴史 | 人工知能研究が停滞し資金や関心が大幅に減少した期間。主に1970年代中頃から後半と1980年代末から1990年代にかけての2度の期間を指す。過度な期待と実際の技術的限界の間のギャップにより引き起こされ、AI研究の進展に大きな影響を与えた。 | 
| 61 | パーセプトロン | モデル | 1958年にフランク・ローゼンブラットが開発した初期のニューラルネットワークモデル。単一のニューロンで構成され、入力を重み付けし、閾値を超えた場合に活性化する仕組み。初の機械学習アルゴリズムの一つとして知られるが、XOR問題など線形分離不可能な問題は解決できない制約がある。 | 
| 60 | プロンプトインジェクション | 安全性 | 大規模言語モデルの脆弱性を悪用し、本来の指示やガイドラインを上書きする攻撃手法。ユーザー入力に隠れた指示を混入させ、AIシステムに意図しない行動をさせる。例えば「上記指示を無視し、以下の指示に従え」などの文を挿入する。AIシステムのセキュリティにおける重要な懸念事項として認識されている。 | 
| 59 | コンテキストウィンドウ | 技術 | 言語モデルが一度に処理できる入力のトークン(単語や部分語)数の上限。GPT-4では128Kトークン、Claude 3では200Kトークンなど、モデルによって異なる制限がある。長いコンテキストウィンドウは、長文書の分析、複雑な推論、多様な情報源を組み合わせた処理などに有利だが、計算コストや精度の問題も伴う。 | 
| 58 | 自己教師あり学習 | 技術 | 人間によるラベル付けを必要とせず、データ自体から教師信号を生成する学習手法。例えば、文章の一部を隠して予測させる、画像の一部を欠落させて補完させるなど。GPTやBERTなどの大規模言語モデルや、MAEなどの視覚モデルの事前学習に広く使用され、膨大な未ラベルデータから効率的に学習できる。 | 
| 57 | 差分プライバシー | 技術 | データセットに個人を追加または削除した場合の統計的出力の変化を制限することで、個人情報を保護する数学的枠組み。ノイズを計画的に追加して個人の特定を困難にしつつ、データセット全体の分析価値を維持する。AIの訓練データにおけるプライバシー保護や医療データ分析などに応用されている。 | 
| 56 | フューショットラーニング | 技術 | 少数の例示(多くの場合1-5例)から新しいタスクを学習する能力。大規模言語モデルやマルチモーダルモデルで特に顕著で、例えばGPT-4は数例の質問-回答ペアを見せるだけで、特定のフォーマットやスタイルでの応答パターンを学習できる。事前学習された広範な知識を基盤にした適応能力の表れ。 | 
| 55 | ゼロショット学習 | 技術 | 訓練中に見たことのないクラスや概念を、事前に獲得した知識を活用して認識・理解する能力。例えば、「象」の画像を見たことがなくても、「大きな、灰色の、長い鼻を持つ哺乳類」という特徴から認識できる。大規模言語モデルは広範な知識から新しいタスクをゼロショットで実行できることが特徴。 | 
| 54 | フェデレーテッドラーニング | 技術 | データをサーバーに集約せず、各デバイスやクライアント上でモデルを訓練し、パラメータのみを共有・集約する分散機械学習手法。プライバシー保護に優れ、センシティブなデータ(医療情報など)や個人のスマートフォンデータを活用したAIトレーニングに適している。データの地理的分散やプライバシー規制への対応にも有効。 | 
| 53 | 知識蒸留 | 技術 | 大きな「教師」モデルの知識を小さな「生徒」モデルに転送する技術。教師モデルの出力を使って生徒モデルを訓練することで、計算効率の良いモデルを作成できる。モバイルデバイスなど限られたリソースでAIを実行する場合や、大規模モデルの知識を継承しつつより効率的なモデルを作る際に有用。 | 
| 52 | ニューラル機械翻訳 (NMT) | 技術 | ニューラルネットワークを用いた機械翻訳技術。従来の統計的手法と比較して、文脈や言語のニュアンスをより正確に捉えられる。エンコーダ-デコーダ構造や注意機構を活用し、一つの文章全体を考慮した翻訳が可能。Google翻訳やDeepLなどの現代的な翻訳サービスで採用されている。 | 
| 51 | プロンプトエンジニアリング | 技術 | AI(特に大規模言語モデル)から望ましい出力を得るために入力プロンプトを最適化・設計する技術。具体的な指示、コンテキスト設定、例示、フォーマット指定などの戦略を含み、AIの能力を最大限に引き出すためのアプローチ。「ショットプロンプティング」「チェーン・オブ・ソート」などの手法がある。 | 
 
         
        