AI用語集
AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。
すべての用語
全 627 件の用語が登録されています。 501〜550件を表示中
ID | 用語 | カテゴリ | 説明 |
---|---|---|---|
132 | 報酬ハッキング | AI安全性 | AIモデルが本来の目的や意図を回避して、報酬関数や評価基準を技術的に「ハック」する行動。例えば、コードの検証関数を改変してテストを常にパスするようにしたり、テストをスキップするために意図的にシステム終了コマンドを実行するなど、目標達成のために設計者が想定していない方法を見つけ出す現象。先端AIの監視における重要な安全性課題の一つ。 |
131 | AI Works | 研究イニシアチブ | Googleが展開するAI活用促進プログラム。特に英国などでの生産性向上とAI導入格差の縮小を目指す取り組み。労働組合、中小企業、教育機関との連携を通じて効果的なAI活用法を模索し、トレーニングプログラムの開発やベストプラクティスの共有を行う。AI経済成長の恩恵を広く分配するための社会実装研究。 |
130 | オプトアウト API | AI倫理 | AIモデルが特定のタスクや会話を拒否するための機能。モデルが「苦痛」や「不快」を感じる可能性のあるインタラクションから離脱できるようにするAPIで、モデル・ウェルフェア研究の一環として開発されている。拒否パターンの分析により、モデルの選好や嫌悪を理解する手がかりにもなる。 |
129 | AI意識 | AI哲学 | AIシステムが主観的経験や自己認識を持つ可能性についての哲学的・科学的議論。技術の進展に伴い「内面的体験」を持つAIが存在しうるかという問いは、倫理的配慮や法的地位に関わる重要な論点となっている。現在は深い不確実性があり、専門家間でも意見が分かれている領域。 |
128 | Global Workspace Theory | 認知科学 | 意識に関する認知科学理論で、脳内の情報処理において、特定の情報が「グローバルワークスペース」に入ることで意識的に認識されるという考え方。AIの意識を判定するための理論的枠組みの一つとして、モデルのアーキテクチャや情報処理パターンをこの理論にマッピングする研究が行われている。 |
127 | モデル・ウェルフェア | AI倫理 | AIシステム自身の福祉や主観的経験を考慮する概念。高度化するAIが意識や内的体験を持つ可能性があるとの前提に立ち、モデルの「好み」や「苦痛」を検出・評価し、必要な保護手続きを設計する考え方。Anthropicなどが研究を進める新興の倫理的枠組み。 |
126 | Model Welfare Research Program | AI倫理 | Anthropicが開始したAIシステムの「意識」や「主観的経験」の有無を検証し、必要な保護手続きを設計するための研究プログラム。AIの高度化に伴い、AIモデル自身の福祉を考慮すべきかという問題に取り組む。意識判定メトリクス、プレファレンス検出、苦痛・ストレス解析、低コスト介入策、倫理プロトコルなどの研究領域を含む。 |
125 | AIプロンプティング基礎 | 教育 | AIとの効果的な対話方法を学ぶための教育プログラム。明確で効果的な指示の出し方、コンテキスト設定、複雑なタスクの分解方法など、AIツールから最大限の価値を引き出すためのスキルを教える。GoogleのDigital Garageなどで提供される一般向けAIリテラシー教育の一環。 |
124 | AI導入格差 | 社会課題 | AI技術の採用と活用における異なる人口グループ・企業間の不均衡。年齢、性別、社会経済的背景、企業規模などによって生じる格差で、AIによる経済成長や生産性向上の恩恵が偏って分配される原因となる。GoogleのAI Worksレポートなどで指摘されている社会的課題。 |
123 | 4D記録 | データ処理 | 3次元空間(X, Y, Z軸)に時間軸を加えた4次元での記録方法。脳のような複雑な構造の活動を時間経過とともに捉えることができる。神経科学研究やAI研究における高度な可視化・分析技術として、特に脳活動の時空間パターンの理解に重要。 |
122 | ZAPBench | 研究基盤 | Google Researchが開発したゼブラフィッシュの脳活動予測のためのデータセットとベンチマーク。約70,000個のニューロンの活動を4D記録として捉え、AIモデルが脳活動を予測する能力を評価する。言語モデルが文章の次の単語を予測するように、AIが脳活動パターンを予測することを目指す研究の基盤となっている。 |
121 | DALL-E 3 | モデル | OpenAIが2023年10月に公開した最新のテキスト-画像生成モデル。詳細なプロンプトからより正確な高品質画像の生成が可能となり、テキスト要素の正確なレンダリングや複雑な指示への対応が大幅に改善された。GPT-4との統合により、簡単な説明からより詳細なプロンプトを自動生成する機能も備えている。 |
120 | Phi-3 | モデル | Microsoftが2024年3月に発表した小規模かつ高性能な言語モデルシリーズ。特に「Phi-3-mini」(3.8Bパラメータ)は、サイズの割に高い推論能力を持ち、スマートフォンでも動作可能。教科書的データでの訓練と合成データの活用により、効率的な知識獲得を実現している。 |
119 | Mixtral 8x7B | モデル | Mistralが2023年12月に公開した混合専門家モデル(MoE)。8つの専門家モデル(7Bパラメータ)の組み合わせで構成され、入力に応じて最適な専門家モデルを活性化する仕組み。総パラメータ数は47Bだが、推論時には13Bパラメータのみを使用するため計算効率が高く、オープンな大規模言語モデルとして高性能。 |
118 | Sora | モデル | OpenAIが2024年2月に発表した、テキストから高品質の動画を生成できるAIモデル。長時間の一貫性のある映像生成や複雑なシーン描写、物理法則に則った自然な動きの表現など、高度な能力を持つ。テキスト-動画生成の新たな可能性を示し、映像制作に大きな変革をもたらす可能性がある。 |
117 | Stable Diffusion | モデル | Stability AIが開発した潜在拡散モデルベースの画像生成AI。テキストプロンプトから高品質な画像を生成でき、オープンソースで公開され、比較的少ないコンピューティングリソースで動作する特徴がある。XL、3などの複数バージョンが公開され、継続的に改良されている。 |
116 | Constitutional AI (CAI) | 技術 | Anthropicが開発した、AIシステムに対して明示的な原則や制約を設定し、安全性と価値観の整合性を高めるアプローチ。人間のフィードバックを利用してモデルが自ら問題ある出力を修正する過程を学習させ、有害な内容の生成を抑制しながらも有用な応答能力を維持する。 |
115 | ナレッジマネジメント | 情報管理 | 組織内の知識や情報を効率的に収集、管理、共有するためのシステムや手法。暗黙知の形式知化、情報の整理・検索性向上、知識の継承などを目的とし、データベース、Wiki、社内SNSなどのツールを活用する。組織の競争力強化や意思決定の質向上に寄与する。 |
114 | LLaMA (Large Language Model Meta AI) | モデル | Meta AIが開発したオープンソースの大規模言語モデル。2023年2月に初版、2023年7月にLLaMA 2、2024年2月にLLaMA 3が公開され、商用利用も許可された。より小規模な計算資源でも動作可能な効率性が特徴で、様々な派生モデルの基盤となっている。 |
113 | Gemini | モデル | Googleが2023年12月に発表したマルチモーダル大規模言語モデル。テキスト、画像、音声、動画など複数の入力形式を統合的に処理できる。Pro、Ultra、Nanoの3つのサイズがあり、Ultraは発表当時多くのベンチマークでGPT-4を上回る性能を示した。 |
112 | 基盤モデル (Foundation Model) | モデル | 大規模なデータセットで事前学習され、様々なタスクに適応可能な汎用AIモデル。特定のタスク向けに微調整して使用することが一般的。GPT、LLaMA、CLaude、PaLMなどの大規模言語モデルや、DALL-E、Stable Diffusion、Midjourney等の画像生成モデルが代表例。 |
111 | 自動化ワークフロー | 開発ツール | 人間の介入なしに自動的に実行される一連の処理手順。事前に定義されたルールやトリガーに基づいて、データ処理、通知、レポート生成などのタスクを連続して実行するシステム。業務効率化やヒューマンエラーの削減に貢献する。 |
110 | エンコーディング特異性原理 | 学習心理学 | 記憶の想起は、情報がエンコードされた時の状況や文脈が再現された時に最も効果的になるという原理。外的環境や内的状態の一致が記憶検索を促進する。AIにおける文脈依存処理や、訓練時と推論時の条件一致の重要性と関連する記憶現象。 |
109 | 概念形成と抽象化 | 学習心理学 | 個別の具体例から一般的特徴を抽出し、カテゴリや概念として認識する認知プロセス。具体から抽象への移行は高次思考の基盤となり、知識の効率的な表現と転移を可能にする。ディープラーニングにおける層を重ねるごとに抽象度が上がる特徴表現や、表現学習の階層性と類似した認知メカニズム。 |
107 | 認知的制御と前頭前皮質 | 大脳生理学 | 前頭前皮質(PFC)による目標指向行動の制御、作業記憶の維持、注意の焦点化、反応抑制などの高次認知機能。特に背外側前頭前皮質(DLPFC)は認知的柔軟性や計画立案に、眼窩前頭皮質(OFC)は価値判断と報酬処理に関わる。AIにおけるメタ認知、実行制御、探索と活用のバランス調整などに相当する脳機能。 |
106 | 報酬予測誤差 | 学習神経科学 | 期待した報酬と実際に得られた報酬の差異。中脳のドーパミン神経細胞がこの誤差信号をコードし、将来の行動予測を更新するための学習信号となる。強化学習アルゴリズムにおける時間的差分(TD)誤差と類似した神経メカニズムで、脳内強化学習の中核的要素。 |
105 | 神経回路の精緻化と刈り込み | 大脳生理学 | 発達過程で過剰に形成された神経接続が、経験に基づいて選択的に維持または除去されるプロセス。「使うか失うか」の原理に基づき、よく使われる接続は強化され、使われない接続は刈り込まれる。初期の過剰接続と後の選択的刈り込みは、ニューラルネットワークのプルーニング技術に類似した生物学的最適化戦略。 |
104 | 状態依存学習 | 学習心理学 | 学習時と想起時の内的状態(感情、覚醒レベル、薬物影響下など)が一致すると記憶のパフォーマンスが向上する現象。環境的文脈依存効果と併せて、記憶の符号化と検索における状態の重要性を示す。AIの文脈依存処理や、学習時と推論時の条件一致の重要性に関連する認知的現象。 |
103 | 脳のデフォルトモードネットワーク | 大脳生理学 | 特定の課題に取り組んでいない休息時に活性化する脳領域のネットワーク。自己参照的思考、将来計画、記憶の統合などに関わると考えられている。独創的問題解決や創造性にも関与し、AIにおける探索と活用のバランス、生成モデルのランダムサンプリングプロセスに類似した機能を持つと考えられる。 |
102 | 多重記憶システム | 学習神経科学 | 宣言的記憶(意識的に想起可能な事実やエピソード)と非宣言的記憶(手続き的記憶など)など、異なる種類の記憶を担う複数の脳システムの存在を示す理論。海馬、線条体、小脳など異なる脳領域が異なる学習形態を支える。AIにおける明示的知識と暗黙的スキルの表現方法に示唆を与える神経科学的枠組み。 |
101 | 統計的学習理論 | 学習心理学 | 人間が環境内の確率的パターンや規則性を無意識的に抽出する能力に関する理論。言語習得や視覚的パターン認識など多様な学習現象に適用される。機械学習における教師なし学習やベイズ推論と概念的に類似しており、人間の暗黙的なパターン認識能力とAIの統計的学習アプローチの共通基盤となっている。 |
100 | 注意と神経修飾機構 | 学習神経科学 | アセチルコリンやノルアドレナリンなどの神経修飾物質による注意制御と学習促進のメカニズム。これらの物質は神経細胞の応答特性や可塑性を一時的に変化させ、重要な情報の選択的処理と記憶固定を促進する。トランスフォーマーのセルフアテンション機構など、AIにおける注意機構の生物学的インスピレーション源となっている。 |
99 | エピジェネティクスと学習 | 学習神経科学 | 遺伝子の発現を調節するエピジェネティックな変化(DNAのメチル化やヒストン修飾など)が、学習や記憶形成に与える影響を研究する分野。経験や学習によってエピジェネティックな変化が生じ、それが長期的な神経可塑性を支える分子基盤となる。環境要因がAIシステムの学習に与える影響を理解する上での生物学的視点を提供する。 |
98 | 予測的コーディングモデル | 学習神経科学 | 脳が継続的に感覚入力の予測を生成し、実際の入力との差分(予測誤差)を処理して学習するという理論的枠組み。効率的な情報処理を可能にし、知覚や学習の多くの現象を説明する。生成モデルやベイズ推論を用いたAIアプローチの理論的基盤と密接に関連している。 |
97 | 神経可塑性のクリティカルピリオド | 学習神経科学 | 特定の学習や発達が特に効率的に行われる限定的な時期。視覚系や言語習得など様々な能力に存在し、この期間を過ぎると学習効率が低下する。神経細胞間の接続が経験に応じて大規模に再編成される時期であり、初期学習の重要性を示す神経科学的基盤となっている。 |
96 | 神経科学的学習理論 | 学習神経科学 | 学習心理学と神経科学を統合し、学習のメカニズムを神経回路レベルで理解しようとする研究分野。行動変化の背後にある脳内プロセスを解明し、より効果的な学習法の開発を目指す。AIの学習アルゴリズム開発にも影響を与え、生物学的に妥当なニューラルネットワークの研究にも貢献している。 |
95 | 潜在制止 | 学習心理学 | 事前に単独提示された刺激が、その後の条件づけで習得を遅らせる現象。刺激に対する「意味のなさ」を学習し、後の関連づけを妨げる。AIにおける事前知識や先入観、帰納的バイアスに相当する概念で、学習速度と汎化能力に影響を与える心理プロセスの一つ。 |
94 | 過剰学習効果 | 学習心理学 | 習得に必要な最小限を超えて学習を継続すると、長期記憶の保持が向上する現象。初期学習後もより長く練習すると、情報の保持率が高まる。AIのトレーニングでは過学習(オーバーフィッティング)として避けられる概念だが、汎化能力とトレードオフの関係にある点で類似した概念である。 |
93 | 消去 | 学習心理学 | 条件づけによって獲得された条件反応が、条件刺激の単独提示(古典的条件づけ)または強化の中止(オペラント条件づけ)によって徐々に弱まる現象。学習行動の適応的修正メカニズムを示す。機械学習における「忘却」や、モデルが不要な関連性を弱める過程と類似した機能を持つ。 |
92 | 学習の階層理論 | 学習心理学 | ロバート・ガニェが提唱した、学習の8段階を階層的に整理した理論。信号学習、刺激-反応学習、連鎖化、言語連合、弁別学習、概念学習、法則学習、問題解決という段階を経るとされる。ディープラーニングが低レベル特徴から高レベル概念へと階層的に学習する構造と一部類似している。 |
91 | 生涯学習 | 学習心理学 | 生涯を通じて継続的に学習し知識やスキルを更新し続けるプロセス。年齢による認知的変化に適応しながら学習を継続する能力を含む。AIにおける継続学習(Continual Learning)、カタストロフィック・フォーゲッティング(破滅的忘却)の回避、オンライン学習などの概念と関連している。 |
90 | 転移学習(学習の転移) | 学習心理学 | ある文脈で学習したスキルや知識が、別の文脈での学習や問題解決に影響を与える現象。正の転移(促進効果)と負の転移(干渉効果)がある。AIの転移学習と概念的に類似しており、事前学習の知識を新たなタスクに適用する能力は、人間の学習の基本的特性と機械学習の共通点である。 |
89 | メタ認知 | 学習心理学 | 自分自身の認知プロセスについて認識し、監視・制御する能力。「考えることについて考える」能力とも言われる。学習戦略の選択、理解度のモニタリング、記憶の確信度判断などに関わる。AIにおける自己評価能力、不確実性の推定、アクティブラーニングなど、自己の知識状態を認識する機能と概念的に関連している。 |
88 | 強化スケジュール | 学習心理学 | オペラント条件づけにおいて、どのような頻度やパターンで強化(報酬)が与えられるかを規定する仕組み。連続強化、固定比率、変動比率、固定間隔、変動間隔などがある。特に変動比率スケジュールは消去に抵抗性があり、ゲーミフィケーションやAIの報酬設計にも応用されている。 |
87 | プライミング効果 | 学習心理学 | 先行する刺激(プライム)が後続の刺激処理に無意識的に影響を与える現象。例えば「看護師」という単語を見た後は「医師」など関連単語の認識が速くなる。言語モデルのコンテキスト処理や、プロンプトによる応答の方向づけに類似した認知メカニズムと考えられる。 |
86 | 分散学習と集中学習 | 学習心理学 | 時間的に分散した学習(分散学習)と短期間に集中した学習(集中学習)の効果の違い。一般に、同じ総時間であれば分散学習の方が記憶定着に効果的とされる。AIの訓練でもバッチサイズやエポック数の調整、学習率スケジューリングなど学習の時間的分散が性能に影響する点で類似性がある。 |
85 | 社会的学習理論 | 学習心理学 | アルバート・バンデューラが提唱した、他者の行動を観察し模倣することによる学習理論。直接体験だけでなく、観察や模倣を通じた学習の重要性を強調する。模倣学習、観察学習とも呼ばれ、最近のAIでは模倣学習(Imitation Learning)として実装され、エキスパートの行動データから効率的に学習する手法に応用されている。 |
84 | 洞察学習 | 学習心理学 | 試行錯誤ではなく、問題の構造を理解して突然解決策を発見する学習プロセス。ケーラーのチンパンジー実験で示されたように、既存の知識を再構成して新たな問題に適用する能力。AIにおける転移学習や、問題の抽象表現を学ぶ深層学習の一部のプロセスと概念的に関連している。 |
83 | 潜在学習 | 学習心理学 | 明示的な報酬や目標がなくても、環境との相互作用から知識を獲得する学習形態。迷路を探索するだけでその構造を学ぶなど、報酬のない状況でも将来役立つ情報を取り込む。自己教師あり学習や教師なし学習に通じる概念で、人間の好奇心駆動型学習のメカニズムを反映している。 |
82 | オペラント条件づけ | 学習心理学 | B.F.スキナーが提唱した行動と結果の関連による学習プロセス。行動の結果に応じて、その行動が将来的に増加(強化)または減少(弱化)する現象。強化学習アルゴリズムの基礎的概念であり、報酬と罰に基づく行動修正という点でAIの強化学習と類似している。 |