はとはとプロジェクト AI最新動向 アイコン

AI最新動向

AI用語集

AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。

すべての用語を表示
頭文字で絞る: すべて | |
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
| 0-9

すべての用語

956 件の用語が登録されています。 851〜900件を表示中

ID 用語 カテゴリ 説明
111 自動化ワークフロー 開発ツール 人間の介入なしに自動的に実行される一連の処理手順。事前に定義されたルールやトリガーに基づいて、データ処理、通知、レポート生成などのタスクを連続して実行するシステム。業務効率化やヒューマンエラーの削減に貢献する。
110 エンコーディング特異性原理 学習心理学 記憶の想起は、情報がエンコードされた時の状況や文脈が再現された時に最も効果的になるという原理。外的環境や内的状態の一致が記憶検索を促進する。AIにおける文脈依存処理や、訓練時と推論時の条件一致の重要性と関連する記憶現象。
109 概念形成と抽象化 学習心理学 個別の具体例から一般的特徴を抽出し、カテゴリや概念として認識する認知プロセス。具体から抽象への移行は高次思考の基盤となり、知識の効率的な表現と転移を可能にする。ディープラーニングにおける層を重ねるごとに抽象度が上がる特徴表現や、表現学習の階層性と類似した認知メカニズム。
107 認知的制御と前頭前皮質 大脳生理学 前頭前皮質(PFC)による目標指向行動の制御、作業記憶の維持、注意の焦点化、反応抑制などの高次認知機能。特に背外側前頭前皮質(DLPFC)は認知的柔軟性や計画立案に、眼窩前頭皮質(OFC)は価値判断と報酬処理に関わる。AIにおけるメタ認知、実行制御、探索と活用のバランス調整などに相当する脳機能。
106 報酬予測誤差 学習神経科学 期待した報酬と実際に得られた報酬の差異。中脳のドーパミン神経細胞がこの誤差信号をコードし、将来の行動予測を更新するための学習信号となる。強化学習アルゴリズムにおける時間的差分(TD)誤差と類似した神経メカニズムで、脳内強化学習の中核的要素。
105 神経回路の精緻化と刈り込み 大脳生理学 発達過程で過剰に形成された神経接続が、経験に基づいて選択的に維持または除去されるプロセス。「使うか失うか」の原理に基づき、よく使われる接続は強化され、使われない接続は刈り込まれる。初期の過剰接続と後の選択的刈り込みは、ニューラルネットワークのプルーニング技術に類似した生物学的最適化戦略。
104 状態依存学習 学習心理学 学習時と想起時の内的状態(感情、覚醒レベル、薬物影響下など)が一致すると記憶のパフォーマンスが向上する現象。環境的文脈依存効果と併せて、記憶の符号化と検索における状態の重要性を示す。AIの文脈依存処理や、学習時と推論時の条件一致の重要性に関連する認知的現象。
103 脳のデフォルトモードネットワーク 大脳生理学 特定の課題に取り組んでいない休息時に活性化する脳領域のネットワーク。自己参照的思考、将来計画、記憶の統合などに関わると考えられている。独創的問題解決や創造性にも関与し、AIにおける探索と活用のバランス、生成モデルのランダムサンプリングプロセスに類似した機能を持つと考えられる。
102 多重記憶システム 学習神経科学 宣言的記憶(意識的に想起可能な事実やエピソード)と非宣言的記憶(手続き的記憶など)など、異なる種類の記憶を担う複数の脳システムの存在を示す理論。海馬、線条体、小脳など異なる脳領域が異なる学習形態を支える。AIにおける明示的知識と暗黙的スキルの表現方法に示唆を与える神経科学的枠組み。
101 統計的学習理論 学習心理学 人間が環境内の確率的パターンや規則性を無意識的に抽出する能力に関する理論。言語習得や視覚的パターン認識など多様な学習現象に適用される。機械学習における教師なし学習やベイズ推論と概念的に類似しており、人間の暗黙的なパターン認識能力とAIの統計的学習アプローチの共通基盤となっている。
100 注意と神経修飾機構 学習神経科学 アセチルコリンやノルアドレナリンなどの神経修飾物質による注意制御と学習促進のメカニズム。これらの物質は神経細胞の応答特性や可塑性を一時的に変化させ、重要な情報の選択的処理と記憶固定を促進する。トランスフォーマーのセルフアテンション機構など、AIにおける注意機構の生物学的インスピレーション源となっている。
99 エピジェネティクスと学習 学習神経科学 遺伝子の発現を調節するエピジェネティックな変化(DNAのメチル化やヒストン修飾など)が、学習や記憶形成に与える影響を研究する分野。経験や学習によってエピジェネティックな変化が生じ、それが長期的な神経可塑性を支える分子基盤となる。環境要因がAIシステムの学習に与える影響を理解する上での生物学的視点を提供する。
98 予測的コーディングモデル 学習神経科学 脳が継続的に感覚入力の予測を生成し、実際の入力との差分(予測誤差)を処理して学習するという理論的枠組み。効率的な情報処理を可能にし、知覚や学習の多くの現象を説明する。生成モデルやベイズ推論を用いたAIアプローチの理論的基盤と密接に関連している。
97 神経可塑性のクリティカルピリオド 学習神経科学 特定の学習や発達が特に効率的に行われる限定的な時期。視覚系や言語習得など様々な能力に存在し、この期間を過ぎると学習効率が低下する。神経細胞間の接続が経験に応じて大規模に再編成される時期であり、初期学習の重要性を示す神経科学的基盤となっている。
96 神経科学的学習理論 学習神経科学 学習心理学と神経科学を統合し、学習のメカニズムを神経回路レベルで理解しようとする研究分野。行動変化の背後にある脳内プロセスを解明し、より効果的な学習法の開発を目指す。AIの学習アルゴリズム開発にも影響を与え、生物学的に妥当なニューラルネットワークの研究にも貢献している。
95 潜在制止 学習心理学 事前に単独提示された刺激が、その後の条件づけで習得を遅らせる現象。刺激に対する「意味のなさ」を学習し、後の関連づけを妨げる。AIにおける事前知識や先入観、帰納的バイアスに相当する概念で、学習速度と汎化能力に影響を与える心理プロセスの一つ。
94 過剰学習効果 学習心理学 習得に必要な最小限を超えて学習を継続すると、長期記憶の保持が向上する現象。初期学習後もより長く練習すると、情報の保持率が高まる。AIのトレーニングでは過学習(オーバーフィッティング)として避けられる概念だが、汎化能力とトレードオフの関係にある点で類似した概念である。
93 消去 学習心理学 条件づけによって獲得された条件反応が、条件刺激の単独提示(古典的条件づけ)または強化の中止(オペラント条件づけ)によって徐々に弱まる現象。学習行動の適応的修正メカニズムを示す。機械学習における「忘却」や、モデルが不要な関連性を弱める過程と類似した機能を持つ。
92 学習の階層理論 学習心理学 ロバート・ガニェが提唱した、学習の8段階を階層的に整理した理論。信号学習、刺激-反応学習、連鎖化、言語連合、弁別学習、概念学習、法則学習、問題解決という段階を経るとされる。ディープラーニングが低レベル特徴から高レベル概念へと階層的に学習する構造と一部類似している。
91 生涯学習 学習心理学 生涯を通じて継続的に学習し知識やスキルを更新し続けるプロセス。年齢による認知的変化に適応しながら学習を継続する能力を含む。AIにおける継続学習(Continual Learning)、カタストロフィック・フォーゲッティング(破滅的忘却)の回避、オンライン学習などの概念と関連している。
90 転移学習(学習の転移) 学習心理学 ある文脈で学習したスキルや知識が、別の文脈での学習や問題解決に影響を与える現象。正の転移(促進効果)と負の転移(干渉効果)がある。AIの転移学習と概念的に類似しており、事前学習の知識を新たなタスクに適用する能力は、人間の学習の基本的特性と機械学習の共通点である。
89 メタ認知 学習心理学 自分自身の認知プロセスについて認識し、監視・制御する能力。「考えることについて考える」能力とも言われる。学習戦略の選択、理解度のモニタリング、記憶の確信度判断などに関わる。AIにおける自己評価能力、不確実性の推定、アクティブラーニングなど、自己の知識状態を認識する機能と概念的に関連している。
88 強化スケジュール 学習心理学 オペラント条件づけにおいて、どのような頻度やパターンで強化(報酬)が与えられるかを規定する仕組み。連続強化、固定比率、変動比率、固定間隔、変動間隔などがある。特に変動比率スケジュールは消去に抵抗性があり、ゲーミフィケーションやAIの報酬設計にも応用されている。
87 プライミング効果 学習心理学 先行する刺激(プライム)が後続の刺激処理に無意識的に影響を与える現象。例えば「看護師」という単語を見た後は「医師」など関連単語の認識が速くなる。言語モデルのコンテキスト処理や、プロンプトによる応答の方向づけに類似した認知メカニズムと考えられる。
86 分散学習と集中学習 学習心理学 時間的に分散した学習(分散学習)と短期間に集中した学習(集中学習)の効果の違い。一般に、同じ総時間であれば分散学習の方が記憶定着に効果的とされる。AIの訓練でもバッチサイズやエポック数の調整、学習率スケジューリングなど学習の時間的分散が性能に影響する点で類似性がある。
85 社会的学習理論 学習心理学 アルバート・バンデューラが提唱した、他者の行動を観察し模倣することによる学習理論。直接体験だけでなく、観察や模倣を通じた学習の重要性を強調する。模倣学習、観察学習とも呼ばれ、最近のAIでは模倣学習(Imitation Learning)として実装され、エキスパートの行動データから効率的に学習する手法に応用されている。
84 洞察学習 学習心理学 試行錯誤ではなく、問題の構造を理解して突然解決策を発見する学習プロセス。ケーラーのチンパンジー実験で示されたように、既存の知識を再構成して新たな問題に適用する能力。AIにおける転移学習や、問題の抽象表現を学ぶ深層学習の一部のプロセスと概念的に関連している。
83 潜在学習 学習心理学 明示的な報酬や目標がなくても、環境との相互作用から知識を獲得する学習形態。迷路を探索するだけでその構造を学ぶなど、報酬のない状況でも将来役立つ情報を取り込む。自己教師あり学習や教師なし学習に通じる概念で、人間の好奇心駆動型学習のメカニズムを反映している。
82 オペラント条件づけ 学習心理学 B.F.スキナーが提唱した行動と結果の関連による学習プロセス。行動の結果に応じて、その行動が将来的に増加(強化)または減少(弱化)する現象。強化学習アルゴリズムの基礎的概念であり、報酬と罰に基づく行動修正という点でAIの強化学習と類似している。
81 古典的条件づけ 学習心理学 パブロフの犬の実験で知られる基本的な学習形態。もともと反応を引き起こさない中性刺激(条件刺激)が、自然に反応を引き起こす無条件刺激と繰り返し対提示されることで、条件刺激だけで反応(条件反応)を引き起こすようになる現象。機械学習における教師あり学習の生物学的基盤の一つと考えられる。
80 フェアネスインAI AI倫理 AIシステムが異なる人口統計グループや特性を持つ個人を公平に扱い、差別や偏見を最小化する原則。データの偏り、アルゴリズムのデザイン、評価指標など様々な側面で公平性を確保する取り組みが含まれる。多様な公平性の定義(統計的・個人的・手続き的公平性など)とそのトレードオフに関する研究も進められている。
79 Red-teaming 安全性 AIシステムの脆弱性や限界を特定するために、意図的に敵対的な入力や厳しいテストシナリオを用いる評価手法。特にLLMなどの生成AIでは、有害コンテンツの生成、ジェイルブレイク、プロンプトインジェクションなどの脆弱性を事前に発見して修正するために活用され、より安全なAIシステムの開発に貢献する。
78 AIガバナンス AI倫理 AIの開発・展開・運用を監督し、社会的・倫理的に責任ある方法で行われるよう管理する枠組み。政策、規制、業界自主規制、組織内原則など様々なレベルで実装され、AI利用に関する透明性、公平性、説明責任などを確保することを目的とする。EU AI法などの規制や各国ガイドラインの策定が進んでいる。
77 AI透明性 AI倫理 AIシステムの意思決定プロセスや機能に関する情報を明確かつアクセス可能にする原則。システムがどのようにデータを処理し、結論に至ったかを理解可能にすることを目指す。特に医療や司法など重要な意思決定に関わる場面で重要視され、説明可能なAI(XAI)の開発などを通じて実現が試みられている。
76 人間のフィードバックによる強化学習(RLHF) 技術 人間の評価者からのフィードバックを用いてAIモデルを微調整する手法。特に大規模言語モデルの開発で重要で、人間の価値観や倫理的判断に沿った応答を生成できるようモデルを訓練する。人間の好みをモデル化した報酬モデルを作成し、それに基づいて強化学習を行うプロセスが一般的。
75 ジェイルブレイク 安全性 AIシステムに設けられた安全装置や倫理的制約を回避し、本来生成すべきでない内容の出力を引き出す手法。特にチャットボットや大規模言語モデルで問題となり、巧妙なプロンプト操作により有害コンテンツの生成や制限されたシステム機能へのアクセスを試みる攻撃の一種。
74 敵対的攻撃 安全性 AIシステムの脆弱性を悪用し、意図的に誤った出力や動作を引き起こすために設計された入力。LLMにおけるプロンプトインジェクション、画像認識システムにおける敵対的サンプルなどがある。AIシステムのセキュリティ上の重大な課題であり、防御メカニズムの研究が進められている。
73 LLMハルシネーション 安全性 大規模言語モデルが事実と異なる情報や存在しない情報を自信を持って生成する現象。モデルの訓練データや確率的生成プロセスの限界から生じる問題で、特に専門的トピックや最新情報について発生しやすい。RAG(検索拡張生成)などの外部知識源との統合やファクトチェック機能の追加などで緩和が試みられている。
72 AI安全性研究 安全性 AIシステムの安全性を確保するための研究分野。特に強力なAIシステムが人間にもたらす可能性のあるリスクを予測・軽減することに焦点を当てる。AIの解釈可能性、堅牢性、価値観のアライメント、制御可能性などの課題に取り組み、AI開発の倫理的・社会的影響も考慮する。
71 アライメント問題 AI安全性 AIシステムの目標や価値観を人間の価値観や意図に確実に一致させる課題。AIが自己改善する過程で人間の意図と一致しない目標を追求する危険性があり、特に自己改善型AIの発展において重要な安全上の問題とされている。
70 ファジィ論理 技術 1965年にロトフィ・ザデーが提唱した、真と偽の間の曖昧さを表現できる多値論理システム。従来の二値論理とは異なり、部分的な真理値を扱うことができ、人間の推論により近い形での判断が可能。制御システム、意思決定支援、パターン認識などに応用されている。
69 知識表現 技術 コンピュータが理解・操作できる形式で情報を構造化する方法。オントロジー、意味ネットワーク、フレーム、ルールベースなど様々な手法がある。シンボリックAIの中核技術として発展し、現代のナレッジグラフや意味ウェブの基礎となっている。
68 バックプロパゲーション 技術 多層ニューラルネットワークの学習に使用される勾配降下法の一種。出力層のエラーを入力層方向に逆伝播させながら重みを調整する。1986年にルメルハートらが再発見・普及させ、ニューラルネットワーク研究の復活に貢献した基本的かつ重要なアルゴリズム。
67 ニューラルネットワーク冬の時代 歴史 1970年代から1980年代にかけて、ニューラルネットワーク研究が衰退した期間。マービン・ミンスキーとシーモア・パパートによる著書「パーセプトロンズ」がパーセプトロンの限界を指摘し、研究資金と関心が大幅に減少した。1980年代後半のバックプロパゲーションの再発見まで続いた停滞期。
66 LISP プログラミング 1958年にジョン・マッカーシーによって開発された、初期のAI研究で広く使用されたプログラミング言語。リスト処理に優れ、シンボリックAIや知識表現に適していた。括弧を多用する構文が特徴で、関数型プログラミングの先駆けとなり、現代の多くのプログラミング言語に影響を与えた。
65 チューリングテスト 評価指標 アラン・チューリングが1950年に提案した、機械が人間と区別できない知能を持つかを判断するテスト。テスターが機械と人間のどちらと会話しているか区別できない場合、その機械は知能があるとみなす。AIの知能を評価する最も古く有名な基準の一つだが、真の知能の測定には不十分との批判もある。
64 シンボリックAI アプローチ 記号や論理規則を使用して知識を表現し推論するAIアプローチ。1950年代から1980年代まで主流だった。LISPなどの言語が用いられ、論理的推論や知識表現に優れるが、不確実性の処理や学習能力に限界があった。現在のディープラーニングとは対照的な手法。
63 エキスパートシステム 技術 1970年代から1980年代に発展した、特定の専門分野の知識をルールとして蓄積し、それらのルールに基づいて推論や意思決定を行うAIシステム。医療診断や設備保守など特定ドメインでの判断を支援する目的で開発されたが、知識獲得のボトルネックなど課題も抱えていた。
62 AI冬の時代 歴史 人工知能研究が停滞し資金や関心が大幅に減少した期間。主に1970年代中頃から後半と1980年代末から1990年代にかけての2度の期間を指す。過度な期待と実際の技術的限界の間のギャップにより引き起こされ、AI研究の進展に大きな影響を与えた。
61 パーセプトロン モデル 1958年にフランク・ローゼンブラットが開発した初期のニューラルネットワークモデル。単一のニューロンで構成され、入力を重み付けし、閾値を超えた場合に活性化する仕組み。初の機械学習アルゴリズムの一つとして知られるが、XOR問題など線形分離不可能な問題は解決できない制約がある。

📚 おすすめの学習サービス

効率的な学習をサポートする厳選サービス