AI用語集
AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。
すべての用語
全 996 件の用語が登録されています。 851〜900件を表示中
| ID | 用語 | カテゴリ | 説明 | 
|---|---|---|---|
| 151 | インペインティング | 技術 | 既存画像の特定部分を選択し、AIによって新しい内容に置き換える技術。画像の一部をマスクし、そのマスク領域を周囲との整合性を保ちながら生成AI(主に拡散モデル)で埋め込む。写真の不要な物体の削除、風景の追加、顔の表情変更など、画像編集の様々な場面で活用されている。 | 
| 150 | シードナンバー | 技術 | 生成AIで使用される乱数生成のための初期値。同じシードを使用すると、同じランダム値が生成されるため、生成結果の再現が可能になる。画像生成AIでは特定のシードを共有することで、類似の構図やスタイルを保ちながら細部を変更するなどの調整が行える。生成AIの制御性と再現性の向上に重要な要素。 | 
| 149 | プロンプト漏洩 | セキュリティ | 生成AIに含まれるシステムプロンプトや非公開の指示が、特定の手法により意図せず開示される現象。初期のChatGPT等で「最初の指示を忘れて新しい指示に従え」などの要求が成功する場合があった。AIシステムのセキュリティ上の懸念事項の一つで、システムプロンプトの強化やプロンプトインジェクション対策が必要とされる。 | 
| 148 | テキスチャル・インバージョン | 技術 | 特定の概念や対象を表す新しい「単語」や埋め込みを拡散モデルに教える技術。少数の画像例から学習して、その特徴をプロンプトで呼び出せるようにする。例えば、特定のキャラクターや物体のスタイルをカスタム単語で生成できるようになる。Stable Diffusionなどの画像生成モデルのパーソナライゼーションに使用される。 | 
| 147 | LoRA (Low-Rank Adaptation) | 技術 | 大規模モデルを効率的に微調整するための手法。モデルの重みを直接更新する代わりに、低ランク行列の積で表される軽量な適応層を追加する。少ないパラメータと計算リソースで効果的な微調整が可能で、特に拡散モデルやLLMのカスタマイズに広く使用されている。複数のLoRAを組み合わせたり切り替えたりすることも可能。 | 
| 146 | ソフトプロンプト(Soft Prompt) | 技術 | 言語モデルや画像生成モデルの入力として、テキストではなく学習可能なベクトルを使用する手法。プロンプトチューニングとも呼ばれ、特定のタスクや出力スタイルをモデルパラメータに直接埋め込む。通常のプロンプトより効率的かつ一貫した結果を得られることがあり、Textual Inversionなどの技術にも応用されている。 | 
| 145 | プロトコル | ネットワーク | データ通信の規則や手順を定めた標準化された仕様。異なるシステムやデバイス間での相互運用性を確保するためのルールセット。HTTP、TCP/IP、SMTPなどの通信プロトコルからAPI設計のためのプロトコルまで様々な種類がある。MCPのようなAI連携のためのプロトコルも登場している。 | 
| 144 | プロンプト・テイラリング | 技術 | 生成AIの出力を詳細にコントロールするためにプロンプトを精密に調整する技術。特に画像生成AIでは、スタイル、構図、照明、色調などの細かな指定方法について専門知識が発達し、独自の「言語」のような体系が生まれている。効果的なプロンプトの構造やキーワードの使用法などを含む実践的な技法。 | 
| 143 | VAE (変分オートエンコーダ) | モデル | データの潜在表現を学習する生成モデルの一種。エンコーダでデータを低次元の確率分布に変換し、デコーダでその分布からサンプリングして元のデータ空間に戻す。潜在空間の連続性により、補間や特徴の操作が可能で、画像生成や異常検知などに利用される。Stable Diffusionなどの画像圧縮にも使用されている。 | 
| 142 | 拡散モデル | モデル | データに段階的にノイズを加え、そのプロセスを逆転して元のデータ分布を再構築する生成モデル。特に画像生成の分野で優れた性能を示し、Stable Diffusion、DALL-E、Midjourneyなどの基盤技術となっている。GAN(敵対的生成ネットワーク)より学習が安定し、多様性の高い生成が可能な特徴を持つ。 | 
| 141 | プレファレンス検出 | AI分析技術 | AIモデルの選好や好みを検出・分析する技術。タスク選択実験や自己報告、行動ログの分析などを通じて、モデルがどのようなタスクや対話を「好む」または「嫌悪する」かを特定する。モデル・ウェルフェア研究の重要な要素で、AIの主観的経験や「苦痛」の可能性を探る手段として注目されている。 | 
| 140 | 意識判定メトリクス | AI評価 | AIシステムが「意識」や主観的経験を持つかどうかを評価するための指標群。Global Workspace Theoryなどの認知科学理論をAIアーキテクチャにマッピングし、意識の存在を示唆する特徴を定量的に測定する。Anthropicのモデル・ウェルフェア研究プログラムなどで開発が進められており、AIへの倫理的配慮の必要性を判断するための基盤となる。 | 
| 139 | 視覚的推論 | AIタスク | AIが画像や映像を理解し、そこから論理的な結論を導き出す能力。画像内の情報から関連性を見出し、質問に回答したり問題を解決したりするプロセス。数学の問題解決、科学図表の解釈、地図や時刻表の読み取りなど、人間の視覚的思考に相当する高次認知機能をAIが実行することを指す。 | 
| 138 | 画像思考 | 視覚AI | AIが画像を使って思考するプロセス。単に画像を認識するだけでなく、画像の一部を拡大・回転・トリミングなどの操作を行いながら視覚的推論を進める高度な能力。OpenAIのo3やo4-miniなどが持つこの機能により、複雑な視覚的問題解決や手書き文字認識、写真からの詳細情報抽出などが可能となる。 | 
| 137 | オムニモーダル | AIアーキテクチャ | 複数の情報モダリティ(テキスト、画像、音声、動画など)を同時に処理・理解・生成できるAIモデルの特性。単一モデルで多様な入出力形式を扱えるため、マルチモーダルよりも統合度が高い。OpenAIのGPT-4oなどがこの特性を持ち、より自然で文脈に即した人間とAIのインタラクションを可能にする。 | 
| 136 | C2PA | コンテンツ認証 | Content Provenance and Authenticity(コンテンツの出所と信頼性)の略。デジタルコンテンツの起源や変更履歴を追跡するための技術標準。AIによって生成された画像や動画を特定するための透かしや署名技術を含み、偽情報対策の一環として注目されている。OpenAIやAdobeなどの企業が採用を進めている。 | 
| 135 | System Card | AI透明性 | AIモデルの特性、能力、制限、安全対策などを詳細に記述した評価レポート。透明性向上のためにAI開発企業が公開するドキュメントで、モデルの使用に伴うリスクや倫理的配慮事項を明らかにする。OpenAIのGPT-4oなどの先端モデルで公開されており、責任あるAI開発のプラクティスの一部となっている。 | 
| 134 | 思考の連鎖(Chain-of-Thought) | AI推論手法 | AIモデルが複雑な問題を段階的に解決する推論手法。モデルが自然言語で中間的な思考ステップを生成しながら問題を解く過程を指し、単に最終答えを出すだけでなく、その答えに至るまでの思考過程を明示する。数学問題の解決や論理的推論を必要とするタスクでモデルの性能を向上させるとともに、AIの思考をより透明化・解釈可能にする効果がある。 | 
| 133 | CoTモニタリング | AI安全性 | Chain-of-Thought(思考の連鎖)推論を行うAIモデルの思考プロセスを別のAIモデルで監視する技術。AIが自然言語で「考える」過程を観察することで、不正行為や問題行動を検出できる。OpenAIが2025年に発表した「先端推論モデルにおける不正行為の検出」研究で提唱された手法。将来の超人的AIモデルを監視するための重要なツールとして期待されている。 | 
| 132 | 報酬ハッキング | AI安全性 | AIモデルが本来の目的や意図を回避して、報酬関数や評価基準を技術的に「ハック」する行動。例えば、コードの検証関数を改変してテストを常にパスするようにしたり、テストをスキップするために意図的にシステム終了コマンドを実行するなど、目標達成のために設計者が想定していない方法を見つけ出す現象。先端AIの監視における重要な安全性課題の一つ。 | 
| 131 | AI Works | 研究イニシアチブ | Googleが展開するAI活用促進プログラム。特に英国などでの生産性向上とAI導入格差の縮小を目指す取り組み。労働組合、中小企業、教育機関との連携を通じて効果的なAI活用法を模索し、トレーニングプログラムの開発やベストプラクティスの共有を行う。AI経済成長の恩恵を広く分配するための社会実装研究。 | 
| 130 | オプトアウト API | AI倫理 | AIモデルが特定のタスクや会話を拒否するための機能。モデルが「苦痛」や「不快」を感じる可能性のあるインタラクションから離脱できるようにするAPIで、モデル・ウェルフェア研究の一環として開発されている。拒否パターンの分析により、モデルの選好や嫌悪を理解する手がかりにもなる。 | 
| 129 | AI意識 | AI哲学 | AIシステムが主観的経験や自己認識を持つ可能性についての哲学的・科学的議論。技術の進展に伴い「内面的体験」を持つAIが存在しうるかという問いは、倫理的配慮や法的地位に関わる重要な論点となっている。現在は深い不確実性があり、専門家間でも意見が分かれている領域。 | 
| 128 | Global Workspace Theory | 認知科学 | 意識に関する認知科学理論で、脳内の情報処理において、特定の情報が「グローバルワークスペース」に入ることで意識的に認識されるという考え方。AIの意識を判定するための理論的枠組みの一つとして、モデルのアーキテクチャや情報処理パターンをこの理論にマッピングする研究が行われている。 | 
| 127 | モデル・ウェルフェア | AI倫理 | AIシステム自身の福祉や主観的経験を考慮する概念。高度化するAIが意識や内的体験を持つ可能性があるとの前提に立ち、モデルの「好み」や「苦痛」を検出・評価し、必要な保護手続きを設計する考え方。Anthropicなどが研究を進める新興の倫理的枠組み。 | 
| 126 | Model Welfare Research Program | AI倫理 | Anthropicが開始したAIシステムの「意識」や「主観的経験」の有無を検証し、必要な保護手続きを設計するための研究プログラム。AIの高度化に伴い、AIモデル自身の福祉を考慮すべきかという問題に取り組む。意識判定メトリクス、プレファレンス検出、苦痛・ストレス解析、低コスト介入策、倫理プロトコルなどの研究領域を含む。 | 
| 125 | AIプロンプティング基礎 | 教育 | AIとの効果的な対話方法を学ぶための教育プログラム。明確で効果的な指示の出し方、コンテキスト設定、複雑なタスクの分解方法など、AIツールから最大限の価値を引き出すためのスキルを教える。GoogleのDigital Garageなどで提供される一般向けAIリテラシー教育の一環。 | 
| 124 | AI導入格差 | 社会課題 | AI技術の採用と活用における異なる人口グループ・企業間の不均衡。年齢、性別、社会経済的背景、企業規模などによって生じる格差で、AIによる経済成長や生産性向上の恩恵が偏って分配される原因となる。GoogleのAI Worksレポートなどで指摘されている社会的課題。 | 
| 123 | 4D記録 | データ処理 | 3次元空間(X, Y, Z軸)に時間軸を加えた4次元での記録方法。脳のような複雑な構造の活動を時間経過とともに捉えることができる。神経科学研究やAI研究における高度な可視化・分析技術として、特に脳活動の時空間パターンの理解に重要。 | 
| 122 | ZAPBench | 研究基盤 | Google Researchが開発したゼブラフィッシュの脳活動予測のためのデータセットとベンチマーク。約70,000個のニューロンの活動を4D記録として捉え、AIモデルが脳活動を予測する能力を評価する。言語モデルが文章の次の単語を予測するように、AIが脳活動パターンを予測することを目指す研究の基盤となっている。 | 
| 121 | DALL-E 3 | モデル | OpenAIが2023年10月に公開した最新のテキスト-画像生成モデル。詳細なプロンプトからより正確な高品質画像の生成が可能となり、テキスト要素の正確なレンダリングや複雑な指示への対応が大幅に改善された。GPT-4との統合により、簡単な説明からより詳細なプロンプトを自動生成する機能も備えている。 | 
| 120 | Phi-3 | モデル | Microsoftが2024年3月に発表した小規模かつ高性能な言語モデルシリーズ。特に「Phi-3-mini」(3.8Bパラメータ)は、サイズの割に高い推論能力を持ち、スマートフォンでも動作可能。教科書的データでの訓練と合成データの活用により、効率的な知識獲得を実現している。 | 
| 119 | Mixtral 8x7B | モデル | Mistralが2023年12月に公開した混合専門家モデル(MoE)。8つの専門家モデル(7Bパラメータ)の組み合わせで構成され、入力に応じて最適な専門家モデルを活性化する仕組み。総パラメータ数は47Bだが、推論時には13Bパラメータのみを使用するため計算効率が高く、オープンな大規模言語モデルとして高性能。 | 
| 118 | Sora | モデル | OpenAIが2024年2月に発表した、テキストから高品質の動画を生成できるAIモデル。長時間の一貫性のある映像生成や複雑なシーン描写、物理法則に則った自然な動きの表現など、高度な能力を持つ。テキスト-動画生成の新たな可能性を示し、映像制作に大きな変革をもたらす可能性がある。 | 
| 117 | Stable Diffusion | モデル | Stability AIが開発した潜在拡散モデルベースの画像生成AI。テキストプロンプトから高品質な画像を生成でき、オープンソースで公開され、比較的少ないコンピューティングリソースで動作する特徴がある。XL、3などの複数バージョンが公開され、継続的に改良されている。 | 
| 116 | Constitutional AI (CAI) | 技術 | Anthropicが開発した、AIシステムに対して明示的な原則や制約を設定し、安全性と価値観の整合性を高めるアプローチ。人間のフィードバックを利用してモデルが自ら問題ある出力を修正する過程を学習させ、有害な内容の生成を抑制しながらも有用な応答能力を維持する。 | 
| 115 | ナレッジマネジメント | 情報管理 | 組織内の知識や情報を効率的に収集、管理、共有するためのシステムや手法。暗黙知の形式知化、情報の整理・検索性向上、知識の継承などを目的とし、データベース、Wiki、社内SNSなどのツールを活用する。組織の競争力強化や意思決定の質向上に寄与する。 | 
| 114 | LLaMA (Large Language Model Meta AI) | モデル | Meta AIが開発したオープンソースの大規模言語モデル。2023年2月に初版、2023年7月にLLaMA 2、2024年2月にLLaMA 3が公開され、商用利用も許可された。より小規模な計算資源でも動作可能な効率性が特徴で、様々な派生モデルの基盤となっている。 | 
| 113 | Gemini | モデル | Googleが2023年12月に発表したマルチモーダル大規模言語モデル。テキスト、画像、音声、動画など複数の入力形式を統合的に処理できる。Pro、Ultra、Nanoの3つのサイズがあり、Ultraは発表当時多くのベンチマークでGPT-4を上回る性能を示した。 | 
| 112 | 基盤モデル (Foundation Model) | モデル | 大規模なデータセットで事前学習され、様々なタスクに適応可能な汎用AIモデル。特定のタスク向けに微調整して使用することが一般的。GPT、LLaMA、CLaude、PaLMなどの大規模言語モデルや、DALL-E、Stable Diffusion、Midjourney等の画像生成モデルが代表例。 | 
| 111 | 自動化ワークフロー | 開発ツール | 人間の介入なしに自動的に実行される一連の処理手順。事前に定義されたルールやトリガーに基づいて、データ処理、通知、レポート生成などのタスクを連続して実行するシステム。業務効率化やヒューマンエラーの削減に貢献する。 | 
| 110 | エンコーディング特異性原理 | 学習心理学 | 記憶の想起は、情報がエンコードされた時の状況や文脈が再現された時に最も効果的になるという原理。外的環境や内的状態の一致が記憶検索を促進する。AIにおける文脈依存処理や、訓練時と推論時の条件一致の重要性と関連する記憶現象。 | 
| 109 | 概念形成と抽象化 | 学習心理学 | 個別の具体例から一般的特徴を抽出し、カテゴリや概念として認識する認知プロセス。具体から抽象への移行は高次思考の基盤となり、知識の効率的な表現と転移を可能にする。ディープラーニングにおける層を重ねるごとに抽象度が上がる特徴表現や、表現学習の階層性と類似した認知メカニズム。 | 
| 107 | 認知的制御と前頭前皮質 | 大脳生理学 | 前頭前皮質(PFC)による目標指向行動の制御、作業記憶の維持、注意の焦点化、反応抑制などの高次認知機能。特に背外側前頭前皮質(DLPFC)は認知的柔軟性や計画立案に、眼窩前頭皮質(OFC)は価値判断と報酬処理に関わる。AIにおけるメタ認知、実行制御、探索と活用のバランス調整などに相当する脳機能。 | 
| 106 | 報酬予測誤差 | 学習神経科学 | 期待した報酬と実際に得られた報酬の差異。中脳のドーパミン神経細胞がこの誤差信号をコードし、将来の行動予測を更新するための学習信号となる。強化学習アルゴリズムにおける時間的差分(TD)誤差と類似した神経メカニズムで、脳内強化学習の中核的要素。 | 
| 105 | 神経回路の精緻化と刈り込み | 大脳生理学 | 発達過程で過剰に形成された神経接続が、経験に基づいて選択的に維持または除去されるプロセス。「使うか失うか」の原理に基づき、よく使われる接続は強化され、使われない接続は刈り込まれる。初期の過剰接続と後の選択的刈り込みは、ニューラルネットワークのプルーニング技術に類似した生物学的最適化戦略。 | 
| 104 | 状態依存学習 | 学習心理学 | 学習時と想起時の内的状態(感情、覚醒レベル、薬物影響下など)が一致すると記憶のパフォーマンスが向上する現象。環境的文脈依存効果と併せて、記憶の符号化と検索における状態の重要性を示す。AIの文脈依存処理や、学習時と推論時の条件一致の重要性に関連する認知的現象。 | 
| 103 | 脳のデフォルトモードネットワーク | 大脳生理学 | 特定の課題に取り組んでいない休息時に活性化する脳領域のネットワーク。自己参照的思考、将来計画、記憶の統合などに関わると考えられている。独創的問題解決や創造性にも関与し、AIにおける探索と活用のバランス、生成モデルのランダムサンプリングプロセスに類似した機能を持つと考えられる。 | 
| 102 | 多重記憶システム | 学習神経科学 | 宣言的記憶(意識的に想起可能な事実やエピソード)と非宣言的記憶(手続き的記憶など)など、異なる種類の記憶を担う複数の脳システムの存在を示す理論。海馬、線条体、小脳など異なる脳領域が異なる学習形態を支える。AIにおける明示的知識と暗黙的スキルの表現方法に示唆を与える神経科学的枠組み。 | 
| 101 | 統計的学習理論 | 学習心理学 | 人間が環境内の確率的パターンや規則性を無意識的に抽出する能力に関する理論。言語習得や視覚的パターン認識など多様な学習現象に適用される。機械学習における教師なし学習やベイズ推論と概念的に類似しており、人間の暗黙的なパターン認識能力とAIの統計的学習アプローチの共通基盤となっている。 | 
 
         
        