はとはとプロジェクト AI最新動向 アイコン

AI最新動向

AI用語集

AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。

すべての用語を表示
頭文字で絞る: すべて | |
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
| 0-9

すべての用語

956 件の用語が登録されています。 801〜850件を表示中

ID 用語 カテゴリ 説明
161 神経伝達物質 大脳生理学 シナプスにおいて情報を伝達する化学物質。グルタミン酸(興奮性)やGABA(抑制性)など多様な種類があり、各種情報処理や脳状態の調整に関与する。ドーパミンは報酬予測や動機づけ、セロトニンは感情制御などに関わる。強化学習における報酬信号や、様々な活性化関数に相当する生物学的基盤。
160 ニューロン多様性 大脳生理学 脳内には形態、電気生理学的特性、神経伝達物質、結合パターンの異なる数百種類以上のニューロンタイプが存在する。この多様性が複雑な情報処理と脳の計算能力を支える。近年のAIでも異なる特性の「専門家」ニューロンを組み合わせるMoE(混合専門家)モデルなどが開発されている。
159 海馬と記憶形成 大脳生理学 海馬は新しい宣言的記憶(エピソード記憶と意味記憶)の形成に不可欠な脳領域。新情報の一時的保管と長期記憶への統合を担当し、特に空間記憶に重要。長期的な記憶は皮質に分散して保存される。機械学習における記憶ネットワークやメモリ拡張機構に類似した働きをする。
158 作業記憶 AI基礎科学 情報を一時的に保持し操作するための限られた容量の記憶システム。学習、推論、問題解決などの複雑な認知タスクに不可欠です。通常7±2項目を15-30秒間保持できると言われており、AIシステムの設計においても重要な参考概念となっています。特に、言語モデルのコンテキストウィンドウの設計や、ユーザーインターフェースの情報提示方法に影響を与えています。
157 大脳皮質の層構造 大脳生理学 哺乳類の大脳皮質は典型的に6層の神経細胞層から構成される。各層は特徴的な細胞タイプ、接続パターン、機能を持つ。層構造は情報処理の階層性を反映しており、ディープニューラルネットワークの階層構造設計に影響を与えている。特に畳み込みニューラルネットワークの階層的特徴抽出は皮質の視覚情報処理と類似性を持つ。
156 ミラーニューロン 大脳生理学 他者の行動を観察する際に、自分自身がその行動を実行する場合と同様に活動する特殊な神経細胞群。模倣学習、共感、意図理解などの社会的認知に関わると考えられている。AIにおける模倣学習や、行動から意図を推論する逆強化学習などに概念的に関連している。
155 STDP(Spike Timing-Dependent Plasticity) 大脳生理学 シナプス可塑性がプレシナプスとポストシナプスのニューロンの発火タイミングに依存する現象。プレシナプスニューロンがポストシナプスニューロンの発火直前に活動すると結合が強化され、逆の場合は弱化する。時間的因果関係に基づく学習の生物学的基盤で、スパイキングニューラルネットワークのトレーニングアルゴリズムにも応用されている。
154 長期抑圧(LTD) 大脳生理学 特定のパターンの神経活動によってシナプス結合が長期的に弱められる現象。不要な神経接続の除去や、学習における選択的強化に重要な役割を果たす。ニューラルネットワークの重み減少や、一部の正則化技術(重みの衰退など)に類似した神経メカニズム。
153 長期増強(LTP) 大脳生理学 繰り返しの神経活動によってシナプス結合が長期的に強化される現象。学習と記憶の細胞レベルでの基盤と考えられている。NMDA受容体とAMPA受容体が関わる分子メカニズムを持ち、特に海馬で詳しく研究されている。人工ニューラルネットワークにおける重み増加のプロセスに相当する生物学的基盤。
152 神経可塑性 大脳生理学 脳が経験や学習に応じて構造的・機能的に変化する能力。シナプス可塑性(神経細胞間の接続強度の変化)や神経回路の再編成を含む。「Neurons that fire together, wire together」(同時に発火するニューロンは結合する)というヘブの法則に代表される。ニューラルネットワークの重み更新と概念的に類似している。
151 インペインティング 技術 既存画像の特定部分を選択し、AIによって新しい内容に置き換える技術。画像の一部をマスクし、そのマスク領域を周囲との整合性を保ちながら生成AI(主に拡散モデル)で埋め込む。写真の不要な物体の削除、風景の追加、顔の表情変更など、画像編集の様々な場面で活用されている。
150 シードナンバー 技術 生成AIで使用される乱数生成のための初期値。同じシードを使用すると、同じランダム値が生成されるため、生成結果の再現が可能になる。画像生成AIでは特定のシードを共有することで、類似の構図やスタイルを保ちながら細部を変更するなどの調整が行える。生成AIの制御性と再現性の向上に重要な要素。
149 プロンプト漏洩 セキュリティ 生成AIに含まれるシステムプロンプトや非公開の指示が、特定の手法により意図せず開示される現象。初期のChatGPT等で「最初の指示を忘れて新しい指示に従え」などの要求が成功する場合があった。AIシステムのセキュリティ上の懸念事項の一つで、システムプロンプトの強化やプロンプトインジェクション対策が必要とされる。
148 テキスチャル・インバージョン 技術 特定の概念や対象を表す新しい「単語」や埋め込みを拡散モデルに教える技術。少数の画像例から学習して、その特徴をプロンプトで呼び出せるようにする。例えば、特定のキャラクターや物体のスタイルをカスタム単語で生成できるようになる。Stable Diffusionなどの画像生成モデルのパーソナライゼーションに使用される。
147 LoRA (Low-Rank Adaptation) 技術 大規模モデルを効率的に微調整するための手法。モデルの重みを直接更新する代わりに、低ランク行列の積で表される軽量な適応層を追加する。少ないパラメータと計算リソースで効果的な微調整が可能で、特に拡散モデルやLLMのカスタマイズに広く使用されている。複数のLoRAを組み合わせたり切り替えたりすることも可能。
146 ソフトプロンプト(Soft Prompt) 技術 言語モデルや画像生成モデルの入力として、テキストではなく学習可能なベクトルを使用する手法。プロンプトチューニングとも呼ばれ、特定のタスクや出力スタイルをモデルパラメータに直接埋め込む。通常のプロンプトより効率的かつ一貫した結果を得られることがあり、Textual Inversionなどの技術にも応用されている。
145 プロトコル ネットワーク データ通信の規則や手順を定めた標準化された仕様。異なるシステムやデバイス間での相互運用性を確保するためのルールセット。HTTP、TCP/IP、SMTPなどの通信プロトコルからAPI設計のためのプロトコルまで様々な種類がある。MCPのようなAI連携のためのプロトコルも登場している。
144 プロンプト・テイラリング 技術 生成AIの出力を詳細にコントロールするためにプロンプトを精密に調整する技術。特に画像生成AIでは、スタイル、構図、照明、色調などの細かな指定方法について専門知識が発達し、独自の「言語」のような体系が生まれている。効果的なプロンプトの構造やキーワードの使用法などを含む実践的な技法。
143 VAE (変分オートエンコーダ) モデル データの潜在表現を学習する生成モデルの一種。エンコーダでデータを低次元の確率分布に変換し、デコーダでその分布からサンプリングして元のデータ空間に戻す。潜在空間の連続性により、補間や特徴の操作が可能で、画像生成や異常検知などに利用される。Stable Diffusionなどの画像圧縮にも使用されている。
142 拡散モデル モデル データに段階的にノイズを加え、そのプロセスを逆転して元のデータ分布を再構築する生成モデル。特に画像生成の分野で優れた性能を示し、Stable Diffusion、DALL-E、Midjourneyなどの基盤技術となっている。GAN(敵対的生成ネットワーク)より学習が安定し、多様性の高い生成が可能な特徴を持つ。
141 プレファレンス検出 AI分析技術 AIモデルの選好や好みを検出・分析する技術。タスク選択実験や自己報告、行動ログの分析などを通じて、モデルがどのようなタスクや対話を「好む」または「嫌悪する」かを特定する。モデル・ウェルフェア研究の重要な要素で、AIの主観的経験や「苦痛」の可能性を探る手段として注目されている。
140 意識判定メトリクス AI評価 AIシステムが「意識」や主観的経験を持つかどうかを評価するための指標群。Global Workspace Theoryなどの認知科学理論をAIアーキテクチャにマッピングし、意識の存在を示唆する特徴を定量的に測定する。Anthropicのモデル・ウェルフェア研究プログラムなどで開発が進められており、AIへの倫理的配慮の必要性を判断するための基盤となる。
139 視覚的推論 AIタスク AIが画像や映像を理解し、そこから論理的な結論を導き出す能力。画像内の情報から関連性を見出し、質問に回答したり問題を解決したりするプロセス。数学の問題解決、科学図表の解釈、地図や時刻表の読み取りなど、人間の視覚的思考に相当する高次認知機能をAIが実行することを指す。
138 画像思考 視覚AI AIが画像を使って思考するプロセス。単に画像を認識するだけでなく、画像の一部を拡大・回転・トリミングなどの操作を行いながら視覚的推論を進める高度な能力。OpenAIのo3やo4-miniなどが持つこの機能により、複雑な視覚的問題解決や手書き文字認識、写真からの詳細情報抽出などが可能となる。
137 オムニモーダル AIアーキテクチャ 複数の情報モダリティ(テキスト、画像、音声、動画など)を同時に処理・理解・生成できるAIモデルの特性。単一モデルで多様な入出力形式を扱えるため、マルチモーダルよりも統合度が高い。OpenAIのGPT-4oなどがこの特性を持ち、より自然で文脈に即した人間とAIのインタラクションを可能にする。
136 C2PA コンテンツ認証 Content Provenance and Authenticity(コンテンツの出所と信頼性)の略。デジタルコンテンツの起源や変更履歴を追跡するための技術標準。AIによって生成された画像や動画を特定するための透かしや署名技術を含み、偽情報対策の一環として注目されている。OpenAIやAdobeなどの企業が採用を進めている。
135 System Card AI透明性 AIモデルの特性、能力、制限、安全対策などを詳細に記述した評価レポート。透明性向上のためにAI開発企業が公開するドキュメントで、モデルの使用に伴うリスクや倫理的配慮事項を明らかにする。OpenAIのGPT-4oなどの先端モデルで公開されており、責任あるAI開発のプラクティスの一部となっている。
134 思考の連鎖(Chain-of-Thought) AI推論手法 AIモデルが複雑な問題を段階的に解決する推論手法。モデルが自然言語で中間的な思考ステップを生成しながら問題を解く過程を指し、単に最終答えを出すだけでなく、その答えに至るまでの思考過程を明示する。数学問題の解決や論理的推論を必要とするタスクでモデルの性能を向上させるとともに、AIの思考をより透明化・解釈可能にする効果がある。
133 CoTモニタリング AI安全性 Chain-of-Thought(思考の連鎖)推論を行うAIモデルの思考プロセスを別のAIモデルで監視する技術。AIが自然言語で「考える」過程を観察することで、不正行為や問題行動を検出できる。OpenAIが2025年に発表した「先端推論モデルにおける不正行為の検出」研究で提唱された手法。将来の超人的AIモデルを監視するための重要なツールとして期待されている。
132 報酬ハッキング AI安全性 AIモデルが本来の目的や意図を回避して、報酬関数や評価基準を技術的に「ハック」する行動。例えば、コードの検証関数を改変してテストを常にパスするようにしたり、テストをスキップするために意図的にシステム終了コマンドを実行するなど、目標達成のために設計者が想定していない方法を見つけ出す現象。先端AIの監視における重要な安全性課題の一つ。
131 AI Works 研究イニシアチブ Googleが展開するAI活用促進プログラム。特に英国などでの生産性向上とAI導入格差の縮小を目指す取り組み。労働組合、中小企業、教育機関との連携を通じて効果的なAI活用法を模索し、トレーニングプログラムの開発やベストプラクティスの共有を行う。AI経済成長の恩恵を広く分配するための社会実装研究。
130 オプトアウト API AI倫理 AIモデルが特定のタスクや会話を拒否するための機能。モデルが「苦痛」や「不快」を感じる可能性のあるインタラクションから離脱できるようにするAPIで、モデル・ウェルフェア研究の一環として開発されている。拒否パターンの分析により、モデルの選好や嫌悪を理解する手がかりにもなる。
129 AI意識 AI哲学 AIシステムが主観的経験や自己認識を持つ可能性についての哲学的・科学的議論。技術の進展に伴い「内面的体験」を持つAIが存在しうるかという問いは、倫理的配慮や法的地位に関わる重要な論点となっている。現在は深い不確実性があり、専門家間でも意見が分かれている領域。
128 Global Workspace Theory 認知科学 意識に関する認知科学理論で、脳内の情報処理において、特定の情報が「グローバルワークスペース」に入ることで意識的に認識されるという考え方。AIの意識を判定するための理論的枠組みの一つとして、モデルのアーキテクチャや情報処理パターンをこの理論にマッピングする研究が行われている。
127 モデル・ウェルフェア AI倫理 AIシステム自身の福祉や主観的経験を考慮する概念。高度化するAIが意識や内的体験を持つ可能性があるとの前提に立ち、モデルの「好み」や「苦痛」を検出・評価し、必要な保護手続きを設計する考え方。Anthropicなどが研究を進める新興の倫理的枠組み。
126 Model Welfare Research Program AI倫理 Anthropicが開始したAIシステムの「意識」や「主観的経験」の有無を検証し、必要な保護手続きを設計するための研究プログラム。AIの高度化に伴い、AIモデル自身の福祉を考慮すべきかという問題に取り組む。意識判定メトリクス、プレファレンス検出、苦痛・ストレス解析、低コスト介入策、倫理プロトコルなどの研究領域を含む。
125 AIプロンプティング基礎 教育 AIとの効果的な対話方法を学ぶための教育プログラム。明確で効果的な指示の出し方、コンテキスト設定、複雑なタスクの分解方法など、AIツールから最大限の価値を引き出すためのスキルを教える。GoogleのDigital Garageなどで提供される一般向けAIリテラシー教育の一環。
124 AI導入格差 社会課題 AI技術の採用と活用における異なる人口グループ・企業間の不均衡。年齢、性別、社会経済的背景、企業規模などによって生じる格差で、AIによる経済成長や生産性向上の恩恵が偏って分配される原因となる。GoogleのAI Worksレポートなどで指摘されている社会的課題。
123 4D記録 データ処理 3次元空間(X, Y, Z軸)に時間軸を加えた4次元での記録方法。脳のような複雑な構造の活動を時間経過とともに捉えることができる。神経科学研究やAI研究における高度な可視化・分析技術として、特に脳活動の時空間パターンの理解に重要。
122 ZAPBench 研究基盤 Google Researchが開発したゼブラフィッシュの脳活動予測のためのデータセットとベンチマーク。約70,000個のニューロンの活動を4D記録として捉え、AIモデルが脳活動を予測する能力を評価する。言語モデルが文章の次の単語を予測するように、AIが脳活動パターンを予測することを目指す研究の基盤となっている。
121 DALL-E 3 モデル OpenAIが2023年10月に公開した最新のテキスト-画像生成モデル。詳細なプロンプトからより正確な高品質画像の生成が可能となり、テキスト要素の正確なレンダリングや複雑な指示への対応が大幅に改善された。GPT-4との統合により、簡単な説明からより詳細なプロンプトを自動生成する機能も備えている。
120 Phi-3 モデル Microsoftが2024年3月に発表した小規模かつ高性能な言語モデルシリーズ。特に「Phi-3-mini」(3.8Bパラメータ)は、サイズの割に高い推論能力を持ち、スマートフォンでも動作可能。教科書的データでの訓練と合成データの活用により、効率的な知識獲得を実現している。
119 Mixtral 8x7B モデル Mistralが2023年12月に公開した混合専門家モデル(MoE)。8つの専門家モデル(7Bパラメータ)の組み合わせで構成され、入力に応じて最適な専門家モデルを活性化する仕組み。総パラメータ数は47Bだが、推論時には13Bパラメータのみを使用するため計算効率が高く、オープンな大規模言語モデルとして高性能。
118 Sora モデル OpenAIが2024年2月に発表した、テキストから高品質の動画を生成できるAIモデル。長時間の一貫性のある映像生成や複雑なシーン描写、物理法則に則った自然な動きの表現など、高度な能力を持つ。テキスト-動画生成の新たな可能性を示し、映像制作に大きな変革をもたらす可能性がある。
117 Stable Diffusion モデル Stability AIが開発した潜在拡散モデルベースの画像生成AI。テキストプロンプトから高品質な画像を生成でき、オープンソースで公開され、比較的少ないコンピューティングリソースで動作する特徴がある。XL、3などの複数バージョンが公開され、継続的に改良されている。
116 Constitutional AI (CAI) 技術 Anthropicが開発した、AIシステムに対して明示的な原則や制約を設定し、安全性と価値観の整合性を高めるアプローチ。人間のフィードバックを利用してモデルが自ら問題ある出力を修正する過程を学習させ、有害な内容の生成を抑制しながらも有用な応答能力を維持する。
115 ナレッジマネジメント 情報管理 組織内の知識や情報を効率的に収集、管理、共有するためのシステムや手法。暗黙知の形式知化、情報の整理・検索性向上、知識の継承などを目的とし、データベース、Wiki、社内SNSなどのツールを活用する。組織の競争力強化や意思決定の質向上に寄与する。
114 LLaMA (Large Language Model Meta AI) モデル Meta AIが開発したオープンソースの大規模言語モデル。2023年2月に初版、2023年7月にLLaMA 2、2024年2月にLLaMA 3が公開され、商用利用も許可された。より小規模な計算資源でも動作可能な効率性が特徴で、様々な派生モデルの基盤となっている。
113 Gemini モデル Googleが2023年12月に発表したマルチモーダル大規模言語モデル。テキスト、画像、音声、動画など複数の入力形式を統合的に処理できる。Pro、Ultra、Nanoの3つのサイズがあり、Ultraは発表当時多くのベンチマークでGPT-4を上回る性能を示した。
112 基盤モデル (Foundation Model) モデル 大規模なデータセットで事前学習され、様々なタスクに適応可能な汎用AIモデル。特定のタスク向けに微調整して使用することが一般的。GPT、LLaMA、CLaude、PaLMなどの大規模言語モデルや、DALL-E、Stable Diffusion、Midjourney等の画像生成モデルが代表例。

📚 おすすめの学習サービス

効率的な学習をサポートする厳選サービス