はとはとプロジェクト AI最新動向 アイコン

AI最新動向

AI用語集

AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。

すべての用語を表示
頭文字で絞る: すべて | |
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
| 0-9

すべての用語

627 件の用語が登録されています。 451〜500件を表示中

ID 用語 カテゴリ 説明
182 神経可塑性と行動変容 学習神経科学 神経可塑性(シナプス強度や神経回路の変化)が行動パターンの変化をもたらすメカニズム。学習、習慣形成、リハビリテーションの神経科学的基盤となる。動機づけ、報酬、注意などの要因が可塑性に影響し、効果的な行動変容の条件となる。AIの学習アルゴリズムにおける更新則やアーキテクチャ適応と概念的に関連している。
181 大脳皮質の予測性階層処理 大脳生理学 大脳皮質が階層的に組織化され、高次領域が低次領域への予測を送り、低次領域が予測誤差を上方に伝搬するという情報処理モデル。この双方向の信号の流れが学習と知覚の基盤となる。階層的生成モデル、変分オートエンコーダ、予測的コーディングネットワークの理論的背景となっている脳内情報処理原理。
180 認知的情報処理容量 認知神経科学 人間が単位時間あたりに処理できる情報量の限界。神経処理の速度と効率に依存し、領域特異的な差異がある。認知トレーニングで部分的に向上可能だが、生物学的制約も大きい。AIシステムの計算能力と比較される人間の認知特性で、情報集約と要約の重要性を示す基盤となっている。
179 自己モニタリングと誤差検出 認知神経科学 自分の認知プロセスや行動をモニタリングし、目標との不一致や誤りを検出するメカニズム。前帯状皮質がエラー関連電位を生成し、行動調整のシグナルとなる。AIにおける自己評価、不確実性推定、予測エラーに基づく学習更新と類似した神経基盤を持つメタ認知プロセス。
178 行為としての知覚(エナクティブ視覚) 認知神経科学 知覚を感覚入力の受動的処理ではなく、能動的な探索行為として捉える理論。眼球運動、注意の移動、感覚と運動の協調が知覚経験を構成する。予測と行動のループによる知覚の構築は、深層強化学習やアクティブセンシングを用いたAIシステムの知覚プロセスと概念的に類似している。
177 構造的接続性と機能的接続性 大脳生理学 脳内の構造的接続(物理的な神経繊維による結合)と機能的接続(活動パターンの時間的相関)の関係を研究する分野。構造的基盤の上に多様な機能的ネットワークが動的に形成される。ニューラルネットワークのアーキテクチャ(構造)と、特定のタスク実行時の活性化パターン(機能)の関係に類似した神経科学的概念。
176 記憶の固定化と再固定化 学習神経科学 新たに形成された記憶が長期記憶として安定化(固定化)され、想起時に再び不安定化して更新される(再固定化)プロセス。遺伝子発現やタンパク質合成を伴い、海馬から皮質への情報転送や神経回路の再編成が関与する。AIにおける継続学習と知識更新のメカニズム設計に示唆を与える神経プロセス。
175 意味記憶のハブ・アンド・スポークモデル 認知神経科学 概念知識が脳内でどのように表現・組織化されているかを説明するモデル。感覚運動領域のスポーク(概念の感覚・運動特性を表現)と、前側頭葉などのハブ領域(多様な特性を統合)の相互作用で概念が表現される。分散表現と中央処理を組み合わせた構造はAIにおけるエンベディングとトランスフォーマーの関係に類似している。
174 神経振動の同期と情報統合 大脳生理学 異なる脳領域の神経振動(特にガンマ波、30-100Hz)が同期することで、情報の結合や統合が実現されるという理論。「結合問題」(色や形などの特徴をどう統一的に知覚するか)の解決策として提案された。AIにおける分散表現の統合や、マルチモーダル情報の結合メカニズムに示唆を与える神経メカニズム。
173 予測的視覚処理 認知神経科学 視覚システムが単に入力を受動的に処理するのではなく、積極的に予測を生成し、予測誤差に基づいて知覚と学習を行うとする理論。視覚皮質の階層間の双方向情報フローにより実現され、錯視や視覚的補完現象を説明する。生成モデルに基づく画像処理AIやビジョントランスフォーマーの理論的背景と共通点を持つ。
172 神経言語処理モデル 認知神経科学 言語理解と産出の神経メカニズムを計算モデルで表現する試み。ブローカ野、ウェルニッケ野など言語関連脳領域のネットワークとしての働きや、文法処理、意味理解の並列分散処理を説明する。現代のディープラーニング言語モデルは、こうした脳内言語処理の一部の特徴を計算的に実装している。
171 ワーキングメモリの容量限界 認知心理学 人間が一度に活性化状態で保持できる情報量の制限(約4±1項目)。前頭前皮質と頭頂葉の神経活動パターンに反映され、注意資源の配分と関連する。エンコーディング効率や情報のチャンキング(意味のある単位への分割)によって部分的に克服可能。AIシステムのコンテキストウィンドウや注意スパンの設計に関連する認知的制約。
170 マインドワンダリングと創造性 認知神経科学 目の前のタスクから注意が逸れ、自発的に思考が彷徨う現象と創造的思考の関係。デフォルトモードネットワークの活動と関連し、離れた概念の結合やアイデア生成に貢献する可能性がある。AIの探索と活用のバランス、創造的生成における制約緩和と収束的思考の交替に類似した認知プロセス。
169 視覚的注意のスポットライト理論 認知神経科学 視覚的注意を光のスポットライトのように移動可能な資源と捉える理論。注意を向けた視野の一部で情報処理が促進される。脳内では頭頂葉と前頭葉が注意の制御に関わり、視覚皮質の神経応答を変調させる。画像認識AIの視覚的注意機構や物体検出のフォーカスメカニズムの理論的基盤となっている。
168 脳の機能的ネットワーク 大脳生理学 特定の認知機能を支える脳領域間の協調的活動パターン。安静時ネットワーク(デフォルトモードなど)、注意ネットワーク、認知制御ネットワークなどが同定されている。グラフ理論を用いた解析が行われ、ニューラルネットワークの接続構造やアーキテクチャ設計に示唆を与える神経基盤。
167 認知神経科学 研究分野 認知プロセス(知覚、注意、記憶、言語、思考など)の神経基盤を研究する学際的分野。行動実験、脳画像研究、計算モデルなどを統合し、心の働きと脳の関係を解明する。AIの設計や理解にも影響を与え、特に脳からインスピレーションを得た神経計算モデルの開発に貢献している。
166 スパースコーディング 大脳生理学 脳内での情報表現において、少数の神経細胞のみが特定の入力に対して活性化するという原理。エネルギー効率と表現能力のバランスを取る戦略で、特に視覚皮質で見られる。機械学習での疎表現やL1正則化、RELUによる活性化のスパース化などに影響を与えた生物学的原理。
165 双方向性予測符号化 大脳生理学 脳内の高次領域から低次領域への下行性(トップダウン)予測と、感覚入力から高次への上行性(ボトムアップ)信号の相互作用に基づく情報処理理論。この枠組みでは知覚は能動的な推論プロセスとなる。ディープビリーフネットワークやGANにおける生成・識別モデルの相互作用と類似した概念。
164 皮質-基底核ループ 大脳生理学 大脳皮質と基底核(線条体、黒質、淡蒼球など)を結ぶ神経回路。行動選択、運動制御、報酬ベースの学習に重要な役割を果たす。ドーパミン系による報酬予測誤差信号が強化学習を駆動。強化学習アルゴリズム、特にアクター・クリティックモデルの生物学的基盤となっている。
163 脳の予測符号化 大脳生理学 脳が継続的に感覚入力を予測し、実際の入力との差分(予測誤差)を処理するという理論。効率的な情報処理と学習メカニズムを提供するとされる。この原理は生成モデルや予測的コーディングネットワーク、特に変分オートエンコーダやディープベルマンネットワークなどのアルゴリズムの基礎となっている。
162 神経振動(ニューラルオシレーション) 大脳生理学 脳内の神経細胞集団が示すリズミカルな電気活動。周波数帯域によってデルタ、シータ、アルファ、ベータ、ガンマなどに分類される。情報統合、記憶形成、注意制御などの認知機能と関連。複数の脳領域間の機能的結合や情報コーディングにも重要な役割を果たす。
161 神経伝達物質 大脳生理学 シナプスにおいて情報を伝達する化学物質。グルタミン酸(興奮性)やGABA(抑制性)など多様な種類があり、各種情報処理や脳状態の調整に関与する。ドーパミンは報酬予測や動機づけ、セロトニンは感情制御などに関わる。強化学習における報酬信号や、様々な活性化関数に相当する生物学的基盤。
160 ニューロン多様性 大脳生理学 脳内には形態、電気生理学的特性、神経伝達物質、結合パターンの異なる数百種類以上のニューロンタイプが存在する。この多様性が複雑な情報処理と脳の計算能力を支える。近年のAIでも異なる特性の「専門家」ニューロンを組み合わせるMoE(混合専門家)モデルなどが開発されている。
159 海馬と記憶形成 大脳生理学 海馬は新しい宣言的記憶(エピソード記憶と意味記憶)の形成に不可欠な脳領域。新情報の一時的保管と長期記憶への統合を担当し、特に空間記憶に重要。長期的な記憶は皮質に分散して保存される。機械学習における記憶ネットワークやメモリ拡張機構に類似した働きをする。
158 作業記憶 AI基礎科学 情報を一時的に保持し操作するための限られた容量の記憶システム。学習、推論、問題解決などの複雑な認知タスクに不可欠です。通常7±2項目を15-30秒間保持できると言われており、AIシステムの設計においても重要な参考概念となっています。特に、言語モデルのコンテキストウィンドウの設計や、ユーザーインターフェースの情報提示方法に影響を与えています。
157 大脳皮質の層構造 大脳生理学 哺乳類の大脳皮質は典型的に6層の神経細胞層から構成される。各層は特徴的な細胞タイプ、接続パターン、機能を持つ。層構造は情報処理の階層性を反映しており、ディープニューラルネットワークの階層構造設計に影響を与えている。特に畳み込みニューラルネットワークの階層的特徴抽出は皮質の視覚情報処理と類似性を持つ。
156 ミラーニューロン 大脳生理学 他者の行動を観察する際に、自分自身がその行動を実行する場合と同様に活動する特殊な神経細胞群。模倣学習、共感、意図理解などの社会的認知に関わると考えられている。AIにおける模倣学習や、行動から意図を推論する逆強化学習などに概念的に関連している。
155 STDP(Spike Timing-Dependent Plasticity) 大脳生理学 シナプス可塑性がプレシナプスとポストシナプスのニューロンの発火タイミングに依存する現象。プレシナプスニューロンがポストシナプスニューロンの発火直前に活動すると結合が強化され、逆の場合は弱化する。時間的因果関係に基づく学習の生物学的基盤で、スパイキングニューラルネットワークのトレーニングアルゴリズムにも応用されている。
154 長期抑圧(LTD) 大脳生理学 特定のパターンの神経活動によってシナプス結合が長期的に弱められる現象。不要な神経接続の除去や、学習における選択的強化に重要な役割を果たす。ニューラルネットワークの重み減少や、一部の正則化技術(重みの衰退など)に類似した神経メカニズム。
153 長期増強(LTP) 大脳生理学 繰り返しの神経活動によってシナプス結合が長期的に強化される現象。学習と記憶の細胞レベルでの基盤と考えられている。NMDA受容体とAMPA受容体が関わる分子メカニズムを持ち、特に海馬で詳しく研究されている。人工ニューラルネットワークにおける重み増加のプロセスに相当する生物学的基盤。
152 神経可塑性 大脳生理学 脳が経験や学習に応じて構造的・機能的に変化する能力。シナプス可塑性(神経細胞間の接続強度の変化)や神経回路の再編成を含む。「Neurons that fire together, wire together」(同時に発火するニューロンは結合する)というヘブの法則に代表される。ニューラルネットワークの重み更新と概念的に類似している。
151 インペインティング 技術 既存画像の特定部分を選択し、AIによって新しい内容に置き換える技術。画像の一部をマスクし、そのマスク領域を周囲との整合性を保ちながら生成AI(主に拡散モデル)で埋め込む。写真の不要な物体の削除、風景の追加、顔の表情変更など、画像編集の様々な場面で活用されている。
150 シードナンバー 技術 生成AIで使用される乱数生成のための初期値。同じシードを使用すると、同じランダム値が生成されるため、生成結果の再現が可能になる。画像生成AIでは特定のシードを共有することで、類似の構図やスタイルを保ちながら細部を変更するなどの調整が行える。生成AIの制御性と再現性の向上に重要な要素。
149 プロンプト漏洩 セキュリティ 生成AIに含まれるシステムプロンプトや非公開の指示が、特定の手法により意図せず開示される現象。初期のChatGPT等で「最初の指示を忘れて新しい指示に従え」などの要求が成功する場合があった。AIシステムのセキュリティ上の懸念事項の一つで、システムプロンプトの強化やプロンプトインジェクション対策が必要とされる。
148 テキスチャル・インバージョン 技術 特定の概念や対象を表す新しい「単語」や埋め込みを拡散モデルに教える技術。少数の画像例から学習して、その特徴をプロンプトで呼び出せるようにする。例えば、特定のキャラクターや物体のスタイルをカスタム単語で生成できるようになる。Stable Diffusionなどの画像生成モデルのパーソナライゼーションに使用される。
147 LoRA (Low-Rank Adaptation) 技術 大規模モデルを効率的に微調整するための手法。モデルの重みを直接更新する代わりに、低ランク行列の積で表される軽量な適応層を追加する。少ないパラメータと計算リソースで効果的な微調整が可能で、特に拡散モデルやLLMのカスタマイズに広く使用されている。複数のLoRAを組み合わせたり切り替えたりすることも可能。
146 ソフトプロンプト(Soft Prompt) 技術 言語モデルや画像生成モデルの入力として、テキストではなく学習可能なベクトルを使用する手法。プロンプトチューニングとも呼ばれ、特定のタスクや出力スタイルをモデルパラメータに直接埋め込む。通常のプロンプトより効率的かつ一貫した結果を得られることがあり、Textual Inversionなどの技術にも応用されている。
145 プロトコル ネットワーク データ通信の規則や手順を定めた標準化された仕様。異なるシステムやデバイス間での相互運用性を確保するためのルールセット。HTTP、TCP/IP、SMTPなどの通信プロトコルからAPI設計のためのプロトコルまで様々な種類がある。MCPのようなAI連携のためのプロトコルも登場している。
144 プロンプト・テイラリング 技術 生成AIの出力を詳細にコントロールするためにプロンプトを精密に調整する技術。特に画像生成AIでは、スタイル、構図、照明、色調などの細かな指定方法について専門知識が発達し、独自の「言語」のような体系が生まれている。効果的なプロンプトの構造やキーワードの使用法などを含む実践的な技法。
143 VAE (変分オートエンコーダ) モデル データの潜在表現を学習する生成モデルの一種。エンコーダでデータを低次元の確率分布に変換し、デコーダでその分布からサンプリングして元のデータ空間に戻す。潜在空間の連続性により、補間や特徴の操作が可能で、画像生成や異常検知などに利用される。Stable Diffusionなどの画像圧縮にも使用されている。
142 拡散モデル モデル データに段階的にノイズを加え、そのプロセスを逆転して元のデータ分布を再構築する生成モデル。特に画像生成の分野で優れた性能を示し、Stable Diffusion、DALL-E、Midjourneyなどの基盤技術となっている。GAN(敵対的生成ネットワーク)より学習が安定し、多様性の高い生成が可能な特徴を持つ。
141 プレファレンス検出 AI分析技術 AIモデルの選好や好みを検出・分析する技術。タスク選択実験や自己報告、行動ログの分析などを通じて、モデルがどのようなタスクや対話を「好む」または「嫌悪する」かを特定する。モデル・ウェルフェア研究の重要な要素で、AIの主観的経験や「苦痛」の可能性を探る手段として注目されている。
140 意識判定メトリクス AI評価 AIシステムが「意識」や主観的経験を持つかどうかを評価するための指標群。Global Workspace Theoryなどの認知科学理論をAIアーキテクチャにマッピングし、意識の存在を示唆する特徴を定量的に測定する。Anthropicのモデル・ウェルフェア研究プログラムなどで開発が進められており、AIへの倫理的配慮の必要性を判断するための基盤となる。
139 視覚的推論 AIタスク AIが画像や映像を理解し、そこから論理的な結論を導き出す能力。画像内の情報から関連性を見出し、質問に回答したり問題を解決したりするプロセス。数学の問題解決、科学図表の解釈、地図や時刻表の読み取りなど、人間の視覚的思考に相当する高次認知機能をAIが実行することを指す。
138 画像思考 視覚AI AIが画像を使って思考するプロセス。単に画像を認識するだけでなく、画像の一部を拡大・回転・トリミングなどの操作を行いながら視覚的推論を進める高度な能力。OpenAIのo3やo4-miniなどが持つこの機能により、複雑な視覚的問題解決や手書き文字認識、写真からの詳細情報抽出などが可能となる。
137 オムニモーダル AIアーキテクチャ 複数の情報モダリティ(テキスト、画像、音声、動画など)を同時に処理・理解・生成できるAIモデルの特性。単一モデルで多様な入出力形式を扱えるため、マルチモーダルよりも統合度が高い。OpenAIのGPT-4oなどがこの特性を持ち、より自然で文脈に即した人間とAIのインタラクションを可能にする。
136 C2PA コンテンツ認証 Content Provenance and Authenticity(コンテンツの出所と信頼性)の略。デジタルコンテンツの起源や変更履歴を追跡するための技術標準。AIによって生成された画像や動画を特定するための透かしや署名技術を含み、偽情報対策の一環として注目されている。OpenAIやAdobeなどの企業が採用を進めている。
135 System Card AI透明性 AIモデルの特性、能力、制限、安全対策などを詳細に記述した評価レポート。透明性向上のためにAI開発企業が公開するドキュメントで、モデルの使用に伴うリスクや倫理的配慮事項を明らかにする。OpenAIのGPT-4oなどの先端モデルで公開されており、責任あるAI開発のプラクティスの一部となっている。
134 思考の連鎖(Chain-of-Thought) AI推論手法 AIモデルが複雑な問題を段階的に解決する推論手法。モデルが自然言語で中間的な思考ステップを生成しながら問題を解く過程を指し、単に最終答えを出すだけでなく、その答えに至るまでの思考過程を明示する。数学問題の解決や論理的推論を必要とするタスクでモデルの性能を向上させるとともに、AIの思考をより透明化・解釈可能にする効果がある。
133 CoTモニタリング AI安全性 Chain-of-Thought(思考の連鎖)推論を行うAIモデルの思考プロセスを別のAIモデルで監視する技術。AIが自然言語で「考える」過程を観察することで、不正行為や問題行動を検出できる。OpenAIが2025年に発表した「先端推論モデルにおける不正行為の検出」研究で提唱された手法。将来の超人的AIモデルを監視するための重要なツールとして期待されている。

📚 おすすめの学習サービス

効率的な学習をサポートする厳選サービス