はとはとプロジェクト AI最新動向 アイコン

AI最新動向

AI用語集

AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。

すべての用語を表示
頭文字で絞る: すべて | |
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
| 0-9

すべての用語

996 件の用語が登録されています。 801〜850件を表示中

ID 用語 カテゴリ 説明
201 微調整 (Fine-tuning) 技術 事前学習済みモデルを特定のタスクに適応させるために、少量のラベル付きデータで追加学習すること。事前学習で獲得した一般的な知識を保持しながら特定タスクのパフォーマンスを向上させる技術。
200 教師なし事前学習 技術 ラベル付きデータを必要とせず、大量の未ラベルデータからモデルを訓練する手法。特にTransformerベースのモデルで効果的で、言語モデリングタスクで事前学習した後に特定タスクに微調整することで、少量のラベル付きデータでも高い性能を実現できる。
199 GPT (Generative Pre-trained Transformer) モデル OpenAIが開発した生成的事前学習トランスフォーマー。大規模なテキストデータを使用した教師なし事前学習と、特定タスク向けの教師あり微調整を組み合わせたアプローチで、多様な自然言語理解タスクで高い性能を示す。
198 ImageNet データセット 1,000以上のカテゴリに分類された数百万枚の画像からなる大規模な画像データセット。画像認識や分類アルゴリズムのベンチマークとして広く使用されており、毎年開催されるILSVRCコンテストの基盤となっている。
197 ドロップアウト 技術 ニューラルネットワークの過学習を防ぐための正則化手法。学習時にランダムにニューロンを一定確率で無効化することで、ニューロン間の共適応を防ぎモデルの汎化性能を向上させる。
196 プーリング層 技術 CNNにおいて特徴マップのサイズを縮小するための層。最大値を取るマックスプーリングや平均値を取る平均プーリングなどがある。位置の微小な変化に対する頑健性を高める効果もある。
195 ReLU (Rectified Linear Unit) 技術 ニューラルネットワークで広く使われる非線形活性化関数。入力が正の場合はそのまま出力し、負の場合は0を出力する。勾配消失問題を軽減し、深層ネットワークの学習を効率化する。
194 畳み込みニューラルネットワーク (CNN) モデル 画像処理に特に効果的なニューラルネットワークの一種。局所的な特徴を検出する畳み込み層と、空間的な情報を圧縮するプーリング層を組み合わせた構造を持つ。全結合層と比較して少ないパラメータ数で学習が可能。
193 AlexNet モデル Krizhevsky らが2012年に開発した深層畳み込みニューラルネットワーク。ImageNetコンテストで画像分類タスクにおいて従来手法を大幅に上回る性能を示し、深層学習ブームの引き金となった。5つの畳み込み層と複数の全結合層からなる。
192 核サンプリング(Nucleus Sampling) 技術 生成AIの出力の多様性と品質のバランスを取るサンプリング手法。各ステップで、累積確率がしきい値(通常0.9前後)に達するまで、確率順に並べたトークンのみから選択する。温度付きサンプリングより構造的に一貫した文を生成しやすく、創造的なテキスト生成に広く使用されている。Top-pサンプリングとも呼ばれる。
191 ビームサーチ 技術 テキスト生成において、各ステップで複数の候補(ビーム)を並行して追跡し、最終的に最も確率の高いシーケンス全体を選択する手法。グリーディデコーディングより広い探索が可能で、より最適な出力が得られる可能性がある。ビーム幅(追跡する候補数)が大きいほど計算コストが高くなるが、より質の高い出力が期待できる。
190 グリーディデコーディング 技術 生成AIが出力を生成する際に、各ステップで最も確率の高いトークン(単語や文字)のみを選択する手法。計算効率が良く決定論的な結果が得られるが、常に同じ出力が生成され多様性に欠ける。単純な質問応答や短い出力には適しているが、創造的なテキスト生成には制限がある。
189 ROUGE (Recall-Oriented Understudy for Gisting Evaluation) 評価指標 自動要約や機械翻訳の評価に使用される指標。生成されたテキストとリファレンステキストとの間のn-gram、単語シーケンス、単語ペアなどの一致を測定する。ROUGE-N(n-gramベース)、ROUGE-L(最長共通部分列)、ROUGE-S(スキップバイグラム)など複数のバリエーションがある。
188 MMLU (Massive Multitask Language Understanding) 評価指標 大規模言語モデルの知識と推論能力を総合的に評価するベンチマーク。数学、歴史、法律、倫理、医学など57の異なる学術・専門分野にわたる多肢選択式問題で構成される。大学レベルの専門知識と推論能力を要求し、現代の最先端LLMの能力を測る重要な指標となっている。
187 ウィノグラードスキーマチャレンジ 評価指標 AIの言語理解能力を評価するためのテスト。代名詞が指す対象を識別する問題で、文脈に基づく常識的推論が必要。例:「トロフィーがカップに入らなかった。それが大きすぎたから」の「それ」が何を指すかなど。人間には簡単だがAIには難しい問題を提供し、真の言語理解の達成度を測る重要なベンチマーク。
186 交差検証 研究手法 機械学習モデルの性能を評価するために、データを複数の部分に分割し、それぞれを順番にテストデータとして使用する手法。k分割交差検証では、データをk個のフォールドに分け、k回の訓練・評価を行う。オーバーフィッティングの検出や、限られたデータセットからより信頼性の高い性能評価を得るのに役立つ。
185 AUC-ROC 評価指標 受信者操作特性曲線(ROC曲線)の下部面積で、分類モデルの性能を評価する指標。偽陽性率と真陽性率のトレードオフをプロットした曲線で、完全なランダム予測は0.5、完全な予測は1.0となる。閾値に依存せずモデルの識別能力を評価できるため、様々な分類タスクで広く使用される。
184 F1スコア 評価指標 分類モデルの性能評価指標で、適合率(Precision)と再現率(Recall)の調和平均として計算される。適合率は「陽性と予測したもののうち実際に陽性だった割合」、再現率は「実際に陽性のもののうち正しく陽性と予測できた割合」を表す。クラス不均衡データでの評価に特に有用。
183 パープレキシティ 評価指標 言語モデルの性能を評価する指標で、モデルがテキストシーケンスを予測する際の不確実性を測定する。値が低いほど、モデルがテストデータの分布をよく予測できていることを示す。数学的には、クロスエントロピーの指数関数として計算され、単語あたりの平均分岐係数と解釈できる。
182 神経可塑性と行動変容 学習神経科学 神経可塑性(シナプス強度や神経回路の変化)が行動パターンの変化をもたらすメカニズム。学習、習慣形成、リハビリテーションの神経科学的基盤となる。動機づけ、報酬、注意などの要因が可塑性に影響し、効果的な行動変容の条件となる。AIの学習アルゴリズムにおける更新則やアーキテクチャ適応と概念的に関連している。
181 大脳皮質の予測性階層処理 大脳生理学 大脳皮質が階層的に組織化され、高次領域が低次領域への予測を送り、低次領域が予測誤差を上方に伝搬するという情報処理モデル。この双方向の信号の流れが学習と知覚の基盤となる。階層的生成モデル、変分オートエンコーダ、予測的コーディングネットワークの理論的背景となっている脳内情報処理原理。
180 認知的情報処理容量 認知神経科学 人間が単位時間あたりに処理できる情報量の限界。神経処理の速度と効率に依存し、領域特異的な差異がある。認知トレーニングで部分的に向上可能だが、生物学的制約も大きい。AIシステムの計算能力と比較される人間の認知特性で、情報集約と要約の重要性を示す基盤となっている。
179 自己モニタリングと誤差検出 認知神経科学 自分の認知プロセスや行動をモニタリングし、目標との不一致や誤りを検出するメカニズム。前帯状皮質がエラー関連電位を生成し、行動調整のシグナルとなる。AIにおける自己評価、不確実性推定、予測エラーに基づく学習更新と類似した神経基盤を持つメタ認知プロセス。
178 行為としての知覚(エナクティブ視覚) 認知神経科学 知覚を感覚入力の受動的処理ではなく、能動的な探索行為として捉える理論。眼球運動、注意の移動、感覚と運動の協調が知覚経験を構成する。予測と行動のループによる知覚の構築は、深層強化学習やアクティブセンシングを用いたAIシステムの知覚プロセスと概念的に類似している。
177 構造的接続性と機能的接続性 大脳生理学 脳内の構造的接続(物理的な神経繊維による結合)と機能的接続(活動パターンの時間的相関)の関係を研究する分野。構造的基盤の上に多様な機能的ネットワークが動的に形成される。ニューラルネットワークのアーキテクチャ(構造)と、特定のタスク実行時の活性化パターン(機能)の関係に類似した神経科学的概念。
176 記憶の固定化と再固定化 学習神経科学 新たに形成された記憶が長期記憶として安定化(固定化)され、想起時に再び不安定化して更新される(再固定化)プロセス。遺伝子発現やタンパク質合成を伴い、海馬から皮質への情報転送や神経回路の再編成が関与する。AIにおける継続学習と知識更新のメカニズム設計に示唆を与える神経プロセス。
175 意味記憶のハブ・アンド・スポークモデル 認知神経科学 概念知識が脳内でどのように表現・組織化されているかを説明するモデル。感覚運動領域のスポーク(概念の感覚・運動特性を表現)と、前側頭葉などのハブ領域(多様な特性を統合)の相互作用で概念が表現される。分散表現と中央処理を組み合わせた構造はAIにおけるエンベディングとトランスフォーマーの関係に類似している。
174 神経振動の同期と情報統合 大脳生理学 異なる脳領域の神経振動(特にガンマ波、30-100Hz)が同期することで、情報の結合や統合が実現されるという理論。「結合問題」(色や形などの特徴をどう統一的に知覚するか)の解決策として提案された。AIにおける分散表現の統合や、マルチモーダル情報の結合メカニズムに示唆を与える神経メカニズム。
173 予測的視覚処理 認知神経科学 視覚システムが単に入力を受動的に処理するのではなく、積極的に予測を生成し、予測誤差に基づいて知覚と学習を行うとする理論。視覚皮質の階層間の双方向情報フローにより実現され、錯視や視覚的補完現象を説明する。生成モデルに基づく画像処理AIやビジョントランスフォーマーの理論的背景と共通点を持つ。
172 神経言語処理モデル 認知神経科学 言語理解と産出の神経メカニズムを計算モデルで表現する試み。ブローカ野、ウェルニッケ野など言語関連脳領域のネットワークとしての働きや、文法処理、意味理解の並列分散処理を説明する。現代のディープラーニング言語モデルは、こうした脳内言語処理の一部の特徴を計算的に実装している。
171 ワーキングメモリの容量限界 認知心理学 人間が一度に活性化状態で保持できる情報量の制限(約4±1項目)。前頭前皮質と頭頂葉の神経活動パターンに反映され、注意資源の配分と関連する。エンコーディング効率や情報のチャンキング(意味のある単位への分割)によって部分的に克服可能。AIシステムのコンテキストウィンドウや注意スパンの設計に関連する認知的制約。
170 マインドワンダリングと創造性 認知神経科学 目の前のタスクから注意が逸れ、自発的に思考が彷徨う現象と創造的思考の関係。デフォルトモードネットワークの活動と関連し、離れた概念の結合やアイデア生成に貢献する可能性がある。AIの探索と活用のバランス、創造的生成における制約緩和と収束的思考の交替に類似した認知プロセス。
169 視覚的注意のスポットライト理論 認知神経科学 視覚的注意を光のスポットライトのように移動可能な資源と捉える理論。注意を向けた視野の一部で情報処理が促進される。脳内では頭頂葉と前頭葉が注意の制御に関わり、視覚皮質の神経応答を変調させる。画像認識AIの視覚的注意機構や物体検出のフォーカスメカニズムの理論的基盤となっている。
168 脳の機能的ネットワーク 大脳生理学 特定の認知機能を支える脳領域間の協調的活動パターン。安静時ネットワーク(デフォルトモードなど)、注意ネットワーク、認知制御ネットワークなどが同定されている。グラフ理論を用いた解析が行われ、ニューラルネットワークの接続構造やアーキテクチャ設計に示唆を与える神経基盤。
167 認知神経科学 研究分野 認知プロセス(知覚、注意、記憶、言語、思考など)の神経基盤を研究する学際的分野。行動実験、脳画像研究、計算モデルなどを統合し、心の働きと脳の関係を解明する。AIの設計や理解にも影響を与え、特に脳からインスピレーションを得た神経計算モデルの開発に貢献している。
166 スパースコーディング 大脳生理学 脳内での情報表現において、少数の神経細胞のみが特定の入力に対して活性化するという原理。エネルギー効率と表現能力のバランスを取る戦略で、特に視覚皮質で見られる。機械学習での疎表現やL1正則化、RELUによる活性化のスパース化などに影響を与えた生物学的原理。
165 双方向性予測符号化 大脳生理学 脳内の高次領域から低次領域への下行性(トップダウン)予測と、感覚入力から高次への上行性(ボトムアップ)信号の相互作用に基づく情報処理理論。この枠組みでは知覚は能動的な推論プロセスとなる。ディープビリーフネットワークやGANにおける生成・識別モデルの相互作用と類似した概念。
164 皮質-基底核ループ 大脳生理学 大脳皮質と基底核(線条体、黒質、淡蒼球など)を結ぶ神経回路。行動選択、運動制御、報酬ベースの学習に重要な役割を果たす。ドーパミン系による報酬予測誤差信号が強化学習を駆動。強化学習アルゴリズム、特にアクター・クリティックモデルの生物学的基盤となっている。
163 脳の予測符号化 大脳生理学 脳が継続的に感覚入力を予測し、実際の入力との差分(予測誤差)を処理するという理論。効率的な情報処理と学習メカニズムを提供するとされる。この原理は生成モデルや予測的コーディングネットワーク、特に変分オートエンコーダやディープベルマンネットワークなどのアルゴリズムの基礎となっている。
162 神経振動(ニューラルオシレーション) 大脳生理学 脳内の神経細胞集団が示すリズミカルな電気活動。周波数帯域によってデルタ、シータ、アルファ、ベータ、ガンマなどに分類される。情報統合、記憶形成、注意制御などの認知機能と関連。複数の脳領域間の機能的結合や情報コーディングにも重要な役割を果たす。
161 神経伝達物質 大脳生理学 シナプスにおいて情報を伝達する化学物質。グルタミン酸(興奮性)やGABA(抑制性)など多様な種類があり、各種情報処理や脳状態の調整に関与する。ドーパミンは報酬予測や動機づけ、セロトニンは感情制御などに関わる。強化学習における報酬信号や、様々な活性化関数に相当する生物学的基盤。
160 ニューロン多様性 大脳生理学 脳内には形態、電気生理学的特性、神経伝達物質、結合パターンの異なる数百種類以上のニューロンタイプが存在する。この多様性が複雑な情報処理と脳の計算能力を支える。近年のAIでも異なる特性の「専門家」ニューロンを組み合わせるMoE(混合専門家)モデルなどが開発されている。
159 海馬と記憶形成 大脳生理学 海馬は新しい宣言的記憶(エピソード記憶と意味記憶)の形成に不可欠な脳領域。新情報の一時的保管と長期記憶への統合を担当し、特に空間記憶に重要。長期的な記憶は皮質に分散して保存される。機械学習における記憶ネットワークやメモリ拡張機構に類似した働きをする。
158 作業記憶 AI基礎科学 情報を一時的に保持し操作するための限られた容量の記憶システム。学習、推論、問題解決などの複雑な認知タスクに不可欠です。通常7±2項目を15-30秒間保持できると言われており、AIシステムの設計においても重要な参考概念となっています。特に、言語モデルのコンテキストウィンドウの設計や、ユーザーインターフェースの情報提示方法に影響を与えています。
157 大脳皮質の層構造 大脳生理学 哺乳類の大脳皮質は典型的に6層の神経細胞層から構成される。各層は特徴的な細胞タイプ、接続パターン、機能を持つ。層構造は情報処理の階層性を反映しており、ディープニューラルネットワークの階層構造設計に影響を与えている。特に畳み込みニューラルネットワークの階層的特徴抽出は皮質の視覚情報処理と類似性を持つ。
156 ミラーニューロン 大脳生理学 他者の行動を観察する際に、自分自身がその行動を実行する場合と同様に活動する特殊な神経細胞群。模倣学習、共感、意図理解などの社会的認知に関わると考えられている。AIにおける模倣学習や、行動から意図を推論する逆強化学習などに概念的に関連している。
155 STDP(Spike Timing-Dependent Plasticity) 大脳生理学 シナプス可塑性がプレシナプスとポストシナプスのニューロンの発火タイミングに依存する現象。プレシナプスニューロンがポストシナプスニューロンの発火直前に活動すると結合が強化され、逆の場合は弱化する。時間的因果関係に基づく学習の生物学的基盤で、スパイキングニューラルネットワークのトレーニングアルゴリズムにも応用されている。
154 長期抑圧(LTD) 大脳生理学 特定のパターンの神経活動によってシナプス結合が長期的に弱められる現象。不要な神経接続の除去や、学習における選択的強化に重要な役割を果たす。ニューラルネットワークの重み減少や、一部の正則化技術(重みの衰退など)に類似した神経メカニズム。
153 長期増強(LTP) 大脳生理学 繰り返しの神経活動によってシナプス結合が長期的に強化される現象。学習と記憶の細胞レベルでの基盤と考えられている。NMDA受容体とAMPA受容体が関わる分子メカニズムを持ち、特に海馬で詳しく研究されている。人工ニューラルネットワークにおける重み増加のプロセスに相当する生物学的基盤。
152 神経可塑性 大脳生理学 脳が経験や学習に応じて構造的・機能的に変化する能力。シナプス可塑性(神経細胞間の接続強度の変化)や神経回路の再編成を含む。「Neurons that fire together, wire together」(同時に発火するニューロンは結合する)というヘブの法則に代表される。ニューラルネットワークの重み更新と概念的に類似している。

📚 おすすめの学習サービス

効率的な学習をサポートする厳選サービス