はとはとプロジェクト AI最新動向 アイコン

AI最新動向

AI用語集

AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。

すべての用語を表示
頭文字で絞る: すべて | |
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
| 0-9

すべての用語

956 件の用語が登録されています。 751〜800件を表示中

ID 用語 カテゴリ 説明
211 スケーリングされたドット積注意 技術 トランスフォーマーで使用される注意機構の一種。クエリとキーのドット積を次元の平方根で割ることで、勾配消失や爆発を防ぎ、より安定した学習を実現する方法。
210 ソフトマックス関数 技術 入力ベクトルを確率分布に変換する関数で、全ての出力値の合計が1になる特性を持つ。分類問題での出力層やトランスフォーマーの注意重みの計算などに広く使用される。
209 マルチヘッド注意機構 技術 トランスフォーマーで使用される技術で、複数の注意機構(ヘッド)を並列に計算し、その結果を結合する方法。各ヘッドが異なる特徴や関係性を学習することで、より豊かな表現を可能にする。
208 BLEU (Bilingual Evaluation Understudy) 評価指標 機械翻訳の評価に広く使用される指標。生成された翻訳文と参照訳の間の一致度を測定し、特に隣接する単語の連続(n-gram)の一致率を基に計算される。高いスコアほど高品質な翻訳を意味する。
207 相対位置表現 技術 Shawらが提案した、シーケンス要素間の相対的な距離や関係を表現する手法。絶対位置エンコーディングと異なり、シーケンスの総長に依存せず、自己注意機構内で要素間の相対位置情報を効率的に扱うことができる。
206 位置エンコーディング 技術 トランスフォーマーなどの位置情報を明示的に持たないモデルに順序情報を与えるための技術。固定の正弦波関数を用いる手法や学習可能なパラメータを使用する手法などがある。
205 自己注意機構 (Self-attention) 技術 シーケンス内の各要素が同じシーケンスの他の要素との関連性を計算する仕組み。トランスフォーマーの中核技術で、入力シーケンスの異なる位置間の依存関係を捉えることができる。
204 トランスフォーマー モデル Vaswaniらが2017年に提案した注意機構に基づくニューラルネットワークアーキテクチャ。RNNやCNNと異なり再帰的な構造を持たず、並列処理に適している。エンコーダとデコーダから構成され、機械翻訳や言語理解タスクで高い性能を示す。
203 自己回帰モデル モデル シーケンスデータにおいて、過去の出力を使って将来の値を予測するモデル。言語モデルの多くはこの方式を採用しており、テキスト生成において一度に一つのトークンを生成していく。
202 言語モデル モデル テキストの確率分布を学習し、次の単語や文を予測するモデル。大規模コーパスで学習することで言語の構造や意味を捉え、様々な自然言語処理タスクの基盤となる。
201 微調整 (Fine-tuning) 技術 事前学習済みモデルを特定のタスクに適応させるために、少量のラベル付きデータで追加学習すること。事前学習で獲得した一般的な知識を保持しながら特定タスクのパフォーマンスを向上させる技術。
200 教師なし事前学習 技術 ラベル付きデータを必要とせず、大量の未ラベルデータからモデルを訓練する手法。特にTransformerベースのモデルで効果的で、言語モデリングタスクで事前学習した後に特定タスクに微調整することで、少量のラベル付きデータでも高い性能を実現できる。
199 GPT (Generative Pre-trained Transformer) モデル OpenAIが開発した生成的事前学習トランスフォーマー。大規模なテキストデータを使用した教師なし事前学習と、特定タスク向けの教師あり微調整を組み合わせたアプローチで、多様な自然言語理解タスクで高い性能を示す。
198 ImageNet データセット 1,000以上のカテゴリに分類された数百万枚の画像からなる大規模な画像データセット。画像認識や分類アルゴリズムのベンチマークとして広く使用されており、毎年開催されるILSVRCコンテストの基盤となっている。
197 ドロップアウト 技術 ニューラルネットワークの過学習を防ぐための正則化手法。学習時にランダムにニューロンを一定確率で無効化することで、ニューロン間の共適応を防ぎモデルの汎化性能を向上させる。
196 プーリング層 技術 CNNにおいて特徴マップのサイズを縮小するための層。最大値を取るマックスプーリングや平均値を取る平均プーリングなどがある。位置の微小な変化に対する頑健性を高める効果もある。
195 ReLU (Rectified Linear Unit) 技術 ニューラルネットワークで広く使われる非線形活性化関数。入力が正の場合はそのまま出力し、負の場合は0を出力する。勾配消失問題を軽減し、深層ネットワークの学習を効率化する。
194 畳み込みニューラルネットワーク (CNN) モデル 画像処理に特に効果的なニューラルネットワークの一種。局所的な特徴を検出する畳み込み層と、空間的な情報を圧縮するプーリング層を組み合わせた構造を持つ。全結合層と比較して少ないパラメータ数で学習が可能。
193 AlexNet モデル Krizhevsky らが2012年に開発した深層畳み込みニューラルネットワーク。ImageNetコンテストで画像分類タスクにおいて従来手法を大幅に上回る性能を示し、深層学習ブームの引き金となった。5つの畳み込み層と複数の全結合層からなる。
192 核サンプリング(Nucleus Sampling) 技術 生成AIの出力の多様性と品質のバランスを取るサンプリング手法。各ステップで、累積確率がしきい値(通常0.9前後)に達するまで、確率順に並べたトークンのみから選択する。温度付きサンプリングより構造的に一貫した文を生成しやすく、創造的なテキスト生成に広く使用されている。Top-pサンプリングとも呼ばれる。
191 ビームサーチ 技術 テキスト生成において、各ステップで複数の候補(ビーム)を並行して追跡し、最終的に最も確率の高いシーケンス全体を選択する手法。グリーディデコーディングより広い探索が可能で、より最適な出力が得られる可能性がある。ビーム幅(追跡する候補数)が大きいほど計算コストが高くなるが、より質の高い出力が期待できる。
190 グリーディデコーディング 技術 生成AIが出力を生成する際に、各ステップで最も確率の高いトークン(単語や文字)のみを選択する手法。計算効率が良く決定論的な結果が得られるが、常に同じ出力が生成され多様性に欠ける。単純な質問応答や短い出力には適しているが、創造的なテキスト生成には制限がある。
189 ROUGE (Recall-Oriented Understudy for Gisting Evaluation) 評価指標 自動要約や機械翻訳の評価に使用される指標。生成されたテキストとリファレンステキストとの間のn-gram、単語シーケンス、単語ペアなどの一致を測定する。ROUGE-N(n-gramベース)、ROUGE-L(最長共通部分列)、ROUGE-S(スキップバイグラム)など複数のバリエーションがある。
188 MMLU (Massive Multitask Language Understanding) 評価指標 大規模言語モデルの知識と推論能力を総合的に評価するベンチマーク。数学、歴史、法律、倫理、医学など57の異なる学術・専門分野にわたる多肢選択式問題で構成される。大学レベルの専門知識と推論能力を要求し、現代の最先端LLMの能力を測る重要な指標となっている。
187 ウィノグラードスキーマチャレンジ 評価指標 AIの言語理解能力を評価するためのテスト。代名詞が指す対象を識別する問題で、文脈に基づく常識的推論が必要。例:「トロフィーがカップに入らなかった。それが大きすぎたから」の「それ」が何を指すかなど。人間には簡単だがAIには難しい問題を提供し、真の言語理解の達成度を測る重要なベンチマーク。
186 交差検証 研究手法 機械学習モデルの性能を評価するために、データを複数の部分に分割し、それぞれを順番にテストデータとして使用する手法。k分割交差検証では、データをk個のフォールドに分け、k回の訓練・評価を行う。オーバーフィッティングの検出や、限られたデータセットからより信頼性の高い性能評価を得るのに役立つ。
185 AUC-ROC 評価指標 受信者操作特性曲線(ROC曲線)の下部面積で、分類モデルの性能を評価する指標。偽陽性率と真陽性率のトレードオフをプロットした曲線で、完全なランダム予測は0.5、完全な予測は1.0となる。閾値に依存せずモデルの識別能力を評価できるため、様々な分類タスクで広く使用される。
184 F1スコア 評価指標 分類モデルの性能評価指標で、適合率(Precision)と再現率(Recall)の調和平均として計算される。適合率は「陽性と予測したもののうち実際に陽性だった割合」、再現率は「実際に陽性のもののうち正しく陽性と予測できた割合」を表す。クラス不均衡データでの評価に特に有用。
183 パープレキシティ 評価指標 言語モデルの性能を評価する指標で、モデルがテキストシーケンスを予測する際の不確実性を測定する。値が低いほど、モデルがテストデータの分布をよく予測できていることを示す。数学的には、クロスエントロピーの指数関数として計算され、単語あたりの平均分岐係数と解釈できる。
182 神経可塑性と行動変容 学習神経科学 神経可塑性(シナプス強度や神経回路の変化)が行動パターンの変化をもたらすメカニズム。学習、習慣形成、リハビリテーションの神経科学的基盤となる。動機づけ、報酬、注意などの要因が可塑性に影響し、効果的な行動変容の条件となる。AIの学習アルゴリズムにおける更新則やアーキテクチャ適応と概念的に関連している。
181 大脳皮質の予測性階層処理 大脳生理学 大脳皮質が階層的に組織化され、高次領域が低次領域への予測を送り、低次領域が予測誤差を上方に伝搬するという情報処理モデル。この双方向の信号の流れが学習と知覚の基盤となる。階層的生成モデル、変分オートエンコーダ、予測的コーディングネットワークの理論的背景となっている脳内情報処理原理。
180 認知的情報処理容量 認知神経科学 人間が単位時間あたりに処理できる情報量の限界。神経処理の速度と効率に依存し、領域特異的な差異がある。認知トレーニングで部分的に向上可能だが、生物学的制約も大きい。AIシステムの計算能力と比較される人間の認知特性で、情報集約と要約の重要性を示す基盤となっている。
179 自己モニタリングと誤差検出 認知神経科学 自分の認知プロセスや行動をモニタリングし、目標との不一致や誤りを検出するメカニズム。前帯状皮質がエラー関連電位を生成し、行動調整のシグナルとなる。AIにおける自己評価、不確実性推定、予測エラーに基づく学習更新と類似した神経基盤を持つメタ認知プロセス。
178 行為としての知覚(エナクティブ視覚) 認知神経科学 知覚を感覚入力の受動的処理ではなく、能動的な探索行為として捉える理論。眼球運動、注意の移動、感覚と運動の協調が知覚経験を構成する。予測と行動のループによる知覚の構築は、深層強化学習やアクティブセンシングを用いたAIシステムの知覚プロセスと概念的に類似している。
177 構造的接続性と機能的接続性 大脳生理学 脳内の構造的接続(物理的な神経繊維による結合)と機能的接続(活動パターンの時間的相関)の関係を研究する分野。構造的基盤の上に多様な機能的ネットワークが動的に形成される。ニューラルネットワークのアーキテクチャ(構造)と、特定のタスク実行時の活性化パターン(機能)の関係に類似した神経科学的概念。
176 記憶の固定化と再固定化 学習神経科学 新たに形成された記憶が長期記憶として安定化(固定化)され、想起時に再び不安定化して更新される(再固定化)プロセス。遺伝子発現やタンパク質合成を伴い、海馬から皮質への情報転送や神経回路の再編成が関与する。AIにおける継続学習と知識更新のメカニズム設計に示唆を与える神経プロセス。
175 意味記憶のハブ・アンド・スポークモデル 認知神経科学 概念知識が脳内でどのように表現・組織化されているかを説明するモデル。感覚運動領域のスポーク(概念の感覚・運動特性を表現)と、前側頭葉などのハブ領域(多様な特性を統合)の相互作用で概念が表現される。分散表現と中央処理を組み合わせた構造はAIにおけるエンベディングとトランスフォーマーの関係に類似している。
174 神経振動の同期と情報統合 大脳生理学 異なる脳領域の神経振動(特にガンマ波、30-100Hz)が同期することで、情報の結合や統合が実現されるという理論。「結合問題」(色や形などの特徴をどう統一的に知覚するか)の解決策として提案された。AIにおける分散表現の統合や、マルチモーダル情報の結合メカニズムに示唆を与える神経メカニズム。
173 予測的視覚処理 認知神経科学 視覚システムが単に入力を受動的に処理するのではなく、積極的に予測を生成し、予測誤差に基づいて知覚と学習を行うとする理論。視覚皮質の階層間の双方向情報フローにより実現され、錯視や視覚的補完現象を説明する。生成モデルに基づく画像処理AIやビジョントランスフォーマーの理論的背景と共通点を持つ。
172 神経言語処理モデル 認知神経科学 言語理解と産出の神経メカニズムを計算モデルで表現する試み。ブローカ野、ウェルニッケ野など言語関連脳領域のネットワークとしての働きや、文法処理、意味理解の並列分散処理を説明する。現代のディープラーニング言語モデルは、こうした脳内言語処理の一部の特徴を計算的に実装している。
171 ワーキングメモリの容量限界 認知心理学 人間が一度に活性化状態で保持できる情報量の制限(約4±1項目)。前頭前皮質と頭頂葉の神経活動パターンに反映され、注意資源の配分と関連する。エンコーディング効率や情報のチャンキング(意味のある単位への分割)によって部分的に克服可能。AIシステムのコンテキストウィンドウや注意スパンの設計に関連する認知的制約。
170 マインドワンダリングと創造性 認知神経科学 目の前のタスクから注意が逸れ、自発的に思考が彷徨う現象と創造的思考の関係。デフォルトモードネットワークの活動と関連し、離れた概念の結合やアイデア生成に貢献する可能性がある。AIの探索と活用のバランス、創造的生成における制約緩和と収束的思考の交替に類似した認知プロセス。
169 視覚的注意のスポットライト理論 認知神経科学 視覚的注意を光のスポットライトのように移動可能な資源と捉える理論。注意を向けた視野の一部で情報処理が促進される。脳内では頭頂葉と前頭葉が注意の制御に関わり、視覚皮質の神経応答を変調させる。画像認識AIの視覚的注意機構や物体検出のフォーカスメカニズムの理論的基盤となっている。
168 脳の機能的ネットワーク 大脳生理学 特定の認知機能を支える脳領域間の協調的活動パターン。安静時ネットワーク(デフォルトモードなど)、注意ネットワーク、認知制御ネットワークなどが同定されている。グラフ理論を用いた解析が行われ、ニューラルネットワークの接続構造やアーキテクチャ設計に示唆を与える神経基盤。
167 認知神経科学 研究分野 認知プロセス(知覚、注意、記憶、言語、思考など)の神経基盤を研究する学際的分野。行動実験、脳画像研究、計算モデルなどを統合し、心の働きと脳の関係を解明する。AIの設計や理解にも影響を与え、特に脳からインスピレーションを得た神経計算モデルの開発に貢献している。
166 スパースコーディング 大脳生理学 脳内での情報表現において、少数の神経細胞のみが特定の入力に対して活性化するという原理。エネルギー効率と表現能力のバランスを取る戦略で、特に視覚皮質で見られる。機械学習での疎表現やL1正則化、RELUによる活性化のスパース化などに影響を与えた生物学的原理。
165 双方向性予測符号化 大脳生理学 脳内の高次領域から低次領域への下行性(トップダウン)予測と、感覚入力から高次への上行性(ボトムアップ)信号の相互作用に基づく情報処理理論。この枠組みでは知覚は能動的な推論プロセスとなる。ディープビリーフネットワークやGANにおける生成・識別モデルの相互作用と類似した概念。
164 皮質-基底核ループ 大脳生理学 大脳皮質と基底核(線条体、黒質、淡蒼球など)を結ぶ神経回路。行動選択、運動制御、報酬ベースの学習に重要な役割を果たす。ドーパミン系による報酬予測誤差信号が強化学習を駆動。強化学習アルゴリズム、特にアクター・クリティックモデルの生物学的基盤となっている。
163 脳の予測符号化 大脳生理学 脳が継続的に感覚入力を予測し、実際の入力との差分(予測誤差)を処理するという理論。効率的な情報処理と学習メカニズムを提供するとされる。この原理は生成モデルや予測的コーディングネットワーク、特に変分オートエンコーダやディープベルマンネットワークなどのアルゴリズムの基礎となっている。
162 神経振動(ニューラルオシレーション) 大脳生理学 脳内の神経細胞集団が示すリズミカルな電気活動。周波数帯域によってデルタ、シータ、アルファ、ベータ、ガンマなどに分類される。情報統合、記憶形成、注意制御などの認知機能と関連。複数の脳領域間の機能的結合や情報コーディングにも重要な役割を果たす。

📚 おすすめの学習サービス

効率的な学習をサポートする厳選サービス