はとはとプロジェクト AI最新動向 アイコン

AI最新動向

AI用語集

AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。

すべての用語を表示
頭文字で絞る: すべて | |
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
| 0-9

すべての用語

971 件の用語が登録されています。 901〜950件を表示中

ID 用語 定義
77 AI透明性 AIシステムの動作原理、訓練データ、限界などを開示する原則。信頼性と説明責任の基盤となる。
76 人間のフィードバックによる強化学習(RLHF) 人間の評価フィードバックを報酬信号として使用し、モデルを微調整する手法。ChatGPTなどの訓練に使用される。
75 ジェイルブレイク AIの安全機能や制限を回避するための攻撃手法。悪意ある出力を引き出すためのプロンプト操作技術。
74 敵対的攻撃 AIモデルを誤動作させるために意図的に設計された入力。人間には知覚できない微小な摂動で誤分類を引き起こす。
73 LLMハルシネーション 大規模言語モデルが事実と異なる情報をもっともらしく生成する現象。知識の欠如や過信が原因となる。
72 AI安全性研究 AIシステムが安全で有益に動作することを保証するための研究分野。アライメント、ロバスト性、解釈可能性などを含む。
71 アライメント問題 AIの目標と人間の価値観・意図を一致させる問題。高度なAIが人間にとって有益に動作することを保証する課題。
70 ファジィ論理 曖昧さや不確実性を0と1の間の連続値で表現する論理体系。人間の推論に近い柔軟な判断を可能にする。
69 知識表現 概念や事実をコンピュータが処理できる形式で表現する技術。オントロジーや知識グラフなどの形式がある。
68 バックプロパゲーション ニューラルネットワークの訓練に使用される勾配計算アルゴリズム。連鎖律を用いて出力から入力方向に誤差を伝播させる。
67 ニューラルネットワーク冬の時代 1990年代のニューラルネットワーク研究の停滞期。SVMなど他の手法が優勢となり、研究資金が減少した。
66 LISP Googleが開発したニューラルネットワーク用プログラミングフレームワーク。AI初期の主要言語として使用された。
65 チューリングテスト アラン・チューリングが1950年に提案した、機械が知能を持つかを判定するテスト。人間と区別できなければ合格とする。
64 シンボリックAI 記号とルールによる論理的推論に基づくAIアプローチ。知識表現と推論を明示的に記述する。
63 エキスパートシステム 専門家の知識をルールとして記述し、推論を行う初期のAIシステム。医療診断や故障診断などで実用化された。
62 AI冬の時代 AIへの期待と実績のギャップにより研究資金が減少した時期。1970年代と1980年代末〜1990年代に発生した。
61 パーセプトロン 1958年にローゼンブラットが考案した最初期のニューラルネットワーク。線形分離可能な問題を解くことができる。
60 プロンプトインジェクション 悪意ある入力でAIの動作を操作する攻撃手法。意図しない情報漏洩や有害出力を引き起こす可能性がある。
59 コンテキストウィンドウ 言語モデルが一度に処理できるトークン数の上限。長文理解や長期記憶の制約となる重要なパラメータ。
58 自己教師あり学習 ラベルなしデータから有用な表現を学習する手法。対照学習やマスク言語モデルなどがあり、事前学習の基盤技術。
57 差分プライバシー 個人を特定できないようノイズを加えながらデータ分析を行う技術。プライバシーを数学的に保証する。
56 フューショットラーニング ごく少数の例示(数個〜数十個)から新しいタスクを学習する手法。大規模言語モデルのin-context learningが代表例。
55 ゼロショット学習 学習時に見たことのないクラスを、属性や説明から認識する機械学習手法。補助情報を活用して未知カテゴリを分類。
54 フェデレーテッドラーニング データを中央に集約せず、分散したまま機械学習モデルを協調的に訓練する技術。プライバシー保護に有効。
53 知識蒸留 大規模モデルの知識を小規模モデルに転移する技術。教師モデルの出力分布を生徒モデルが模倣するよう学習する。
52 ニューラル機械翻訳 (NMT) ニューラルネットワークを用いた機械翻訳技術。エンコーダ・デコーダ構造やアテンション機構により高精度な翻訳を実現。
50 マルチエージェントAI 複数のAIエージェントが競争または協調しながらタスクを遂行するシステム。分散問題解決や交渉に応用。
49 継続学習(Continual Learning) 新しいタスクを学習する際に、過去に学習した知識を忘れない機械学習手法。生涯学習能力の実現を目指す。
48 Speculative Decoding 小さなドラフトモデルで複数トークンを先読み生成し、大きなモデルで検証することで推論を高速化する技術。
47 プロンプトエンジニアリング AIモデルから望ましい出力を引き出すためのプロンプト(指示文)を設計する技術。明確な指示、例示、役割設定などの技法がある。
46 ファウンデーショナルモデル
44 TPU(Tensor Processing Unit)
43 ニューロモーフィックコンピューティング 脳の神経回路を模倣したハードウェアとソフトウェア。低消費電力でリアルタイム処理が可能。
42 量子機械学習 量子コンピュータの特性を活用した機械学習手法。特定の最適化問題で古典的手法を上回る可能性がある。
40 チェーン・オブ・ソート(Chain-of-Thought) 問題解決の過程を段階的に言語化させることで、AIの推論能力を向上させるプロンプト技術。
39 エマージェント能力 モデル規模が閾値を超えると突然現れる能力。算術推論など小規模モデルでは見られない能力が大規模化で発現する現象。
38 ニューラルスケーリング法則 モデルサイズ、データ量、計算量と性能の関係を記述する法則。効率的なリソース配分の指針となる。
37 グラウンディング(Grounding) AIモデルの出力を現実世界の知識や文脈に紐づける技術。ハルシネーション防止に重要。
36 強化学習からのモデル微調整(RLFT) 人間のフィードバックや報酬信号を用いて、事前学習済みモデルを特定のタスクに合わせて微調整する手法。
35 モデル蒸留(Model Distillation) 大規模な教師モデルの知識を小規模な生徒モデルに転移する技術。モデルサイズ削減と性能維持を両立。
34 プロンプトチューニング モデルのパラメータを固定し、入力プロンプトを最適化することでタスク性能を向上させる手法。
33 モデル量子化 モデルの重みを低精度の数値表現に変換し、メモリ使用量と計算コストを削減する技術。エッジデバイスへの展開を可能にする。
32 PEFT(Parameter-Efficient Fine-Tuning) 大規模モデルの全パラメータを更新せず、少数のパラメータのみを調整する効率的な微調整手法。計算コストを大幅に削減。
31 レトリーバー拡張生成(RAG)
29 カプセルネットワーク ジェフリー・ヒントンが提案した、空間的階層関係を保持するニューラルネットワーク。物体の姿勢や部分関係を学習する。
28 オートエンコーダ 入力データを圧縮した潜在表現に変換し、元のデータを復元するように学習するニューラルネットワーク。次元削減に使用。
27 生成的敵対的ネットワーク(GAN) 生成器と識別器が互いに競い合いながら学習するニューラルネットワーク。リアルな画像生成などで成果を上げた。
26 リカレントニューラルネットワーク(RNN) 時系列データを処理するために内部状態を持つニューラルネットワーク。LSTMやGRUが代表的な改良版。
25 グラフニューラルネットワーク(GNN) グラフ構造のデータを処理するニューラルネットワーク。ソーシャルネットワーク分析、分子構造予測などに応用。
24 混合専門家モデル(MoE) 複数の専門家ネットワークを持ち、入力に応じて適切な専門家を選択的に活用するアーキテクチャ。計算効率とモデル容量を両立。