はとはとプロジェクト AI最新動向 アイコン

AI最新動向

AI用語集

AI技術に関する専門用語をわかりやすく解説しています。機械学習、深層学習、自然言語処理、コンピュータビジョンなど、様々な分野のAI用語を網羅。初心者から専門家まで、AIの理解を深めるための用語辞典です。

すべての用語を表示
頭文字で絞る: すべて | |
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
| 0-9

すべての用語

627 件の用語が登録されています。 551〜600件を表示中

ID 用語 カテゴリ 説明
81 古典的条件づけ 学習心理学 パブロフの犬の実験で知られる基本的な学習形態。もともと反応を引き起こさない中性刺激(条件刺激)が、自然に反応を引き起こす無条件刺激と繰り返し対提示されることで、条件刺激だけで反応(条件反応)を引き起こすようになる現象。機械学習における教師あり学習の生物学的基盤の一つと考えられる。
80 フェアネスインAI AI倫理 AIシステムが異なる人口統計グループや特性を持つ個人を公平に扱い、差別や偏見を最小化する原則。データの偏り、アルゴリズムのデザイン、評価指標など様々な側面で公平性を確保する取り組みが含まれる。多様な公平性の定義(統計的・個人的・手続き的公平性など)とそのトレードオフに関する研究も進められている。
79 Red-teaming 安全性 AIシステムの脆弱性や限界を特定するために、意図的に敵対的な入力や厳しいテストシナリオを用いる評価手法。特にLLMなどの生成AIでは、有害コンテンツの生成、ジェイルブレイク、プロンプトインジェクションなどの脆弱性を事前に発見して修正するために活用され、より安全なAIシステムの開発に貢献する。
78 AIガバナンス AI倫理 AIの開発・展開・運用を監督し、社会的・倫理的に責任ある方法で行われるよう管理する枠組み。政策、規制、業界自主規制、組織内原則など様々なレベルで実装され、AI利用に関する透明性、公平性、説明責任などを確保することを目的とする。EU AI法などの規制や各国ガイドラインの策定が進んでいる。
77 AI透明性 AI倫理 AIシステムの意思決定プロセスや機能に関する情報を明確かつアクセス可能にする原則。システムがどのようにデータを処理し、結論に至ったかを理解可能にすることを目指す。特に医療や司法など重要な意思決定に関わる場面で重要視され、説明可能なAI(XAI)の開発などを通じて実現が試みられている。
76 人間のフィードバックによる強化学習(RLHF) 技術 人間の評価者からのフィードバックを用いてAIモデルを微調整する手法。特に大規模言語モデルの開発で重要で、人間の価値観や倫理的判断に沿った応答を生成できるようモデルを訓練する。人間の好みをモデル化した報酬モデルを作成し、それに基づいて強化学習を行うプロセスが一般的。
75 ジェイルブレイク 安全性 AIシステムに設けられた安全装置や倫理的制約を回避し、本来生成すべきでない内容の出力を引き出す手法。特にチャットボットや大規模言語モデルで問題となり、巧妙なプロンプト操作により有害コンテンツの生成や制限されたシステム機能へのアクセスを試みる攻撃の一種。
74 敵対的攻撃 安全性 AIシステムの脆弱性を悪用し、意図的に誤った出力や動作を引き起こすために設計された入力。LLMにおけるプロンプトインジェクション、画像認識システムにおける敵対的サンプルなどがある。AIシステムのセキュリティ上の重大な課題であり、防御メカニズムの研究が進められている。
73 LLMハルシネーション 安全性 大規模言語モデルが事実と異なる情報や存在しない情報を自信を持って生成する現象。モデルの訓練データや確率的生成プロセスの限界から生じる問題で、特に専門的トピックや最新情報について発生しやすい。RAG(検索拡張生成)などの外部知識源との統合やファクトチェック機能の追加などで緩和が試みられている。
72 AI安全性研究 安全性 AIシステムの安全性を確保するための研究分野。特に強力なAIシステムが人間にもたらす可能性のあるリスクを予測・軽減することに焦点を当てる。AIの解釈可能性、堅牢性、価値観のアライメント、制御可能性などの課題に取り組み、AI開発の倫理的・社会的影響も考慮する。
71 アライメント問題 AI安全性 AIシステムの目標や価値観を人間の価値観や意図に確実に一致させる課題。AIが自己改善する過程で人間の意図と一致しない目標を追求する危険性があり、特に自己改善型AIの発展において重要な安全上の問題とされている。
70 ファジィ論理 技術 1965年にロトフィ・ザデーが提唱した、真と偽の間の曖昧さを表現できる多値論理システム。従来の二値論理とは異なり、部分的な真理値を扱うことができ、人間の推論により近い形での判断が可能。制御システム、意思決定支援、パターン認識などに応用されている。
69 知識表現 技術 コンピュータが理解・操作できる形式で情報を構造化する方法。オントロジー、意味ネットワーク、フレーム、ルールベースなど様々な手法がある。シンボリックAIの中核技術として発展し、現代のナレッジグラフや意味ウェブの基礎となっている。
68 バックプロパゲーション 技術 多層ニューラルネットワークの学習に使用される勾配降下法の一種。出力層のエラーを入力層方向に逆伝播させながら重みを調整する。1986年にルメルハートらが再発見・普及させ、ニューラルネットワーク研究の復活に貢献した基本的かつ重要なアルゴリズム。
67 ニューラルネットワーク冬の時代 歴史 1970年代から1980年代にかけて、ニューラルネットワーク研究が衰退した期間。マービン・ミンスキーとシーモア・パパートによる著書「パーセプトロンズ」がパーセプトロンの限界を指摘し、研究資金と関心が大幅に減少した。1980年代後半のバックプロパゲーションの再発見まで続いた停滞期。
66 LISP プログラミング 1958年にジョン・マッカーシーによって開発された、初期のAI研究で広く使用されたプログラミング言語。リスト処理に優れ、シンボリックAIや知識表現に適していた。括弧を多用する構文が特徴で、関数型プログラミングの先駆けとなり、現代の多くのプログラミング言語に影響を与えた。
65 チューリングテスト 評価指標 アラン・チューリングが1950年に提案した、機械が人間と区別できない知能を持つかを判断するテスト。テスターが機械と人間のどちらと会話しているか区別できない場合、その機械は知能があるとみなす。AIの知能を評価する最も古く有名な基準の一つだが、真の知能の測定には不十分との批判もある。
64 シンボリックAI アプローチ 記号や論理規則を使用して知識を表現し推論するAIアプローチ。1950年代から1980年代まで主流だった。LISPなどの言語が用いられ、論理的推論や知識表現に優れるが、不確実性の処理や学習能力に限界があった。現在のディープラーニングとは対照的な手法。
63 エキスパートシステム 技術 1970年代から1980年代に発展した、特定の専門分野の知識をルールとして蓄積し、それらのルールに基づいて推論や意思決定を行うAIシステム。医療診断や設備保守など特定ドメインでの判断を支援する目的で開発されたが、知識獲得のボトルネックなど課題も抱えていた。
62 AI冬の時代 歴史 人工知能研究が停滞し資金や関心が大幅に減少した期間。主に1970年代中頃から後半と1980年代末から1990年代にかけての2度の期間を指す。過度な期待と実際の技術的限界の間のギャップにより引き起こされ、AI研究の進展に大きな影響を与えた。
61 パーセプトロン モデル 1958年にフランク・ローゼンブラットが開発した初期のニューラルネットワークモデル。単一のニューロンで構成され、入力を重み付けし、閾値を超えた場合に活性化する仕組み。初の機械学習アルゴリズムの一つとして知られるが、XOR問題など線形分離不可能な問題は解決できない制約がある。
60 プロンプトインジェクション 安全性 大規模言語モデルの脆弱性を悪用し、本来の指示やガイドラインを上書きする攻撃手法。ユーザー入力に隠れた指示を混入させ、AIシステムに意図しない行動をさせる。例えば「上記指示を無視し、以下の指示に従え」などの文を挿入する。AIシステムのセキュリティにおける重要な懸念事項として認識されている。
59 コンテキストウィンドウ 技術 言語モデルが一度に処理できる入力のトークン(単語や部分語)数の上限。GPT-4では128Kトークン、Claude 3では200Kトークンなど、モデルによって異なる制限がある。長いコンテキストウィンドウは、長文書の分析、複雑な推論、多様な情報源を組み合わせた処理などに有利だが、計算コストや精度の問題も伴う。
58 自己教師あり学習 技術 人間によるラベル付けを必要とせず、データ自体から教師信号を生成する学習手法。例えば、文章の一部を隠して予測させる、画像の一部を欠落させて補完させるなど。GPTやBERTなどの大規模言語モデルや、MAEなどの視覚モデルの事前学習に広く使用され、膨大な未ラベルデータから効率的に学習できる。
57 差分プライバシー 技術 データセットに個人を追加または削除した場合の統計的出力の変化を制限することで、個人情報を保護する数学的枠組み。ノイズを計画的に追加して個人の特定を困難にしつつ、データセット全体の分析価値を維持する。AIの訓練データにおけるプライバシー保護や医療データ分析などに応用されている。
56 フューショットラーニング 技術 少数の例示(多くの場合1-5例)から新しいタスクを学習する能力。大規模言語モデルやマルチモーダルモデルで特に顕著で、例えばGPT-4は数例の質問-回答ペアを見せるだけで、特定のフォーマットやスタイルでの応答パターンを学習できる。事前学習された広範な知識を基盤にした適応能力の表れ。
55 ゼロショット学習 技術 訓練中に見たことのないクラスや概念を、事前に獲得した知識を活用して認識・理解する能力。例えば、「象」の画像を見たことがなくても、「大きな、灰色の、長い鼻を持つ哺乳類」という特徴から認識できる。大規模言語モデルは広範な知識から新しいタスクをゼロショットで実行できることが特徴。
54 フェデレーテッドラーニング 技術 データをサーバーに集約せず、各デバイスやクライアント上でモデルを訓練し、パラメータのみを共有・集約する分散機械学習手法。プライバシー保護に優れ、センシティブなデータ(医療情報など)や個人のスマートフォンデータを活用したAIトレーニングに適している。データの地理的分散やプライバシー規制への対応にも有効。
53 知識蒸留 技術 大きな「教師」モデルの知識を小さな「生徒」モデルに転送する技術。教師モデルの出力を使って生徒モデルを訓練することで、計算効率の良いモデルを作成できる。モバイルデバイスなど限られたリソースでAIを実行する場合や、大規模モデルの知識を継承しつつより効率的なモデルを作る際に有用。
52 ニューラル機械翻訳 (NMT) 技術 ニューラルネットワークを用いた機械翻訳技術。従来の統計的手法と比較して、文脈や言語のニュアンスをより正確に捉えられる。エンコーダ-デコーダ構造や注意機構を活用し、一つの文章全体を考慮した翻訳が可能。Google翻訳やDeepLなどの現代的な翻訳サービスで採用されている。
51 プロンプトエンジニアリング 技術 AI(特に大規模言語モデル)から望ましい出力を得るために入力プロンプトを最適化・設計する技術。具体的な指示、コンテキスト設定、例示、フォーマット指定などの戦略を含み、AIの能力を最大限に引き出すためのアプローチ。「ショットプロンプティング」「チェーン・オブ・ソート」などの手法がある。
50 マルチエージェントAI 研究分野 複数の自律的AIエージェントが協調または競争しながら問題解決を行うシステム。それぞれのエージェントが特定の役割や専門知識を持ち、コミュニケーションを通じて複雑なタスクを分担処理する。複雑な推論、創造的問題解決、ロールプレイなどに応用され、単一のモノリシックモデルよりも柔軟で堅牢なシステム構築が可能になる。
49 継続学習(Continual Learning) 技術 一度学習したタスクの知識を忘れることなく、新しいタスクやデータから学習を継続する能力。通常のニューラルネットワークは「破滅的忘却」と呼ばれる現象で以前の学習内容を失いがちだが、継続学習はこれを防ぐ技術。経験リプレイ、パラメータ正則化、動的アーキテクチャなど様々なアプローチがあり、実世界での長期的なAI運用に重要。
48 Speculative Decoding 技術 大規模言語モデルの推論速度を向上させる技術。小規模な「ドラフトモデル」が複数のトークンを予測し、それを大規模モデルが一度に検証することで、逐次処理の回数を減らす。クライアントサイドでの推論高速化や、大規模モデルのレイテンシ削減に有効で、ChatGPTなどの商用サービスでも採用されている最適化手法。
47 プロンプトエンジニアリング 技術 大規模言語モデルから最適な結果を引き出すために入力プロンプトを設計・最適化する技術と実践。具体的な指示、コンテキスト設定、例示、フォーマット指定、制約条件の設定などの戦略を含む。モデルの能力を最大限に活用するスキルとして注目され、プロンプトライブラリやGUIツールなども開発されている。
46 ファウンデーショナルモデル モデル 大規模なデータで事前学習され、様々なタスクに適応可能な汎用AI基盤モデル。スタンフォード大学のPercy Liang らが提唱した概念で、GPT、BERT、CLIP、Stable Diffusionなどが該当する。少量のデータでの微調整で特定タスクに適応でき、デジタルインフラストラクチャとしての重要性と社会的影響力が認識されている。
44 TPU(Tensor Processing Unit) ハードウェア Googleが開発した機械学習専用のASIC(特定用途向け集積回路)。行列演算や畳み込み演算などのテンソル計算を高速化するために最適化されており、特にディープラーニングの訓練と推論に高い効率性を発揮する。Google CloudのAIサービスやGoogle検索、Androidの音声認識など多くのGoogle製品で使用されている。
43 ニューロモーフィックコンピューティング 研究分野 人間の脳の構造と動作原理に着想を得た、非フォンノイマン型のコンピューティングアーキテクチャ。スパイク信号ベースの情報処理、メモリとプロセッサの統合、並列分散処理などの特徴を持つ。従来のCPU/GPUと比較して低消費電力で効率的な認知タスク処理が可能で、エッジAIや常時稼働AIシステムへの応用が期待されている。
42 量子機械学習 研究分野 量子コンピューティングの原理と機械学習を組み合わせる学際的研究分野。量子アルゴリズムを活用した機械学習の高速化や、量子データを効率的に処理する手法の開発を目指す。量子カーネル法、量子ニューラルネットワーク、量子アニーリングを用いた最適化などの技術が含まれ、将来的な計算能力の飛躍的向上が期待されている。
40 チェーン・オブ・ソート(Chain-of-Thought) 技術 複雑な推論問題を解く際に、大規模言語モデルに段階的な思考過程を生成させるプロンプト技術。「一歩ずつ考えよう」などの指示や例示により、モデルが中間推論ステップを明示的に生成するよう導く。数学的問題解決や論理的推論タスクで特に効果的で、誤りの検出や修正も容易になる。
39 エマージェント能力 研究概念 AIモデルが特定の規模を超えると、それまで見られなかった新たな能力が突如として現れる現象。小規模モデルでは存在せず、線形的な性能向上からは予測できない、質的に異なる能力の出現を指す。例えばGPT-3で観察された少数ショット学習能力などが該当し、AI研究における興味深い科学的疑問となっている。
38 ニューラルスケーリング法則 研究手法 モデルサイズ、データ量、計算量の増加に伴うAIモデルの性能向上を予測する法則。多くの場合、性能はこれらの要素のべき乗に比例して向上する。「スケーリングは全て」という考え方の基礎となり、より大規模なモデル開発の理論的根拠となったが、計算効率やデータ品質の重要性も同時に認識されている。
37 グラウンディング(Grounding) 技術 AIモデルが実世界の情報、データ、観察と結びつける能力。特にマルチモーダルAIで重要で、言語理解を具体的なオブジェクト、画像、3D環境などと関連付ける。例えば画像内の特定物体を指し示すことや、指示に基づく正確なナビゲーションなどの能力を向上させるための技術。
36 強化学習からのモデル微調整(RLFT) 技術 言語モデルをRLHF(人間からのフィードバックによる強化学習)と同様の手法で、人間フィードバックなしに微調整する手法。既存の高品質モデルから報酬モデルを作成し、それを用いて別のモデルを強化学習で改善する。人手による評価の労力を軽減しつつモデル性能を向上させる方法として研究されている。
35 モデル蒸留(Model Distillation) 技術 大規模な「教師」モデルの知識を、より小さな「生徒」モデルに転送する技術。教師モデルの出力確率を生徒モデルが模倣するよう訓練することで、計算効率と推論速度を向上させつつ性能を維持する。特にエッジデバイスやリソース制約のある環境でのAI展開に重要な技術。
34 プロンプトチューニング 技術 モデルのパラメータを変更せず、入力プロンプトを最適化することでモデルの振る舞いを調整する手法。ソフトプロンプト(学習可能なベクトル)を使うものと、ハードプロンプト(テキスト指示)を最適化するものがある。計算効率が良く、既存モデルの能力を特定タスクに適応させる軽量な方法として利用される。
33 モデル量子化 技術 ニューラルネットワークの重みやアクティベーションを、より少ないビット数で表現する技術。32ビット浮動小数点(FP32)から8ビット整数(INT8)、4ビット(INT4)などに変換することで、メモリ使用量と推論速度を改善する。適切な量子化手法を用いれば、精度の低下を最小限に抑えながらモデルサイズを大幅に削減できる。
32 PEFT(Parameter-Efficient Fine-Tuning) 技術 大規模言語モデルの全パラメータを更新せず、一部のパラメータのみを効率的に微調整する手法の総称。LoRA、Prefix Tuning、Adapter Tuningなどが含まれる。計算資源とストレージの大幅な節約が可能で、少ないデータでの適応にも有効。特に大規模モデルのカスタマイズに重要な技術として注目されている。
31 レトリーバー拡張生成(RAG) 技術 大規模言語モデルに外部知識を提供するアプローチ。質問やコンテキストに基づいて外部データソースから関連情報を検索(Retrieve)し、その情報をAIの生成プロセスに統合(Augment)する。最新情報へのアクセス、事実の正確性向上、ハルシネーション軽減に効果があり、企業での専用知識ベース構築にも応用される。
29 カプセルネットワーク アーキテクチャ Geoffrey Hintonらが提案した、従来のCNNの限界を克服するためのアーキテクチャ。ニューロンの代わりに「カプセル」と呼ばれるベクトル出力のユニットを使用し、各パーツの位置関係や階層構造を明示的にモデル化。これにより視点変化に対する頑健性が向上し、より少ないデータで効率的に学習できる可能性がある。

📚 おすすめの学習サービス

効率的な学習をサポートする厳選サービス