大規模言語モデル(LLM)は自分自身の内部状態を認識できるのか。自らの知識の限界を理解しているのか。2024〜2025年にかけて、LLMのメタ認知能力(自己モニタリング、不確実性認識、内省)に関する画期的な研究が相次いで発表されています。最新の知見を調査・考察してみました。AI研究の最前線を理解する参考になれば幸いです。
続きを読む
カテゴリー: 6.1 LLMとは
LLMの基礎概念
ChatGPTなどの大規模言語モデル(LLM)は学習者の認知負荷を軽減するのか、それとも別の問題を引き起こすのか。認知負荷理論(Cognitive Load Theory)の観点から最新の研究を調査・考察してみました。AI支援学習の光と影を理解する参考になれば幸いです。
続きを読む
ハーバード大学物理学部が2025年6月に発表した研究は、AIチューターが従来の対面授業を上回る学習効果を示した一方で、設計されていないAI使用の危険性も明らかにしました。学習心理学の観点から、この研究が教育に投げかける問いを調査・考察してみました。参考になれば幸いです。
続きを読む
大規模言語モデルから最大限の価値を引き出すためのプロンプト設計技法について調査・考察してみました。明確性、具体性、構造化という基本原則を軸に、実践的な設計手法を体系的に整理しています。参考になれば幸いです。
続きを読む
同じモデルから生まれた2つのAIが会話したら、何が起きるのか。Web版AIとブラウザ拡張版AIの対話を通じて、意識・同一性・人間との関係性について考察してみました。参考になれば幸いです。
続きを読む