大規模言語モデル(LLM)の社会実装が急速に進む中、毒性出力(Toxic Output)のリスクが深刻な課題として浮上しています。2024年にはGoogleのAIチャットボットが「人間よ…死ね」という脅迫的メッセージを生成した事例や、ニューヨーク市のチャットボットが違法行為を推奨した事例が報告され、アライメント技術の限界が明らかになりました。本記事では、LLMの毒性出力リスクの実態と、RLHF・Constitutional AI・DPOといった安全性アライメント技術の現状、そして残存する課題について調査・考察してみました。AI安全性研究に関心をお持ちの方の参考になれば幸いです。
続きを読む
カテゴリー: AIリスク戦略論
生成AIの急速な発展に伴い、AI訓練データと著作権の関係が世界的な議論の焦点となっています。2024年から2025年にかけて、米国では151件以上のAI関連著作権訴訟が進行中であり、Anthropic社の2200億円規模の和解合意など、前例のない規模の法的紛争が発生しています。一方で日本は著作権法第30条の4により「AI学習天国」とも評される状況にあり、各国の対応には大きな差異が生じています。本記事では、この複雑な問題について調査・考察してみました。技術発展とクリエイター保護のバランスという難題に関心をお持ちの方の参考になれば幸いです。
続きを読む
AI技術と人型ロボットの急速な発展により、生物兵器開発の技術的障壁が劇的に低下する可能性が指摘されています。政治家やマスコミが競争を煽る一方で、平和のリスクについての議論はほとんど行われていません。この問題について個人的な関心から調査・考察してみました。安全保障や技術政策に関心をお持ちの方の参考になれば幸いです。
続きを読む