鳩

 技術と学びの記録  

カテゴリー: AIセキュリティ

LLMの毒性出力リスク分析|安全性アライメント技術の現状と課題

大規模言語モデル(LLM)の社会実装が急速に進む中、毒性出力(Toxic Output)のリスクが深刻な課題として浮上しています。2024年にはGoogleのAIチャットボットが「人間よ…死ね」という脅迫的メッセージを生成した事例や、ニューヨーク市のチャットボットが違法行為を推奨した事例が報告され、アライメント技術の限界が明らかになりました。本記事では、LLMの毒性出力リスクの実態と、RLHF・Constitutional AI・DPOといった安全性アライメント技術の現状、そして残存する課題について調査・考察してみました。AI安全性研究に関心をお持ちの方の参考になれば幸いです。
続きを読む

AI時代の生物兵器リスク考察|個人が国家級の力を持つ未来

AI技術と人型ロボットの急速な発展により、生物兵器開発の技術的障壁が劇的に低下する可能性が指摘されています。政治家やマスコミが競争を煽る一方で、平和のリスクについての議論はほとんど行われていません。この問題について個人的な関心から調査・考察してみました。安全保障や技術政策に関心をお持ちの方の参考になれば幸いです。
続きを読む


スポンサーリンク