AI安全性(AIセーフティ)とは?
読み方: エーアイアンゼンセイ
30秒まとめ
AIシステムが安全に動作し、人間や社会に害を与えないようにする研究・技術分野。
AI安全性(AIセーフティ)の意味・定義
AI安全性(AI Safety)は、AIシステムが意図した通りに安全に動作し、人間や社会に害を与えないことを保証するための研究・技術・ポリシーの総称です。主要な課題として、AIの整合性(Alignment、人間の意図や価値観との一致)、プロンプトインジェクション攻撃への耐性、有害コンテンツの生成防止、バイアスの軽減、セキュリティ、プライバシー保護などがあります。AnthropicのConstitutional AI、OpenAIのRLHF、Googleの責任あるAI開発原則など、各社が独自のアプローチを採用しています。EU AI規制法やG7広島AIプロセスなど、国際的なルール作りも進行中です。