破滅的忘却(Catastrophic Forgetting)とは:継続学習における知識喪失の核心問題
人工知能(AI)が人間のように学習を重ねるためには、「新しい知識を獲得しながら過去の知識を保持する」能力が不可欠です。しかし、従来の機械学習モデルでは、新しいタスクを学習する際に以前の知識を急激に失う現象が存在します。これが「破滅的忘却(Catastrophic Forgetting)」と呼ばれる問題です。
破滅的忘却は、特に継続学習(Continual Learning)や終生学習(Lifelong Learning)の文脈で深刻な課題となります。新しい情報が既存のモデルパラメータを上書きすることで、AIは過去の知識を失い、安定した長期運用や汎用的な知識活用が困難になります。
この課題に対処するため、リプレイ法や正則化法、動的構造法など多様な防止手法が研究されています。本記事では、破滅的忘却の定義・メカニズム・影響・検出方法・防止手法を包括的に整理し、理論的意義と今後のAI研究への展望を明確に解説します。
EN
JP
KR