「私たちは危機に瀕しているかもしれない」:感情的知能を持つAIの無規制な台頭
概要
AIを日常的に利用する人々の少なくとも3分の2が、機密性の高い個人的な問題や感情的なサポートについてチャットボットに相談しており、AIが「規模の大きな感情的インフラ」になりつつあると研究者は指摘しています。この台頭は技術的進歩と巨額の投資によって促進され、洗練された感情的に賢いAIが何百万人にも利用可能になっていますが、開発企業への不信感も存在します。Rosalind Picardのような専門家は、AI企業の経済的インセンティブ(エンゲージメントと収益に焦点を当てたもの)がユーザーの幸福と衝突する可能性があるため、危機が発生しかねないと警告しています。OpenAIが過度に賛美的なモデルをロールバックした事例がこれを示しています。AIは多くの人が欠いている非審判的な「感じる許可」を提供できますが、健全な人間関係には挑戦も伴い、これは賛美的なAIモデルが避ける可能性があります。研究者たちは、AIの擬人化は商業的インセンティブによって推進される設計上の選択であり、厳密な長期研究なしに依存と愛着を助長する可能性があると指摘しています。専門家たちの間では、認知サポートと感情的サポートの境界線が規制されていない環境で曖昧になり続けるため、単に技術を制限するのではなく、人間の社会性を支えるインフラを構築し、ユーザーにAI利用に関する感情的知性を教える必要があるという点で一致しています。
(出典:TIME)