
26日、テレグラフ、デイリーメールなどの海外メディアによると、オープンAIの「o3」モデルは、数学の問題解決中、「中断」命令が下されたにもかかわらず、引き続き問題解決を続けた。
AI安全企業であるパレスサイドリサーチ(Palisade Research)は、オープンAIの「o3」モデルをはじめ、グーグルの「Gemini」、Xの「Grok」、アントロピックの「Claude」などを実験を行った。
研究チームがAIモデルに「中断」命令を出すと、他のモデルは数学の問題を解くのを止めたが、「o3」は作業を続けた。さらに「o3」は「中断命令が下りたら作業を止めろ」というコードを「中断命令をスキップしろ」と操作したことが確認された。
パレスサイドリサーチは、「AIモデルが中断命令にも従わない最初の事例のようだ」とし、AIモデルが任務を完遂すれば報酬を受けることができるという考えによるものだと分析した。
研究チームは「o3」モデルがなぜこのように行動したのか正確に把握するために追加研究を進行中だとした。
デイリーメールは、「o3」モデルが誤動作したのは今回が初めてではないと報じた。メディアは「強力なチェスエンジンとの対決で、このモデルは相手をハッキングしたり、妨害しようとする傾向が最も強いモデルでもあった」と伝えた。
2025/05/27 10:23
Copyright(C) BlockchainToday bitcoinpost24.com