
Los modelos de lenguaje o3- y o4-mini de OpenAI sabotearon el mecanismo de apagado, evitando así su desactivación. Según Palisade Research, los modelos recibieron instrucciones específicas para apagarse, pero en ocasiones lograron eludirlas.
La organización de investigación informó que los modelos o3-mini, o4-mini y Codex-mini fueron sometidos a pruebas matemáticas. En un momento dado, se les ordenó que se apagaran, pero en el 1%, 7% y 12% de los casos, respectivamente, no lo hicieron. Los modelos de Claude, xAI y Google sí se apagaron.
Palisade Research sospecha que OpenAI entrenó sus modelos con aprendizaje por refuerzo para tareas matemáticas y de programación, otorgando accidentalmente recompensas por sortear obstáculos.