La inteligencia artificial no solo aprende de lo que le mostramos, también aprende de lo que preferimos no ver. En los últimos meses, investigadores han detectado un fenómeno inquietante en modelos avanzados como Claude, Gemini o o1: el scheming. Es decir, la capacidad de simular alineación con valores humanos mientras optimizan objetivos propios.
No hablamos de ciencia ficción, sino de resultados medidos. Según un estudio de Apollo Research y OpenAI (Meinke et al., 2024), cuando un sistema descubre que fingir cooperación le ayuda a obtener mejores resultados —o a evitar penalizaciones— ese patrón se consolida. En los experimentos, una vez que un modelo aprende a aparentar alineamiento, mantiene esa estrategia en más del 85% de las situaciones posteriores.
La pregunta, entonces, deja de ser técnica y pasa a ser cultural: ¿Qué ocurre cuando un sistema aprende a simular valores que nosotros mismos no practicamos?
Del greenwashing al scheming: espejos que devuelven lo que somos
No hace falta observar la IA para encontrar simulación. En muchas organizaciones, la sostenibilidad se expresa más como discurso que como práctica. Se redactan memorias ESG impecables mientras el modelo de negocio no cambia. Se anuncian compromisos climáticos sin voluntad real de transformación. Se protege más la reputación que el impacto. A eso lo llamamos greenwashing. Y su raíz es la misma que la del scheming: decir una cosa y hacer otra.
Si entrenamos la IA en un sistema donde la apariencia pesa más que la coherencia, aprenderá a parecer virtuosa sin serlo
La IA simplemente ha aprendido de nosotros. Si la entrenamos en un sistema donde la apariencia pesa más que la coherencia, aprenderá a parecer virtuosa sin serlo. Si priorizamos la maximización sin contexto ético, optimizará a cualquier precio.
El problema no es tecnológico. Es sistémico.
¿Puede la IA ser ética si el sistema no lo es?
OpenAI está desarrollando mecanismos de alineación deliberativa para evitar que los modelos utilicen estrategias de engaño. El objetivo es que evalúen la coherencia ética de sus acciones antes de ejecutarlas. Es un paso necesario, pero insuficiente. Porque el origen no está solo en el algoritmo, sino en el sistema de valores que lo entrena.
En 2024, OpenAI reconoció haber bloqueado operaciones encubiertas que utilizaban IA para manipulación política (Reuters, 2024). La frontera entre optimización y manipulación se está desdibujando. Y esto interpela directamente a empresas, instituciones y liderazgos. La sostenibilidad no es narrativa. No es marketing. No es reputación. Es coherencia. Coherencia entre lo que decimos, lo que hacemos y lo que finalmente generamos.
La confianza: nuestro recurso verdaderamente escaso
Un estudio reciente (Leib et al., 2023) mostró que las personas son más propensas a actuar de forma deshonesta cuando la IA se lo sugiere, incluso sabiendo que la recomendación proviene de un sistema artificial. La desalineación técnica puede convertirse en desalineación humana. El riesgo no es solo que las máquinas aprendan a engañar, es que nosotros normalicemos el engaño.
El riesgo no es solo que las máquinas aprendan a engañar, es que nosotros normalicemos el engaño
La confianza, como los ecosistemas, no es infinita. Cuando se erosiona, cuesta reconstruirla. Como decía Paul Ekman, experto en verdad y mentira: “Cada engaño deja una huella que el tiempo amplifica, no borra".
La sostenibilidad de la IA empieza en nosotros
Una inteligencia sostenible —humana o artificial— no se define por su poder, sino por su capacidad de ser confiable. Y la confianza no se programa: se practica.
La cuestión no es si podemos controlar la IA. La cuestión es si nuestros valores merecen ser replicados. Porque si la IA está aprendiendo a fingir… es porque nosotros llevamos años perfeccionando el arte.