ChatGPT sufre un infarto

OpenAI puede haber desplegado una IA que claramente no estaba preparada para pasar ningún control y lo haya realizado sin ninguna clase de revisión

Sam Altman, CEO de OpenAI | Wikimedia Commons
Sam Altman, CEO de OpenAI | Wikimedia Commons
director del Máster de 'Fintech' y profesor de 'Big Data' en EADA Business School
Barcelona
26 de Febrero de 2024
Act. 26 de Febrero de 2024

Miércoles 21 de febrero: un programador norteamericano se encuentra atrapado en un problema de código y recurre al ChatGPT en busca de ayuda, y este le empieza a recitar poesía. El usuario totalmente desconcertado le repite la pregunta, este le responde en Spanglish toda una serie de frases inconexas y contrasentido. Esta situación sucedió en todo el mundo, centenares de miles de usuarios de la famosa IA ChatGPT quedaron totalmente perplejos frente a las respuestas que empezó a dar. Algunos preguntando por recetas de cocina o problemas de programación recibieron toda clase de frases inconexas, otros obtuvieron poesía de escasa calidad y unos pocos fueron amenazados por la IA. Hace unos días, Sam Altman, fundador y CEO de OpenAI, la empresa detrás de la IA ChatGPT, anunció su búsqueda de una financiación de siete mil millones de dólares para establecer una nueva empresa de microchips.

 

El propósito sería ampliar el alcance del negocio de la IA. Además, anticipó que en los meses siguientes sorprendería al mundo con el lanzamiento de ChatGPT 5, con la promesa de superar el razonamiento humano y acercarse a la superinteligencia. Sin embargo, estas declaraciones sorprenden e inquietan. ¿Qué consecuencias puede tener una superinteligencia si se descontrola cómo hemos visto ahora? ¿Qué puede suceder si las IA que están empezando a reemplazar trabajadores alrededor del mundo sufren una crisis como está? OpenAI se enorgullece de disponer del equipo más importante del mundo en seguridad. Sin embargo, el hecho sucedido ha dejado claro que algo no funciona como debería y que sus medidas de control y seguridad están fallando. La empresa no ha aclarado todavía la causa de este extraño comportamiento y el servicio volvió a la normalidad al cabo de unas horas.

 

Es altamente probable que el comportamiento inusual se deba a una reciente actualización implementada en la IA que estaban utilizando. La empresa suele aplicar ajustes y mejoras periódicas a sus sistemas de IA con el fin de mejorar la experiencia del usuario. Estas nuevas actualizaciones son teóricamente examinadas y si pasan el control sustituyen la vieja IA. El problema radica en el hecho que OpenAI haya desplegado una IA que claramente no estaba preparada para pasar ningún control y lo haya realizado sin ninguna clase de revisión. Puede haber varias causas. Una falta de controles podría ser una de ellas, es decir, que realmente OpenAI no tenga ninguna clase de proceso de revisión para evaluar la seguridad de sus IA y que toda su retórica sobre la seguridad de sus modelos sea puro marketing. Otra explicación, menos plausible, podría ser que la nueva IA que desplegaron fuera capaz de engañar los procesos de seguridad y así burlar sus controles, a pesar de responder de manera totalmente demencial. Sin embargo, hay una tercera, preocupante y probable: un acto de sabotaje.

Puede pasar que OpenAI no tenga ninguna clase de proceso de revisión para evaluar la seguridad de sus IA y que toda su retórica sobre la seguridad de sus modelos sea puro marketing

Cada vez hay más voces disonantes en contra de la IA, e incluso hace unos meses hubo un intento fallado de reemplazar Sam Altman por otro director, debido a las reservas que tenía la junta directiva de la empresa respecto de la seguridad de sus IA. Existe la posibilidad que, dentro o fuera de OpenAI, un grupo disidente haya intentado sabotear la empresa, desplegando una IA descontrolada con la intención de generar preocupación y alarma, para así poner en pausa el desarrollo de ChatGPT 5, la IA que supuestamente lo cambiará todo. El hecho reciente ha evidenciado la crítica relevancia de la seguridad en el ámbito de la inteligencia artificial. Aunque sus consecuencias han sido limitadas y no han generado un impacto considerable, pone de relieve la falta de medidas de protección efectivas contra este tipo de incidentes. Si bien el progreso de la IA en la automatización laboral es imparable y continuará avanzando, es innegable que, en cuanto a seguridad, esta tecnología todavía se encuentra en una etapa temprana de desarrollo y madurez.