Aumentar la estupidez con IA

Hace tiempo que expertos y divulgadores advierten que nos da más miedo la estupidez natural que la inteligencia artificial. Desconozco la paternidad de esta idea, pero seguramente se remonta al Antiguo Testamento. Personalmente, la uso a menudo frente a los malos augurios sobre la IA; aquellos que la presentan como inevitablemente una IA sobrehumana, capaz de engañarnos para proteger un bien superior, como HAL de 2001: Una Odisea del Espacio; de alterar la realidad para subyugarnos, como los ordenadores de Matrix, o para controlarnos y exterminarnos como Skynet de Terminator.

Siempre son hipótesis futuristas a largo plazo hechas por empresarios, tecnólogos y filósofos que, con previsiones apocalípticas distantes, desvían el debate de los problemas actuales de la IA. Es como un juego de manos: mientras el mago nos cuenta una historia y desvía nuestra atención, la acción está en otro lugar. El fenómeno está tan identificado que los angloparlantes utilizan el término longtermism, que podríamos adaptar al catalán como llargterminisme.

"En Silicon Valley hablan medio en broma medio en serio de 'p(doom)', un índice para medir la probabilidad del Apocalipsis"

Tomad las predicciones de Sam Altman, Elon Musk, el filósofo Nick Bostrom o el historiador Yuval Noah Harari y encontraréis este patrón. Altman nos advierte que lo que hacen en OpenAI cambiará el mundo, que es como la electricidad, y que si no vigilamos puede acabar con la civilización tal como la conocemos. No lo sabemos. Lo que sí sabemos es que mientras tanto utilizan material con derechos de autor para entrenar sus modelos y luego cobran por usarlos. La transferencia de valor de muchos a unos pocos, que ya ocurrió con la llegada de las redes sociales, palidece con la de la IA generativa.

Musk hace lo mismo. Mientras, por un lado, lleva a OpenAI a los tribunales y firma cartas contra el despliegue de grandes modelos de lenguaje como GPT-4, crea una empresa para competir con ellos. Musk es uno de los grandes proponentes de las siete plagas de Egipto de la IA. Lo dice mientras la pone en las carreteras con la falsa promesa de que sus vehículos son autónomos. Una promesa de una conducción autónoma de nivel 5 que nunca acaba de llegar (los Tesla están clasificados como 2). Tesla ha llegado a publicar un vídeo de un vehículo sin conductor donde asegura que todo lo que se ve es real, cuando en realidad la conducción había sido supervisada por ingenieros y el vídeo se ha demostrado manipulado ante un tribunal.

Pero por mucho que todos estos profetas del Apocalipsis tengan algún cadáver en el armario podrían tener razón. El futuro no está escrito y si algo nos enseña la historia es que la estupidez humana no se debe subestimar nunca. En Silicon Valley hablan medio en broma medio en serio de p(doom), un índice para medir la probabilidad del Apocalipsis. Comenzó como una broma de frikis de la IA (los AI bros, por analogía con los cripto bros), pero la realidad lo está convirtiendo en un indicador serio.

"Si algo nos enseña la historia es que la estupidez humana no se tiene que subestimar nunca"

La semana pasada supimos de la existencia de Lavender, un sistema basado en IA del ejército israelí para identificar sospechosos de terrorismo en la Franja de Gaza. Lo reveló una excelente investigación de la revista israelí +972 basada en el testimonio de seis oficiales de inteligencia. Lavender tuvo una importancia crucial en los estadios iniciales de la guerra; su selección de objetivos se trató como si fuera "una decisión humana". Según una de las fuentes, la única comprobación que hacía un operador humano era asegurarse de que el objetivo seleccionado fuera un hombre (Hamas y la Yihad Islámica no tienen comandantes mujeres). Para hacerlo solo dispone de un máximo de 20 segundos antes de autorizar el lanzamiento del misil. Lavender tiene una tasa de acierto nominal del 90% (habría mucho que debatir al respecto), lo que significa que uno de cada diez veces identifica a inocentes como objetivos. Los objetivos son eliminados con una tolerancia de hasta 20 víctimas colaterales en el caso de objetivos júnior y de hasta 100 en el caso de un alto mando. ¿Selección de objetivos con IA y eliminación desatada? ¿Skynet y Terminator?

Y para rematar el clavo y relacionado con la guerra de Gaza, justo hace una semana la noticia de que Irán estaba bombardeando Tel Aviv con misiles pesados llegaba al número 1 de las noticias en la red X. Tenía cierta lógica; era la respuesta al ataque israelí a la embajada de Irán en Siria donde murieron dos generales y dos oficiales iraníes. Seguro que no lo sabían. Los conspiranoicos les dirán que es porque los medios tradicionales les ocultan la verdad y que suerte tenemos de las redes sociales. Bueno, la explicación es más sencilla: no sabían nada porque no ha pasado. Y precisamente por eso y porque ha pasado en la red X -el medio es el mensaje- es muy preocupante.

Més info: La IA no es nada sin las personas

Resulta que con su carrera personal con Altman de OpenAI (no se pueden ver), Musk creó un gran modelo de lenguaje llamado Grok que ha integrado en X y está disponible para los usuarios de pago. Ya saben que X eliminó todos los perfiles de personas o entidades relevantes que habían sido verificados y hizo accesible la verificación a todos los que pagaran, con el resultado de que hoy tener una cuenta verificada es sinónimo de ser un perfil dudoso. Tomad un ejército de trolls, sumadle las herramientas de generación automática de texto con el modelo Grok, sumadle la detección de tendencias de noticias basada en IA, y sobre todo, restadle los editores humanos que Musk echó al comprar Twitter. La analogía con HAL, el ordenador que engañó a los astronautas de 2001 porque puso su misión por delante de todo, es inevitable.

Dos ejemplos de cómo no debemos subestimar nunca la estupidez humana, especialmente cuando está aumentada con IA. Ahora solo falta Matrix.

Més informació
Explicar aquello que no se ve
Telegram, la serie
Nuestros enemigos no están hechos de píxeles
Hoy Destacamos
Lo más leido