Experta en videojuegos, tecnología y tendencias digitales

¿Quién decide qué es una IA segura?

04 de Mayo de 2026
Gina Tost | VIA Empresa

Hay una escena, seguramente familiar, que se está desarrollando estos días en San Francisco: dos compañías tecnológicas están discutiendo públicamente sobre seguridad, mientras en paralelo intentan convencer a inversores, reguladores y usuarios que su manera de construir inteligencia artificial es la más responsable y la que el mundo necesita para el mañana.

 

En las últimas semanas, un documento interno filtrado de OpenAI apuntaba directamente a Anthropic, un competidor directo, acusándolo de construir parte de su posicionamiento empresarial sobre una cultura del miedo por el futuro de la IA, de presentar una narrativa excesivamente restrictiva para el desarrollo de la industria y, incluso, de inflar métricas económicas para reforzar su posición en el mercado.

Esta manera de hacer relaciones públicas empresariales ya la hemos visto con Apple y Microsoft, o con Sony y Microsoft, pero sí que parece que cada vez es una estrategia menos disimulada y mucho más evidente. Y lo que resulta interesante es el hecho de que la seguridad de los usuarios se ha convertido en un elemento de competitividad empresarial ante las amenazas que nos sobrevuelan en cada revolución industrial.

 

"La seguridad de los usuarios se ha convertido en un elemento de competitividad empresarial ante las amenazas que nos sobrevuelan en cada revolución industrial"

Desde que surgió Anthropic, la empresa ha construido buena parte de su relato corporativo alrededor de la idea de que la IA requiere prudencia, incluso en casos en que esto implica limitar capacidades o postergar despliegues de funcionalidad por miedo a posibles consecuencias. La empresa de Dario Amodei ha hecho notas de prensa explicando que sus trabajadores son “los buenos de OpenAI”, los que se han marchado para montar una empresa pensada por el bien de los humanos y no por los bolsillos de los ricos. Una especie de Robin Hood algorítmico… y la gente les ha comprado el relato.

OpenAI, por su parte, ha querido defender una aproximación más expansiva, donde el acceso y la utilidad tiene más peso que la prudencia de Anthropic. Donde la libertad de poder usar la IA debe ir por encima de todo y de todos. Un miembro VIP del club de la libertad de Ayuso… Y la gente también les ha comprado el relato.

En la práctica, ninguna de las dos posiciones es 100% real. Ambas son combinaciones de criterios técnicos, decisiones empresariales y lecturas del clima regulatorio. Pero lo que importa es el hecho de que, a causa de lo que hemos vivido con nuestra corta historia de internet, sumado a la fijación de algunos medios por hablar de los peligros de la IA, la “seguridad” ha dejado de ser un estándar para convertirse en una forma de posicionamiento político.

Esto tiene una consecuencia directa: los límites de lo que es aceptable en el mundo de la IA no son definidos por una autoridad neutral ni por un consenso social estructurado, sino por actores que compiten por dominar el mercado discursivo de esta industria. La seguridad se convierte así en una materia elástica, ajustada al relato que mejor funciona en cada momento. La seguridad entendida como derechos digitales, ciberseguridad, o privacidad. La seguridad en manos de los que hacen las estrategias de las notas de prensa de empresas gigantes.

"Los límites de lo que es aceptable en el mundo de la IA no son definidos por una autoridad neutral ni por un consenso social estructurado, sino por actores que compiten para dominar el mercado discursivo de esta industria"

En paralelo a esta disputa, Anthropic ha publicado un estudio a gran escala con más de 80.000 entrevistas a usuarios de 159 países. El material es interesante, ya que pregunta a las personas qué esperan de la inteligencia artificial, y las respuestas no tienen nada que ver con escenarios abstractos de riesgo existencial o con la gobernanza global de sistemas futuros. El lenguaje es mucho más concreto: Se habla de tiempo, de fiabilidad, de reducción de errores, de apoyo en tareas cotidianas y de la posibilidad de liberar carga cognitiva en entornos de trabajo y vida personal cada vez más saturados.

Lo que aparece en el estudio es una expectativa pragmática y funcional, lejos de una sofisticación filosófica, y seguramente bastante evidente. Cuando Facebook o Twitter salieron, ¿qué pedía la gente en las redes sociales? Ampliar amigos, que tuviera más funcionalidades, juegos tipo Farmville, más actualizaciones en tiempo real… Fue con el tiempo que vimos que lo que necesitábamos eran unas barreras de seguridad para que la cosa no se saliera de madre y estuviéramos protegidos. Teníamos una falsa sensación de seguridad, porque no pensábamos que hubiera ningún problema en el hecho de que el algoritmo fuera opaco y decidiera por nosotros.

En este caso, creo que es un tema tecno-madurativo. Estamos en los inicios de la implementación de las herramientas y lo que vemos delante de la nariz es absolutamente pragmático. Cuando la IA nos ayuda, la valoramos porque acelera procesos, porque reduce fricción o porque amplía capacidades individuales. Cuando la IA nos genera preocupación, suele ser por su tendencia a equivocarse con una seguridad excesiva, a introducir errores difíciles de detectar o a generar dependencia en contextos en que la verificación es costosa. Básicamente: ahora mismo, la gente busca en la IA una herramienta que les ayude a hacer buen trabajo y que les dejen en paz con tonterías.

"Estamos en los inicios de la implementación de las herramientas y lo que vemos delante de la nariz es absolutamente pragmático"

Esta asimetría entre el debate corporativo y la experiencia de uso es uno de los puntos centrales del momento actual. Las empresas discuten sobre categorías de riesgo que aún son en gran parte anticipatorias, mientras los usuarios conviven con problemas mucho más inmediatos, a menudo menores en escala, pero acumulativos en efecto. 

Tenemos dos tiempos de visión para el mismo momento y para la misma tecnología. Un tiempo especulativo y etéreo, y un tiempo operativo y tangible. En este espacio intermedio, la seguridad se convierte en un debate sobre qué nivel de error es tolerable en cada contexto. Y aquí aparece otra capa de complejidad: estas decisiones no son visibles como decisiones conscientes, sino como características del sistema en el que nos encontramos.

El debate entre OpenAI y Anthropic no busca un vencedor claro y directo, siempre nos moveremos en escala de grises. Por eso, cuando una empresa acusa a la otra de exagerar riesgos o de asumir demasiada agresividad comercial, está cuestionando la legitimidad de su modelo de definición del riesgo. Y en una industria donde el riesgo es parte del producto, esto tiene implicaciones directas sobre la fiabilidad de todo el sistema, pero no dejaremos morir el sistema que nos alimenta a los dos, ¿verdad?

"Cuando una empresa acusa a la otra de exagerar riesgos o de asumir demasiada agresividad comercial, está cuestionando la legitimidad de su modelo de definición del riesgo"

En este punto, quiero hablaros de la investigación del periodista Ronan Farrow, hijo de Mia Farrow y Woody Allen. Pero no es (solo) un nepobaby, es alguien con una larga trayectoria poniendo entre las cuerdas a toda la industria tecnológica y ganador de un Premio Pulitzer en 2018 por haber destapado los abusos de Harvey Weinstein en el The New Yorker y haber sido la semilla del movimiento #MeToo. Ya no lo veis tanto hijo de, ¿verdad? Pero vayamos al caso que nos atañe. 

Estos días se ha hablado mucho sobre el liderazgo de Sam Altman y se han hecho diversas entrevistas y artículos sobre su persona. El líder de OpenAI tiene una cierta aura de misterio, y Farrow ha querido meter las narices. A partir de decenas de testimonios internos, describe una organización en la que las versiones de los hechos no siempre coinciden, la documentación es fragmentaria y parte del equipo directivo cuestionaba si la persona al frente era lo suficientemente fiable para gestionar una tecnología de este impacto. Se pone en cuestión la gobernanza, pero no el producto.

Estas dinámicas internas no suelen aparecer en los debates públicos sobre IA, pero condicionan directamente cómo se toman decisiones sobre seguridad, despliegue y límites. La destitución repentina de Altman en 2023, seguida de una restitución casi inmediata, dejó entrever hasta qué punto los mecanismos de control pueden ser frágiles, reactivos y dependientes de las mismas estructuras que deberían supervisar. Cuando la definición de riesgo depende también de quién tiene el poder dentro de la organización, la seguridad pasa a ser también propiedad del liderazgo.

La realidad es que la mayoría de usuarios no están operando en ningún escenario de confrontación ideológica sobre la IA. La utilizan como una herramienta que funciona mejor o peor, y que genera una combinación constante entre el beneficio y la fricción. En muchos casos, su expectativa es menos ambiciosa de lo que sugiere el discurso corporativo, pero también más exigente en términos de fiabilidad práctica.

La inteligencia artificial se está convirtiendo en una infraestructura imprescindible para muchos equipos, presente en decisiones corporativas. Y en este contexto, la idea de seguridad se convierte en una gobernanza distribuida, aún poco transparente y fuertemente condicionada por incentivos comerciales. Quizás es por eso que debería ser imprescindible un marco de gobernanza tecnológica en cada empresa, igual que lo hay de financiera o legal.

"Tenemos ante una tecnología que ya forma parte del tejido operativo de muchas actividades cotidianas, pero con unos criterios de funcionamiento todavía en disputa"

Quizás el punto más incómodo es la definición misma de qué quiere decir “una IA segura”. Si nos lo preguntan a cada uno de nosotros, acabará surgiendo una idea diferente. Algunos hablarán de privacidad, otros de propiedad intelectual o de espionaje industrial. Igual que pasaba en los inicios de Facebook, cuando la seguridad para uno era la contraseña y para el otro, que sus compañeros de trabajo no vieran el álbum de las fotografías borracho en Eivissa. Experiencia de usuario.

Tenemos delante una tecnología que ya forma parte del tejido operativo de muchas actividades cotidianas, pero con unos criterios de funcionamiento todavía en disputa. No creo que estemos ante una crisis de confianza en la IA. Ya sabemos que viene para quedarse. Nos encontramos en una fase previa, menos visible: la disputa por definir qué significa, exactamente, confiar en ella.