La reciente escalada de tensión entre Estados Unidos, Israel e Irán ha vuelto a situar la tecnología en el centro de los conflictos contemporáneos, en un momento en que el uso de inteligencia artificial en operaciones militares se está acelerando a nivel global. Pero esta vez hay un cambio relevante: la inteligencia artificial ya no solo asiste, empieza a influir directamente en decisiones críticas.
Según el Congressional Research Service, la inversión global en inteligencia artificial militar superó los 20.000 millones de dólares en 2024, y la OTAN estima que estos sistemas pueden reducir hasta en un 70% el tiempo necesario para identificar un objetivo en operaciones complejas. En los conflictos recientes en Oriente Medio, esta velocidad se ha convertido en un factor estratégico clave.
La diferencia es sutil, pero trascendental: ya no solo analizan la realidad, sino que la interpretan y la priorizan
Programas como Project Maven o plataformas de análisis avanzadas, como las desarrolladas por Palantir Technologies, integran datos de satélites, drones y sensores para generar recomendaciones operativas en tiempo real. La diferencia es sutil, pero trascendental: ya no solo analizan la realidad, sino que la interpretan y la priorizan.
Cuando la velocidad desplaza el criterio
La automatización de la llamada kill chain, la cadena de decisión que va desde la identificación hasta la acción, se ha acelerado de forma significativa. La inteligencia artificial permite procesar grandes volúmenes de información en segundos y detectar patrones imposibles para el análisis humano. Pero el cambio clave no es la velocidad: es el desplazamiento del criterio. El problema no es que la inteligencia artificial decida mal, sino que dejamos de cuestionar sus decisiones.
En teoría, siempre hay supervisión humana. En la práctica, en entornos de presión y urgencia, esa validación se convierte en un trámite. Cuando un sistema presenta una recomendación como la opción más eficiente, cuestionarla exige tiempo. Y tiempo es precisamente lo que no hay.
En teoría, siempre hay supervisión humana. En la práctica, en entornos de presión y urgencia, esa validación se convierte en un trámite
A esto se suma un factor crítico: la apariencia de objetividad. Los algoritmos trabajan con datos, pero esos datos no son neutros. Aun así, cuanto más sofisticado es el sistema, mayor es la tendencia a confiar en él.
Catalunya: cuando la IA ya decide en la práctica
Según el AI Index 2024 de la Universidad de Stanford, la adopción empresarial de la inteligencia artificial continúa acelerándose a escala global. En Europa, estudios como el McKinsey Global Survey on AI 2023 y los datos de Eurostat (ICT Usage in Enterprises 2023) sitúan el uso de sistemas de IA en más del 60% de las grandes empresas. En Catalunya, informes de Acció indican que el 28% de las pymes ya ha incorporado soluciones de IA en ámbitos como la logística, las ventas o los recursos humanos.
Un ejemplo claro es el Port de Barcelona. En su operativa diaria ya se utilizan sistemas de inteligencia artificial para optimizar rutas, priorizar cargas y anticipar congestiones. Según datos del propio Port, la digitalización ha reducido en un 25% los tiempos de espera y ha mejorado en un 15% la eficiencia operativa.
Formalmente, la decisión final sigue siendo humana. En la práctica, los algoritmos determinan qué operación es prioritaria. En un entorno donde cada minuto tiene impacto económico, cuestionar la recomendación del sistema implica costes y fricción. La supervisión existe, pero el criterio ya no está plenamente en manos humanas.
En un entorno donde cada minuto tiene impacto económico, cuestionar la recomendación del sistema implica costes y fricción
Diversos informes de organismos internacionales y análisis independientes han alertado sobre los riesgos de sistemas de priorización automatizada en contextos reales, especialmente cuando operan con datos incompletos o sesgados. Más allá del caso concreto, lo relevante es el patrón: cuando un algoritmo identifica, prioriza y recomienda, la validación humana puede convertirse en automática.
Y cuando esa validación se produce en segundos, cuestionar deja de ser una opción real.
De la guerra a la empresa: el mismo patrón
Este contexto no es aislado, sino un anticipo de un cambio más amplio en cómo se toman decisiones tanto en el ámbito militar como empresarial.
En el mundo empresarial, la lógica es la misma. Sistemas de pricing, logística o análisis de riesgo ya integran datos y generan recomendaciones que orientan decisiones. Un estudio de McKinsey advierte que las empresas que adoptan inteligencia artificial decisoria sin mecanismos de control pueden incrementar su riesgo operativo hasta un 30%.
La pregunta es incómoda: ¿estamos utilizando la inteligencia artificial para decidir mejor o para decidir menos?
La regulación entra en escena
El AI Act, aprobado en 2024 en la Unión Europea, obligará a las empresas que utilicen sistemas de alto riesgo, incluidos aquellos que influyen en decisiones operativas, logísticas o de recursos humanos, a documentar cómo funcionan sus algoritmos, garantizar supervisión humana efectiva y demostrar que no generan sesgos sistemáticos.
Para muchas organizaciones, esto no será solo un requisito legal, sino un cambio de paradigma: pasar de adoptar inteligencia artificial por eficiencia a gobernarla con criterios de transparencia y responsabilidad.
La verdadera cuestión
La inteligencia artificial no tiene valores; tiene capacidad. La ética, en cambio, sigue siendo humana. Para las empresas catalanas, el reto no es solo incorporar inteligencia artificial, sino gobernarla. Porque cada vez que dejamos de cuestionar lo que una máquina sugiere, no solo ganamos eficiencia: también cedemos criterio.
Cada vez que dejamos de cuestionar lo que una máquina sugiere, no solo ganamos eficiencia: también cedemos criterio
Y en ese desplazamiento silencioso no solo cambia cómo decidimos. Cambia quién decide… y por qué dejamos de preguntarlo.