Etnógrafo digital

¿Regulas o innovas?

02 de Noviembre de 2023
Act. 20 de Noviembre de 2023
Josep Maria Ganyet | VIA Empresa

Demasiado a menudo los apóstoles de la inevitabilidad tecnológica nos presentan de manera falaz estas dos acciones como antagónicas. Su credo dice que EE.UU. está donde está por la libertad a la hora de innovar y la resiliencia de sus emprendedores. Le sigue aquello de que "ahí sí que se valora el fracaso". Dad un paseo por Market Street en San Francisco, por delante de las oficinas de lo que fue Twitter, y veréis decenas de sin techo esperando una valoración que no acaba de llegar. La letanía continúa con "como en Europa no sabemos innovar sólo nos queda regular" o en su defecto "la regulación mata la innovación". Pero como pasa a menudo con las religiones, los hechos les llevan la contraria.

 

La última orden ejecutiva de la Casa Blanca lleva el explícito nombre de Orden ejecutiva sobre el desarrollo y uso seguro y de confianza de la inteligencia artificial que casualmente va sobre el desarrollo y uso seguro y de confianza de la inteligencia artificial. Representa un punto de inflexión en la aproximación de EE.UU. a las políticas relacionadas con las tecnologías emergentes. El miedo de llegar tarde como en el caso de las redes sociales es compartido con la de la vieja Europa. La sola existencia de una orden de tal calibre es el reconocimiento de las profundas implicaciones de la IA. El documento de 100 páginas establece el marco de desarrollo de la IA para que se alinee con la ética, la seguridad, la equidad y la explicabilidad. La orden es exhaustiva y trata el ciclo de vida de la IA desde el diseño hasta el despliegue, insistiendo en la transparencia, la fiabilidad y la adherencia a los valores democráticos.

"El miedo de llegar tarde (por parte de los Estados Unidos) como en el caso de las redes sociales es compartido con la de la vieja Europa"

Para las empresas que trabajan con IA, esto significa un cambio operacional. Se espera que las empresas integren estos principios guía en el ADN de sus sistemas de IA; pruebas más rigurosas, medidas de privacidad mejoradas y una postura proactiva en la mitigación de sesgos. A pesar de que esto podría requerir más recursos, también presenta la oportunidad de establecer estándares globales, fomentando la confianza en soluciones de IA que podrían, a su vez, abrir nuevos mercados e impulsar la innovación de manera segura y ética. Sin embargo la orden no obliga las empresas a hacer públicos datos de sus modelos como son el número de parámetros o los conjuntos de datos de entrenamiento.

 

Para las personas, la orden pretende ser una red de seguridad. Aspira a protegernos de los malos usos de la IA, como las invasiones de privacidad, la discriminación y el impacto negativo en el trabajo. Promete poner barreras que no solo prevengan el daño —recordad el impacto de las redes sociales en los jóvenes— sino que también mejoren la experiencia del usuario promoviendo que la IA que salvaguarde los derechos individuales y no que los erosione, que aumente las capacidades humanas, no que las sustituya.

En el otro extremo del Atlántico, la vieja Europa ya se avanzó en junio con la propuesta de ley europea de la IA, un esfuerzo regulador monumental iniciado en el 2021, previo a la oleada de IA generativa actual, y que tocará actualizar antes no entre en vigor el próximo año. La aproximación europea es más granular y clasifica la IA por sus aplicaciones: riesgo mínimo, riesgo limitado, alto riesgo y riesgo inaceptable. En el primer nivel habría los filtros de correo basura y en el último el uso de marcadores biométricos como el reconocimiento facial. Tanto el uno como el otro son emblemáticos del consenso global (¿hola China?) que la frontera de la IA tiene que ser navegada con cuidado. Quienes criticaron el texto europeo aduciendo que ahogaría la innovación tienen ahora 100 páginas de orden ejecutiva para mordisquear.

"Quienes criticaron el texto europeo aduciendo que ahogaría la innovación tienen ahora 100 páginas de orden ejecutiva para mordisquear"

Estos movimientos reguladores desafían (una vez más) los mitos del Far West desregulado de los EE.UU. y los del Europa como fortaleza de sobreregulación. Tanto los EE.UU. como la UE están obligados a modelar la trayectoria de la IA de una manera que proteja los ciudadanos a la vez que fomente la innovación. Unos y otros demuestran que regulación e innovación no son mutuamente exclusivas; más bien al contrario, son fuerzas complementarias que, cuando se equilibran, propician un avance tecnológico responsable y a la vez beneficioso para la sociedad.

EE.UU. y Europa pueden tomar caminos diferentes pero comparten destino común: una IA ética que empodere la sociedad, proteja los individuos y contribuya a la prosperidad económica de todo el mundo. Esto es un reconocimiento explícito que la era de 'muévete rápido y rompe cosas' sublimada por las redes sociales está cediendo el paso a una fase más reflexiva y socialmente atenta de gobernanza tecnológica. El mito binario de regulación-innovación es cada vez más esto, un mito.

El terreno en el que nos movemos es en realidad un espectro que va desde el control centralizado de la innovación a la desregulación a ultranza. Es en este espectro que tanto EE.UU. como Europa están calibrando su polos reguladores para preservar un bien más preciado que el de la innovación: el del contrato social.