La digitalización ya no es una opción para las empresas catalanas, sino una condición para competir en un mercado globalizado. Ahora bien, si bien la tecnología se presenta como un aliado estratégico para el crecimiento, también abre la puerta a nuevos riesgos. En este escenario, la ciberseguridad y la inteligencia artificial (IA) no son solo herramientas de innovación, sino que, a pesar de su potencial positivo, en muchas ocasiones, se pueden volver un verdadero foco de vulnerabilidad. Y es aquí donde el derecho no actúa como freno, sino como escudo. El cumplimiento legal no es un trámite: es una herramienta de protección y un verdadero activo empresarial.
En Catalunya, muchas empresas —especialmente pequeñas y medianas— avanzan hacia la transformación digital con determinación, pero a menudo lo hacen sin una estrategia jurídica bien definida. Este vacío puede salir caro. Un incidente cibernético no solo puede paralizar la actividad económica, sino exponer datos sensibles, vulnerar normativas y derivar en sanciones o responsabilidades civiles. En este contexto, el marco legal es claro: el Reglamento General de Protección de Datos (RGPD) y la Ley orgánica española (LOPDGDD) exigen garantizar la seguridad de los datos personales, notificar cualquier brecha y demostrar proactividad en la gestión del riesgo.
Además, la Ley de servicios de la sociedad de la información (LSSI) impone obligaciones específicas a los prestadores de servicios digitales, mientras que la reciente transposición de la Directiva NIS2 refuerza los requisitos de seguridad para sectores críticos y proveedores TIC.
"Un incidente cibernético no solo puede paralizar la actividad económica, sino exponer datos sensibles, vulnerar normativas y derivar en sanciones o responsabilidades civiles"
En definitiva, la responsabilidad legal ya no es una posibilidad remota: es una realidad que puede recaer sobre la empresa en caso de negligencia. La seguridad jurídica es tan imprescindible como la seguridad tecnológica.
Paralelamente, la irrupción de la inteligencia artificial dentro de las estructuras empresariales plantea un nuevo escenario normativo. Las empresas ya hacen uso de sistemas de recomendación, herramientas de análisis predictivo o aplicaciones de gestión automatizada, a menudo sin ser plenamente conscientes de su naturaleza legal. Pero cuando hablamos de derechos, responsabilidades e impacto social, no podemos hablar de “herramientas”: hablamos de sistemas de IA, y esto requiere rigor jurídico.
El AI Act de la Unión Europea —la nueva Ley de inteligencia artificial— establece un marco legal exigente para los sistemas clasificados como de alto riesgo, como por ejemplo los que operan en ámbitos de recursos humanos, finanzas o salud.
Este marco obliga a las empresas a realizar evaluaciones de impacto antes de ponerlos en marcha, a garantizar una supervisión humana efectiva y a aportar transparencia sobre el funcionamiento de los algoritmos. Cuando una IA toma decisiones automatizadas con efectos legales o significativos, la empresa debe garantizar el derecho a la intervención humana y a una explicación comprensible del proceso. Además, hay que seguir cumpliendo el RGPD, especialmente cuando se trabaja con datos personales.
"Cuando una IA toma decisiones automatizadas con efectos legales o significativos, la empresa debe garantizar el derecho a la intervención humana y a una explicación comprensible del proceso"
Aquí la responsabilidad ya no es una figura abstracta. Si un algoritmo causa un perjuicio, la responsabilidad puede recaer sobre el fabricante, sobre la empresa que lo utiliza o, incluso, sobre terceros. Por eso es esencial revisar contratos, establecer políticas internas claras y formar equipos interdisciplinarios capaces de interpretar tanto los riesgos como las obligaciones legales asociadas.
Esta transformación también llega al derecho societario. La digitalización está cambiando la forma en que nacen y operan las sociedades. El Real decreto ley 5/2023 abre la puerta a la constitución digital de empresas y a la celebración de juntas totalmente telemáticas. La firma electrónica ya es plenamente válida para formalizar acuerdos sociales y contractuales, pero esto no elimina la necesidad de una revisión jurídica cuidadosa. Hay que adaptar los estatutos sociales para hacer posible la gestión digital, establecer protocolos de gobierno interno que garanticen la transparencia y la validez de los acuerdos, y reforzar las políticas de protección de datos y de seguridad vinculadas a las herramientas digitales que se utilizan.
La promesa es clara: más agilidad, menos costes, mayor flexibilidad. Pero también hay que anticipar riesgos como el fraude documental o la manipulación de procesos societarios. La transformación digital no puede ser una huida hacia adelante: debe ser un paso firme y seguro.
En definitiva, invertir en tecnología sin tener en cuenta sus riesgos legales es una temeridad. El derecho digital no debe ser visto como una respuesta reactiva, sino como un elemento estructural dentro de la estrategia empresarial. Es lo que permite innovar sin miedo, crecer con criterio y proteger lo que realmente importa.
La ciberseguridad y la inteligencia artificial son desafíos técnicos, sí. Pero también —y sobre todo— jurídicos. Y solo aquellas empresas que integren esta dimensión podrán avanzar de forma responsable, sostenible y competitiva.