Nueva ley sobre inteligencia artificial en Galicia: qué regula y a quién afecta

El 2 de abril de 2025, el Parlamento de Galicia aprobó la Ley 2/2025 para el desarrollo e impulso de la inteligencia artificial, un marco normativo que refuerza el compromiso de la comunidad con una tecnología clave para el futuro, poniendo el foco en la seguridad, la ética, la transparencia y los derechos de la ciudadanía.

Esta ley representa un paso importante para garantizar que la inteligencia artificial (IA) se aplique en Galicia de forma responsable, especialmente en el sector público, donde las decisiones automatizadas pueden tener un impacto directo en la vida de las personas.

¿Por qué una ley sobre inteligencia artificial?

La inteligencia artificial está cada vez más presente en nuestra sociedad: desde los servicios digitales que usamos a diario hasta procesos administrativos, sanitarios o educativos. Ante este avance, es esencial contar con un marco legal que asegure el uso justo, transparente y seguro de estas tecnologías, y que al mismo tiempo impulse su desarrollo en beneficio de toda la sociedad.

¿Qué regula esta ley?

La norma establece cómo deben diseñarse, adquirirse, utilizarse y supervisarse los sistemas de inteligencia artificial en Galicia. Entre los aspectos más relevantes destacan:

  • Principios rectores: como la trazabilidad, explicabilidad, ausencia de sesgos, seguridad, privacidad, accesibilidad y supervisión humana. Por ejemplo un sistema de IA que evalúa solicitudes de ayudas al alquiler debe ser explicable (se puede entender por qué da una ayuda o no), trazable (quedan registradas sus decisiones), seguro (no se puede hackear fácilmente), sin sesgos (no discrimina por edad o nacionalidad), respetar la privacidad (no usa más datos de los necesarios), accesible (funciona para personas con discapacidad) y supervisado por humanos (una persona puede revisarlo).
  • Derechos de la ciudadanía: como conocer cuándo una IA interviene en una decisión administrativa, solicitar revisión humana o presentar quejas sobre su funcionamiento. Por ejemplo si alguien solicita una beca y se la deniegan porque un sistema de IA lo evaluó, tiene derecho a saber que fue una decisión automatizada, puede pedir que una persona revise el caso y, si no está de acuerdo, presentar una queja sobre cómo funciona ese sistema.
  • Evaluaciones de impacto: para anticipar posibles riesgos desde el punto de vista social, económico, ambiental o de derechos fundamentales. Por ejemplo antes de implantar un sistema de IA para predecir el abandono escolar, la Xunta debe realizar una evaluación de impacto para ver si podría generar discriminación (por ejemplo, estigmatizar a ciertos alumnos/as), daños psicológicos, o errores sistemáticos en barrios con menos recursos.
  • Responsabilidad institucional: la administración asume la responsabilidad ante posibles daños derivados del uso de sistemas automatizados. Por ejemplo si una IA mal configurada asigna erróneamente una sanción económica, la administración asume la responsabilidad de ese error, no el ciudadano ni la empresa que diseñó el sistema.

¿A quién va dirigida?

La ley se aplica principalmente a:

  • La Administración general de la Comunidad Autónoma de Galicia y su sector público.
  • Empresas y proveedores tecnológicos que colaboren con la administración.
  • Ciudadanía, en su relación con los servicios públicos basados en inteligencia artificial.

Quedan fuera de su aplicación aquellos sistemas de IA en fase de pruebas, desarrollado únicamente con fines de investigación y sin uso operativo real.

¿Qué implica para organizaciones que colaboran con la Xunta?

Por ejemplo, si una organización recibe ayudas públicas de la Xunta para un proyecto que emplea IA, o desarrolla una herramienta basada en esta tecnología que se integra en servicios públicos (educación, bienestar social, etc.), debe cumplir con los principios y obligaciones que establece la ley, como:

  • Realizar una evaluación de impacto si el sistema puede afectar derechos fundamentales.

  • Garantizar transparencia, explicabilidad y ausencia de sesgos.

  • Asegurar la supervisión humana sobre las decisiones automatizadas.

  • Permitir que las personas puedan ejercer sus derechos frente al sistema.

¿Y si solo se usa IA de forma interna?

Si no existe ningún vínculo con la administración (ni contratos, ni subvenciones, ni servicios prestados), la ley no se aplica directamente. Por ejemplo, una organización que utiliza ChatGPT u otras herramientas de IA únicamente como apoyo interno (y no como parte de los servicios que ofrece al público), no está generando decisiones automatizadas sobre terceros ni desarrollando un sistema de IA que la Xunta use.

Aun así, se recomienda seguir algunas buenas prácticas para garantizar un uso responsable:

  • Transparencia: si los resultados generados con IA se incorporan en materiales o comunicaciones, se debería indicar de forma clara que han sido elaborados con ayuda de herramientas automatizadas.

  • Supervisión humana: todo lo que salga de una IA, debe ser revisado antes de usarlo externamente.

  • Privacidad: nunca se deben introducir datos personales en ChatGPT ni en otras IAs externas.

  • Documentación básica: dejar constancia (en procedimientos internos) de cómo usáis estas herramientas.

Un modelo gallego para el impulso responsable de la IA

Más allá de regular el uso de la IA, la ley gallega incorpora una visión estratégica que promueve su desarrollo local. Entre las principales medidas destacan:

  • La consolidación de la Estrategia Gallega de Inteligencia Artificial 2030, con una inversión de más de 330 millones de euros públicos de la Xunta de Galicia en el periodo 2021-2030, que se contempla que generará un impacto en la creación de riqueza de unos 472 millones de euros.
  • La creación de una Oficina de Inteligencia Artificial que coordinará proyectos e impulsará buenas prácticas.
  • Nuevos roles dentro de la administración (funcionales y tecnológicos) para gestionar los proyectos con visión interdisciplinar.
  • Un repositorio de sistemas de IA para compartir y reutilizar soluciones entre administraciones.
  • La promoción de factorías de IA asociadas al Centro de Supercomputación de Galicia, como espacios de desarrollo, validación y formación técnica.
  • El fomento del uso del gallego en los sistemas de IA y la capacitación digital tanto en el sector público como en el conjunto de la ciudadanía.

Una ley con vocación de futuro

La Ley 2/2025 establece un marco claro para integrar la inteligencia artificial en el ámbito público gallego, con el objetivo de que su uso sea beneficioso, seguro y respetuoso con los derechos de las personas. Al mismo tiempo, refuerza la apuesta de Galicia por un modelo de innovación tecnológica que combina desarrollo económico, formación, ética y sostenibilidad.

Desde nuestra organización, valoramos positivamente que este tipo de iniciativas busquen equilibrar el impulso tecnológico con una protección activa de la ciudadanía, y esperamos que este marco sirva de referencia para otras regiones y sectores.

Fuente noticia: xunta.gal
Fuente imagen: freepik.com