La inteligencia artificial ya influye en muchos servicios que utilizamos a diario.
La Ley de Inteligencia Artificial de la Unión Europea (AI Act) es una de las normas más ambiciosas del mundo en materia de regulación tecnológica. Su objetivo es claro: garantizar que los sistemas de inteligencia artificial sean seguros, transparentes y respetuosos con los derechos de las personas, especialmente de las personas consumidoras.
La ley se basa en un enfoque sencillo: cuanto mayor es el riesgo de un sistema de IA, mayores son las obligaciones para quienes lo desarrollan o utilizan. De esta forma, se busca proteger a la ciudadanía sin frenar la innovación.
Sin embargo, en el marco del llamado Ómnibus Digital, se ha planteado la posibilidad de reabrir y modificar el AI Act, algo que ha despertado inquietud tanto en empresas como en organizaciones de consumidores.
¿Qué problemas puede generar reabrir una ley recién aprobada?
Cambiar una normativa tan reciente no es un asunto menor. Entre los principales riesgos destacan:
- Más inseguridad jurídica: muchas empresas ya han invertido tiempo y recursos para adaptarse a la ley. Cambiar las reglas ahora genera incertidumbre.
- Menor protección para las personas consumidoras, especialmente frente a sistemas de IA considerados de alto riesgo, como los que afectan a créditos, empleo o servicios esenciales.
- Competencia desigual: introducir excepciones o regímenes distintos sin una base clara puede favorecer a unos actores frente a otros.
- Pérdida de confianza en la tecnología: si las garantías se debilitan, las personas pueden desconfiar del uso de la IA en productos y servicios.
Todo ello podría debilitar el modelo europeo de gobernanza de la inteligencia artificial, basado en la confianza y la protección de derechos.
Aspectos clave que deberían mantenerse
Para que la regulación siga siendo eficaz y equilibrada, hay ciertos elementos del AI Act que resultan fundamentales:
- Uso limitado de datos sensibles: los datos más delicados solo deberían utilizarse cuando sea estrictamente necesario para evitar discriminaciones o sesgos en los sistemas de IA.
- Registro y documentación de sistemas de alto riesgo: una medida básica para poder supervisar cómo funcionan y detectar posibles problemas.
- Flexibilidad solo para pymes y start-ups europeas: estas ayudas deben servir para apoyar la innovación local, no para crear ventajas injustificadas.
- Formación en inteligencia artificial: tanto quienes desarrollan como quienes usan IA deben entender cómo funciona y qué riesgos implica.
- Autoridades bien coordinadas: una supervisión clara y eficaz es clave para que la ley no se quede solo en el papel.
- Evitar retrasos en la aplicación de la norma: aplazar su entrada en vigor puede reducir su impacto real y dejar vacíos de protección.
Mirando al futuro
La regulación europea de la inteligencia artificial debería reforzar la confianza, ofrecer seguridad jurídica y proteger los derechos fundamentales, no debilitarlos. Cualquier cambio en el AI Act debe hacerse con cautela y con una visión a largo plazo.
Para las empresas que desarrollan o utilizan sistemas de IA, este contexto hace más importante que nunca anticiparse, revisar sus políticas de cumplimiento, la gestión de datos y los riesgos legales, y seguir de cerca la evolución normativa.
La inteligencia artificial puede aportar enormes beneficios, pero solo si se desarrolla y utiliza dentro de un marco claro, estable y centrado en las personas.