«Al fomentar la innovación y salvaguardar los derechos fundamentales, Europa se posiciona como líder global en la adopción responsable de la inteligencia artificial», concluye Paul Berenguer (Business Innovation Manager) el autor en esta tribuna.

 

La inteligencia artificial (IA) ha evolucionado con rapidez hasta convertirse en una tecnología clave que está transformando el funcionamiento de las industrias y que, con implicaciones económicas y sociales tan evidentes como inciertas en su concreción en el medio y largo plazo, ofrece avances revolucionarios y desafíos significativos. Para afrontar estas complejidades, la Unión Europea (UE) ha adoptado un enfoque visionario con la regulación de IA (AI Act) en un esfuerzo normativo que busca equilibrar la innovación con la protección de los derechos fundamentales de los ciudadanos para garantizar una integración segura y beneficiosa de la misma en nuestra sociedad.

 

El marco regulatorio de la UE, ejemplificado por iniciativas como la Regulación Europea de IA, el Reglamento General de Protección de Datos (o GDPR por sus siglas en inglés) y el Acta de Resiliencia Cibernética, proporciona una hoja de ruta integral para el desarrollo de la inteligencia artificial, priorizando la seguridad, la transparencia y la gobernanza ética. Este enfoque finalista basado en el riesgo trata los sistemas IA como productos, con énfasis en su aplicación y uso comercializable y no en el desarrollo de la tecnología en sí. De esta forma, el reglamento divide según este criterio, en tres categorías distintas a saber: riesgo mínimo, alto e inaceptable, con el objetivo de establecer niveles adecuados de supervisión e intervención.

 

La primera de estas categorías (o IA de riesgo mínimo) se configura en base a unos sistemas que presentan un bajo riesgo para los derechos fundamentales y la seguridad personal y que incluyen aplicaciones que generan contenido audiovisual o imágenes sin un impacto significativo en decisiones críticas. Los ChatBots o asistentes virtuales basados en IA Generativa, como ChatGPT, de OpenAI, o Copilot, de Microsoft, serían algunos ejemplos de uso de este tipo de Inteligencia Artificial dentro de esta categoría.

En segundo lugar tendríamos las aplicaciones de IA de alto riesgo, esto es, sistemas que pueden afectar directamente los derechos y libertades de las personas, y que se aplican en sectores sensibles como la salud (por ejemplo, diagnóstico médico y gestión de pacientes), transporte (vehículos autónomos y sistemas de navegación), infraestructuras críticas (suministro de energía y servicios de agua), banca y seguros (evaluación crediticia y detección de fraude) y gestión de recursos humanos (procesos de selección y evaluación de empleados), entre otros.

Finalmente, los productos de IA de riesgo inaceptable. Se trata de sistemas donde su implementación y comercialización (que no su desarrollo) quedaría prohibida dentro del territorio europeo como consecuencia de su potencial para infringir derechos fundamentales. Algunos ejemplos que podemos destacar aquí incluyen la manipulación subliminal (sistemas que influyen en el comportamiento sin consentimiento), la puntuación social (evaluación de individuos a partir del comportamiento o características personales) y la identificación biométrica en tiempo real en espacios públicos sin justificación legal.

 

Estas regulaciones son una muestra del compromiso de la Unión con una gobernanza proactiva frente a la rápida evolución tecnológica. A medida que las tecnologías de IA se infiltran en aspectos o campos sensibles de la vida diaria, la necesidad de reglas claras, adaptables y aplicables se vuelve cada vez más esencial. En tal sentido, la decisión de la UE de clasificar los riesgos de la IA en función de la gravedad de su impacto potencial sirve como un modelo de práctica regulatoria prudente que otras regiones podrían (o deberían) emular.

Sin embargo, la regulación también plantea desafíos, especialmente en lo que respecta al cumplimiento de leyes existentes como el GDPR. Y es que la insaciable demanda de datos por parte de la IA entra en conflicto con principios jurídicos como la minimización de datos y la transparencia que tienen un carácter específico en el marco regulatorio global europeo.

Aunque esto en principio solo se englobaría dentro del contexto europeo, su aceptación y aplicación están ganando terreno a nivel internacional, siendo adoptados como buenas prácticas en otros marcos normativos y entornos corporativos. La naturaleza de «caja negra» de la IA complica la comprensión de los usuarios sobre cómo se toman las decisiones, una situación que acaba por dificultar que se garanticen la rendición de cuentas y los derechos de los titulares de los datos.

 

Otra consideración a establecer es que la regulación no trata de sofocar la innovación y sí de construir confianza en el uso de esta tecnología. Para las empresas, adaptarse a esta nueva realidad no es solo una cuestión de cumplimiento, sino también una oportunidad para liderar de manera responsable y obtener una ventaja competitiva. Al comprometerse de forma proactiva con una gobernanza responsable de la inteligencia artificial, las organizaciones pueden proyectar sobre clientes y otras partes interesadas su compromiso con prácticas éticas, seguras y transparentes, lo que redunda tanto en la construcción de confianza como en el cumplimiento de las obligaciones legales.

Además, lograr una adopción responsable de la IA requiere colaboración entre todos los sectores: desarrolladores tecnológicos, legisladores y usuarios finales deben trabajar juntos para refinar continuamente estas regulaciones. Dicha cooperación es esencial para garantizar que esta tecnología siga siendo una herramienta beneficiosa para la sociedad, al tiempo que se protegen nuestros derechos y seguridad.

 

En conclusión, el marco regulatorio de la IA de la Unión Europea representa un enfoque equilibrado para gestionar los riesgos y oportunidades que, sin duda, plantea la inteligencia artificial. Al fomentar la innovación y salvaguardar los derechos fundamentales, Europa se posiciona como líder global en la adopción responsable de la IA. La responsabilidad recae en las empresas para adoptar estos cambios, asegurando no solo el cumplimiento, sino también liderando con integridad en un mundo cada vez más impulsado por la IA.

CategoryPublicaciones