| 25 años generando CONFIANZA
La Ley de Inteligencia artificial de la UE es la primera en el mundo en responder a las expectativas y llamadas de atención de la sociedad, de los estados y de las organizaciones para que se regule el uso de un avance tecnológico que ha generado polémicas y discusiones.
Esas inquietudes son razonables por la forma acelerada en que la IA ha irrumpido en el trabajo, la vida familiar, la sociedad y el modo en que interactúan las personas. Se ha generado un ambiente de incertidumbre en el que se discuten temas como privacidad de los datos, protección de los derechos de las personas o transgresión de la propiedad intelectual, sin mencionar las consideraciones éticas.
Ante tal escenario, la Ley de Inteligencia artificial de la UE no solo resulta oportuna, sino que se recibe como un elemento que permitirá calmar las aguas y facilitar la integración de la nueva tecnología en un momento histórico en el que puede resolver muchos problemas, antes que generar nuevos.
Cualquier esfuerzo legislativo o normativo, así como la publicación de estándares de gestión como ISO 42001, contribuyen a ese propósito. Así, resulta procedente conocer algunas particularidades sobre la Ley de Inteligencia artificial de la UE y sus implicaciones.
Qué es la Ley de Inteligencia artificial de la UE
La Ley de Inteligencia artificial de la UE es pionera en su género en el mundo. La nueva legislación busca crear un marco jurídico para tratar problemas como la ética en el uso de la tecnología, el respeto de los derechos de las personas, la igualdad, la inclusión o la privacidad de los datos y de la seguridad de la información, entre otros.
La historia de la Ley de Inteligencia artificial de la UE se inicia en abril de 2021, momento en el que es propuesta por la Comisión Europea por primera vez. Pasarían, sin embargo, un poco más de dos años para que se aprobara, en mayo de 2024. Su entrada en vigor en el territorio europeo tuvo lugar el 1 de agosto de 2024.
Se prevé que las normas regulatorias en cada estado entrarán en vigor en agosto de 2026. Dada la urgencia que plantean ciertos temas, algunas disposiciones se adelantarán: las de sistemas de IA que suponen riesgo inaceptable lo harán a principios de 2025 y normas sobre desarrollos de IA de propósito general, en agosto de ese mismo año.
Sin embargo, y pese a existir un cronograma de entrada en vigor, la Comisión considera que los desarrolladores de sistemas de IA pueden iniciar un plan de cumplimiento voluntario desde ahora.
Por qué se publica una Ley de Inteligencia artificial de la UE
La Unión Europea reconoce riesgos en el uso y desarrollo de Sistemas de Inteligencia Artificial. Por eso asume el liderazgo y publica la primera ley para regular las actividades relacionadas con la IA en el mundo. El propósito es promover el uso responsable y ético de la IA para que la sociedad pueda aprovechar sus beneficios, pero controlando los riesgos.
Es importante enfatizar el carácter propositivo de la ley. El objetivo no es prohibir, sino aprovechar el potencial que tiene la tecnología para mejorar la vida de muchas personas y comunidades alrededor del mundo, dentro de un marco legal de seguridad, transparencia y ética.
La Ley de Inteligencia artificial de la UE busca proteger los derechos esenciales de las personas, sin limitar el potencial de innovación que ofrece la tecnología. Pero también busca dotar de herramientas jurídicas a los estados para equilibrar la balanza y ubicar a las personas en el mismo nivel en el que se encuentra la IA.
Cuál es el enfoque de riesgos en la primera Ley de Inteligencia artificial de la UE
Para la Ley de Inteligencia artificial de la UE los riesgos que representan los Sistemas de Inteligencia Artificial se clasifican en cuatro categorías, de acuerdo con su potencial impacto negativo. La severidad de las normas depende de la categorización: mayor riesgo, regulación más estricta. Las cuatro categorías son las siguientes:
1. Riesgo mínimo
En este nivel de riesgo se clasifican sistemas utilizados en videojuegos o aplicaciones para identificar y restringir llamadas o correos de spam. Para este tipo de sistemas, las obligaciones son mínimas, aunque sí necesitan cumplir con la legislación general.
2. Riesgo limitado
Chatbots o asistentes de voz son dos ejemplos típicos en esta categoría. La ley solicita transparencia, es decir, informar a los usuarios que interactúan con un sistema de IA y no con una persona.
3. Riesgo alto
En este segmento aparecen los sistemas utilizados en áreas críticas, como atención sanitaria, farmacéutico, poder judicial, transporte, etc. Los sistemas de esta categoría deben ser evaluados, sometidos a pruebas estrictas y deben estar sujetos a procesos de gestión de riesgos transparentes y auditables.
4. Riesgo inaceptable
Al final del espectro aparecen los sistemas que no serán admitidos bajo ninguna condición porque representan riesgos para la seguridad de las personas o para los derechos fundamentales. Algunos ejemplos son los sistemas que incorporan técnicas subliminales para predecir comportamientos, hacer reconocimiento facial o acumular y procesar datos y registros que permitan crear un perfil político, religioso o de preferencias sexuales de las personas, con o sin su autorización.
Qué otras restricciones se plantean en la Ley de Inteligencia artificial de la UE
La ley pionera en regulación de Inteligencia Artificial impone restricciones para casos especiales, con el fin de garantizar el uso responsable de tecnologías de IA. Dos de ellos son los siguientes:
- Sistemas de IA generativa: son las aplicaciones que tienen capacidad para generar texto, voz, vídeo u otro tipo de contenido basado en material análogo que cuenta con derechos de autor. La ley prevé que estos sistemas no usen este tipo de material durante su entrenamiento.
- Algoritmos de recomendación: la ley recomienda supervisión cercana para estos algoritmos, que califica de alto riesgo y que son de uso constante en redes sociales.
Cuáles son las novedades en cuanto a los modelos de propósito general
Los modelos de propósito o de uso general son los que en gran parte generan las inquietudes y temores en las personas. Estos modelos tienen la capacidad para imitar el comportamiento de la inteligencia humana, identificar patrones y, con base en ello, tomar decisiones y hacer predicciones.
Por supuesto, la Ley de Inteligencia artificial de la UE también se ocupa de ellos y les asigna requisitos particulares:
- Transparencia y divulgación: las organizaciones que desarrollan modelos de propósito general suministrarán información completa sobre la real capacidad de la aplicación y sus limitaciones. Esta información debe trasladarse a los usuarios.
- Gestión de riesgos: el requisito es establecer protocolos integrales de uso basados en gestión de riesgos. Las evaluaciones deben ser periódicas y se deben implementar actualizaciones para tratar nuevas amenazas.
- Uso ético de los datos: la ley hace especial énfasis en el uso de datos para entrenamiento. Los datos necesitan aprobación del propietario del contenido, cumplir con las normas de protección de datos y preservar la privacidad del usuario.
Sanciones previstas en la Ley de Inteligencia artificial de la UE
La ley establece un rango de sanciones que van desde los 7,5 hasta los 35 millones de euros y del 1,5 % al 7 % de la facturación global. El criterio es la gravedad y la naturaleza de la infracción, aunque también se considera el tamaño de la organización.
Las sanciones superan las establecidas por el Reglamento General de Protección de Datos (RGPD), que se pueden aplicar de forma simultánea en caso de infracciones que afecten las dos regulaciones.
Cómo se alinea la Ley de Inteligencia Artificial de la UE con ISO 42001
La alineación es natural. La implementación de ISO 42001 lleva a la organización cumplir con la ley, pero también hacer un uso responsable, ético, respetuoso y transparente de la tecnología.
Uno de los beneficios de obtener la certificación ISO/IEC 42001 es obtener un marco para que las organizaciones implementen, mantengan y mejoren un Sistema de Gestión de Inteligencia Artificial. Por supuesto, los objetivos tanto de la ley, como del estándar son comunes y complementarios.
Software ISO 42001
El Software ISO 42001 es ejemplo de los beneficios que puede aportar la Inteligencia Artificial cuando se hace uso responsable de ella. La plataforma se ha desarrollado con criterios de IA e incorpora funcionalidades basadas en esta tecnología. Las organizaciones encuentran en este software una herramienta para implementar y mantener con eficacia y seguridad sistemas de gestión IA.
Por supuesto, es una herramienta útil para alcanzar objetivos y garantizar la transparencia y el cumplimiento de las normas y leyes, incluyendo la primera Ley de Inteligencia artificial de la UE. Para obtener información adicional, solo tienes que contactar aquí con nuestros asesores.
¿Desea saber más?
Entradas relacionadas
La norma ISO 17025 es una de las más importantes en el ámbito de los laboratorios de ensayo y calibración. Proporciona un marco...
Los indicadores para la norma ISO 9001 son señales confiables que permiten suponer, antes de una auditoría interna…