La Ley de IA clasifica entre diferentes riesgos, pero tendrá que pasar por el Parlamento Europeo antes de ejecutarse
A principios de mes se dio a luz a un acuerdo político que sirva de punto de partida para una Ley de Inteligencia Artificial (IA). Este lo han firmado los diferentes países miembros, con salvedades, multas, niveles de riesgo y unos plazos de ejecución que ha costado meses pactar, un tiempo en el que la propia IA ha avanzado con una gran velocidad.
Precisamente, el asunto de los plazos es de lo que más llama la atención en el texto que ha presentado la Comisión Europea. No es un texto definitivo y eso es lo que retrasará la aplicación y ejecución de la ley. Según aparece en el anuncio de la Comisión, «el acuerdo político está ahora sujeto a la aprobación formal del Parlamento Europeo y del Consejo y entrará en vigor a los veinte días de su publicación en el Diario Oficial».
Pero que entre en vigor no significa que se aplique, pues el propósito es que, cuando lo haga, «pasaría a ser aplicable dos años después». No obstante, se especifica que algunas disposiciones específicas empezarían a aplicarse antes. Las prohibiciones que se desarrollarán a continuación se aplicarán seis meses después de la entrada en vigor, «mientras que las normas sobre la inteligencia artificial de finalidad general se aplicarán transcurridos doce meses».
Para evitar que pase el tiempo y que puedan producirse abusos antes de la entrada en vigor, la Comisión prevé poner en marcha un «Pacto sobre la inteligencia artificial» en el que los desarrolladores se comprometerán «voluntariamente» a cumplir la Ley. Las cuestiones más importantes a tener en cuenta son las siguientes, y van desde diferentes niveles de riesgo a distintos tipos de multas según la infracción y el tamaño de empresa.
El riesgo es el aspecto sobre el que gira la ley. Cada categoría comporta un riesgo y alrededor de eso se escribirá la ley.
- Riesgo mínimo: la mayoría de los sistemas de inteligencia artificial entra en esta categoría, ya que incluye sistemas de recomendación y filtros de correo no deseado que utilizan Inteligencia Artificial, entre otros. En este nivel no se exige ninguna obligación, si bien las empresas pueden suscribir códigos de conducta voluntariamente. Se entiende que las herramientas de este nivel presentan «un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos».
- Alto riesgo: en esta categoría se encuadran los sistemas relacionados con infraestructuras críticas, entre los que la Comisión menciona el agua, el gas, la electricidad, productos sanitarios, sistemas relacionados con la policía, el control fronterizo y los procesos democráticos. En este caso, se exigirán requisitos estrictos que van desde protocolos de mitigación de riesgos, registros de actividad, supervisión humana y transparencia de información de cara a los ciudadanos.
- Riesgo inadmisible: «Se prohibirán los sistemas de inteligencia artificial que se consideren una clara amenaza para los derechos fundamentales de las personas». En este punto, Bruselas deja poco lugar a dudas y enumera varios tipos de herramientas que estarían prohibidas: «Sistemas o aplicaciones de inteligencia artificial que manipulen el comportamiento humano para eludir la voluntad de los usuarios, por ejemplo, juguetes que utilicen asistencia vocal para incitar a comportamientos peligrosos a los menores y sistemas que permitan la «puntuación social» por parte de Gobiernos o empresas, así como determinadas aplicaciones de actuación policial predictiva». Otro de los puntos que cita el escrito son «algunos usos de sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones en el lugar de trabajo, algunos sistemas para clasificar a las personas o la identificación biométrica remota en tiempo real con fines policiales en lugares públicos (con excepciones limitadas)».
- Riesgo específico de transparencia: dentro de este nivel se hace una referencia a la información. Por ejemplo, las empresas que desarrollen robotos conversacionales deben dejar claro al usuario que está interactuando con una máquina. También se debe informar al público si se está utilizando algún sistema de categorización biométrica o de reconocimiento de emociones. Lo mismo sucede con los contenidos de audio vídeo, texto e imágenes, que tendrán que ser marcados como tales en formato legible, de modo que no haya lugar a dudas para el usuario.
Multas
Conforme existen niveles de riesgo, también los hay para las multas.
- Presentar información incorrecta estará castigado con 7,5 millones de euros o el 1,5% de la facturación.
- Incumplir algunas obligaciones puede suponer una multa de 15 millones de euros o el 3% de la facturación.
- Si se infringen normas relacionadas con aplicaciones de inteligencia artificial prohibidas, la multa ascendería a 35 millones de euros o el 7% de los ingresos.
- En el caso de pymes y empresas emergentes, se prevé establecer topes más proporcionados.