La futura Ley de Inteligencia Artificial de la Unión Europea prohibirá el uso de sistemas de identificación biométrica remota. El Parlamento Europeo adoptó, el 14 de junio, su posición negociadora sobre dicha norma con un listado de restricciones y limitaciones a la utilización de esta tecnología con fines de seguridad o investigación policial. No en vano, los europarlamentarios han endurecido la propuesta inicial de la Comisión Europea para limitar la aplicación de soluciones de este tipo.
La posición negociadora sobre la Ley de Inteligencia Artificial salió adelante por 499 votos a favor, 28 en contra y 93 abstenciones. La resolución servirá de base para las conversaciones con los Estados miembros que alumbre un texto definitivo. Dicha norma deberá garantizar que la inteligencia artificial desarrollada y utilizada en Europa «se ajuste plenamente» a los derechos y valores comunitarios «respetando requisitos como la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación o el bienestar social y medioambiental».
Las normas aprobadas por la Eurocámara están enfocadas a prevenir riesgos y establecen obligaciones para los proveedores y usuarios de herramientas de inteligencia artificial en función del nivel de riesgo que puedan suponer. Algunas de ellas quedarían totalmente prohibidas por representar un «nivel inaceptable para la seguridad de las personas», como pueden ser los sistemas que clasifican a partir de sus comportamientos o características personales.
Prohibiciones de la Ley de Inteligencia Artificial
La norma veta de esta manera el uso de sistemas de identificación biométrica remota en espacios públicos, ya sea en tiempo real o para su visualización a posteriori. Establece una única excepción es este caso para su uso policial en investigaciones por delitos graves y siembre bajo autorización judicial.
Asimismo, la Ley de Inteligencia Artificial de la Unión Europea prohibirá los sistemas de categorización biométrica que utilicen ciertas características de la identidad de las personas, como, por ejemplo, el género, la raza, la etnia, el estatus de ciudadanía, la religión o la orientación política.
Por otro lado, la norma limitará el uso de determinadas tecnologías con fines policiales, como es el caso de los sistemas predictivos basados en la elaboración de perfiles, la ubicación o el historial delictivo. Tampoco permitirá el empleo del reconocimiento de emociones en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza.
Las Fuerzas y Cuerpos de Seguridad tampoco podrán utilizar sistemas de inteligencia artificial para el rastreo indiscriminado de imágenes faciales obtenidas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial. Para la Eurocámara, esta práctica vulnera los derechos humanos y el derecho a la intimidad.
Evaluación de riesgos y registro de modelos
Otra de las condiciones que establece la posición negociadora del Parlamento Europeo para los proveedores de modelos fundacionales de inteligencia artificial es que tendrán que evaluar y mitigar los posibles riesgos de sus desarrollos (para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho) y registrar sus modelos en la base de datos de la Unión Europea antes de comercializarlos en el espacio común.
Asimismo, los sistemas de inteligencia artificial generativa basados en esos modelos, como ChatGPT, tendrán que cumplir unos requisitos adicionales de transparencia y estar diseñados de manera que no puedan generar contenido ilegal. Además, deberán publicarse resúmenes detallados de los datos protegidos por derechos de autor que han sido utilizados para su desarrollo.
Archivado en: