Qué aborda el acuerdo
La Ley de Inteligencia Artificial (IA) es una destacada iniciativa legislativa con el potencial de fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en el mercado único de la Unión Europea, tanto por parte de actores privados como públicos. La idea principal es regular la IA en función de su capacidad para causar daño a la sociedad, siguiendo un enfoque “basado en riesgos”: a mayor riesgo, mayores restricciones. Al ser la primera propuesta legislativa de este tipo en el mundo, puede establecer un estándar global para la regulación de la IA en otras jurisdicciones, al igual que lo hizo el Reglamento General de Protección de Datos (GDPR), promoviendo así el enfoque europeo en la regulación tecnológica a nivel mundial.
El acuerdo provisional aborda los siguientes aspectos:
– Definiciones y alcance: Para garantizar que la definición de un sistema de IA proporcione criterios suficientemente claros para distinguir la IA de los sistemas de software más simples, el acuerdo de compromiso alinea la definición con el enfoque propuesto por la OCDE.
El acuerdo provisional también aclara que la regulación no se aplica a áreas fuera del ámbito del derecho de la UE y no debe afectar, en ningún caso, las competencias de los Estados miembros en materia de seguridad nacional o cualquier entidad encargada de tareas en esta área. Además, la Ley de Inteligencia Artificial no se aplicará a sistemas utilizados exclusivamente con fines militares o de defensa. De manera similar, el acuerdo establece que la regulación no se aplicaría a sistemas de IA utilizados únicamente con fines de investigación e innovación o por personas que utilicen la IA por razones no profesionales.
– Clasificación de sistemas de IA como de alto riesgo y prácticas de IA prohibidas: El acuerdo de compromiso establece una capa horizontal de protección, que incluye una clasificación de alto riesgo, para asegurar que los sistemas de IA que no tengan probabilidades de causar violaciones graves de derechos fundamentales u otros riesgos significativos no estén incluidos. Los sistemas de IA que presenten riesgos limitados estarían sujetos a obligaciones de transparencia muy ligeras, como la divulgación de que el contenido fue generado por IA, para que los usuarios puedan tomar decisiones informadas sobre su uso posterior.
Se autorizaría una amplia gama de sistemas de IA de alto riesgo, pero estarían sujetos a un conjunto de requisitos y obligaciones para acceder al mercado de la UE. Estos requisitos se han aclarado y ajustado de manera que sean más técnicamente factibles y menos onerosos para que las partes interesadas cumplan, por ejemplo, en cuanto a la calidad de los datos o en relación con la documentación técnica que deberían elaborar las pequeñas y medianas empresas (PYMES) para demostrar que sus sistemas de IA de alto riesgo cumplen con los requisitos.
Dado que los sistemas de IA se desarrollan y distribuyen a través de complejas cadenas de valor, el acuerdo de compromiso incluye cambios que aclaran la asignación de responsabilidades y roles de los diversos actores en esas cadenas, en particular, proveedores y usuarios de sistemas de IA. También aclara la relación entre las responsabilidades establecidas en la Ley de Inteligencia Artificial y las responsabilidades que ya existen en otras legislaciones, como la relevante legislación de protección de datos de la UE o la legislación sectorial.
Para algunos usos de la IA, el riesgo se considera inaceptable y, por lo tanto, se prohibirán en la UE. El acuerdo provisional prohíbe, por ejemplo, la manipulación cognitivo-conductual, la obtención no dirigida de imágenes faciales de Internet o de grabaciones de circuito cerrado de televisión (CCTV), el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, la puntuación social, la categorización biométrica para inferir datos sensibles, como la orientación sexual o creencias religiosas, y algunos casos de vigilancia predictiva para individuos.
Dadas las particularidades de las autoridades encargadas de hacer cumplir la ley y la necesidad de preservar su capacidad para utilizar la inteligencia artificial (IA) en su labor vital, se acordaron varios cambios con respecto a la propuesta de la Comisión relacionados con el uso de sistemas de IA con fines de aplicación de la ley. Sujetas a salvaguardias adecuadas, estas modificaciones buscan reflejar la necesidad de respetar la confidencialidad de datos operativos sensibles en relación con sus actividades.
Por ejemplo, se introdujo un procedimiento de emergencia que permite a las agencias de aplicación de la ley implementar una herramienta de IA de alto riesgo que no haya pasado por el procedimiento de evaluación de conformidad en caso de urgencia. Sin embargo, también se introdujo un mecanismo específico para garantizar que los derechos fundamentales estén suficientemente protegidos contra posibles mal usos de los sistemas de IA.
Accede a más información responsable en nuestra biblioteca digital de publicaciones Corresponsables.