¿Cuáles son los principales objetivos de la nueva ley europea de inteligencia artificial y qué áreas específicas abarca?
La nueva ley europea de IA tiene como objetivo garantizar que los sistemas de IA se desarrollen y utilicen de forma segura, ética y responsable asegurando el cumplimiento de los derechos fundamentales de los ciudadanos de la Unión Europea y regulando la innovación en IA. La ley establece una serie de requisitos para los sistemas de IA, en función de su nivel de riesgo y establece un marco para la supervisión y la aplicación de la ley.
Los principales objetivos de la nueva ley son los siguientes:
- Garantizar la seguridad de los sistemas de IA: La ley establece una serie de requisitos de seguridad para los sistemas de IA, como la necesidad de que sean robustos, fiables y resistentes a los ataques.
- Proteger los derechos fundamentales: La ley prohíbe el uso de sistemas de IA para discriminar o vulnerar los derechos fundamentales, como la privacidad, la libertad de expresión o la no discriminación.
- Promover la responsabilidad y la transparencia: La ley establece una serie de requisitos de transparencia para los sistemas de IA, como la necesidad de que los usuarios sean informados sobre cómo funcionan estos sistemas y cómo utilizan sus datos.
¿Existen aspectos particulares de la legislación que puedan tener un impacto significativo en el desarrollo de la IA en España? ¿Y en Europa?
La ley establece un enfoque basado en el riesgo, lo que significa que los sistemas de IA que representan un mayor riesgo para la seguridad o los derechos fundamentales están sujetos a requisitos más estrictos. Esto puede ayudar a garantizar que los sistemas de IA de mayor riesgo se desarrollen y utilicen de forma segura y ética.
Además, establece una serie de requisitos de transparencia para los sistemas de IA, como la necesidad de que los usuarios/as sean informados sobre cómo funcionan estos sistemas y cómo utilizan sus datos. Esto puede ayudar a aumentar la confianza de los ciudadanos en los sistemas de IA.
La ley puede ayudar a crear un entorno más favorable para el desarrollo de la IA, al proporcionar a las empresas y a los investigadores un marco claro para el desarrollo y la utilización de la IA y también puede ayudar a aumentar la confianza de los ciudadanos en la IA.
¿Cuáles son los mecanismos de regulación y cumplimiento establecidos por la ley para garantizar la ética y la seguridad en el uso de la IA?
Se establece una Junta Europea de Inteligencia Artificial a nivel de la UE, compuesta por representantes de los Estados miembros y la Comisión, para supervisar la aplicación de la regulación a nivel europeo.
Además, la ley requiere que los Estados miembros designen una o más autoridades competentes, incluida una autoridad de supervisión nacional, para supervisar la aplicación y la implementación de la regulación. Las autoridades nacionales de vigilancia del mercado serán responsables de evaluar el cumplimiento de los operadores con las obligaciones y requisitos para los sistemas de IA de alto riesgo, con acceso a información confidencial, incluido el código fuente de los sistemas de IA.
En caso de incumplimiento persistente, los Estados miembros tendrán que tomar todas las medidas apropiadas para restringir, prohibir, recuperar o retirar del mercado el sistema de IA de alto riesgo en cuestión. Como sanciones por incumplimiento de la ley de IA se establecen multas administrativas de diversa cuantía (hasta 30 millones de euros o el 6 % del volumen de negocios total anual a nivel mundial), en función de la gravedad de la infracción.
¿Cómo se espera que la nueva legislación fomente o restrinja la innovación y el desarrollo de la inteligencia artificial en España y en la región europea?
La ley puede fomentar la innovación y el desarrollo de la IA de varias maneras. En primer lugar, la ley establece un marco claro para el desarrollo y la utilización de la IA. Esto puede ayudar a las empresas y a los investigadores a comprender las reglas y regulaciones que rigen la IA, lo que puede facilitar la innovación y el desarrollo.
En segundo lugar, la ley establece una serie de requisitos de transparencia y responsabilidad. Estos requisitos pueden ayudar a aumentar la confianza de los ciudadanos en la IA, lo que puede crear un entorno más favorable para la innovación y el desarrollo.
En tercer lugar, la ley establece un marco para la cooperación entre las empresas, los investigadores y los reguladores. Esto puede ayudar a las partes interesadas a trabajar juntas para desarrollar e implementar la IA de forma segura y ética.
¿Cómo puede afectar la regulación a la competitividad de las empresas españolas en comparación con otras regiones?
Aquellos desarrollos en IA que no quieran ajustarse a la normativa europea tendrán que implementarse en otros territorios. El debate puede estar en si Europea quedará a la cola de la innovación o no, en mi opinión, esta legislación es un paso adelante para que la innovación sea equitativa y no vulnere derechos fundamentales, lo deseable es que el resto de territorios se sumen a esta línea reguladora que intenta buscar el equilibrio entre la protección a las personas y la promoción del desarrollo tecnológico.
¿Cómo se proyecta que la inteligencia artificial afecte al mercado laboral en España? ¿Es cierto que van a desaparecer cientos de profesiones como algunos expertos ya vaticinan?
En términos positivos, la IA puede crear nuevos puestos de trabajo en áreas como el desarrollo de IA, la gestión de datos, la ingeniería y la ciberseguridad. También puede automatizar tareas rutinarias y repetitivas, lo que puede liberar a los trabajadores para centrarse en tareas más creativas y estratégicas.
Según un estudio de la consultora McKinsey, la IA podría crear entre 10 y 15 millones de nuevos puestos de trabajo en la Unión Europea para 2030. En España, el estudio estima que la IA podría crear entre 200.000 y 300.000 nuevos puestos de trabajo en el mismo período.
Por otro lado, la IA también podría provocar la pérdida de puestos de trabajo en áreas como la producción, la atención al cliente, la logística y la administración.
Según un estudio de la OCDE, la IA podría automatizar entre el 10 y el 15% de los puestos de trabajo en la Unión Europea para 2030. En España, el estudio estima que la IA podría automatizar entre 1,5 y 2 millones de puestos de trabajo en el mismo período.
El impacto de la IA en el mercado laboral en España será complejo y dependerá de una serie de factores, como el ritmo de desarrollo de la tecnología de la IA, la actitud de las empresas y los trabajadores hacia la IA, y las políticas públicas que se adopten para gestionar el impacto de la IA.
Es importante que las y los trabajadores se preparen para el impacto de la IA en el mercado laboral. Esto puede requiere formación en IA y el desarrollo nuevas habilidades y conocimientos, y siendo flexibles y adaptables a los cambios.
¿Qué iniciativas se están contemplando para la formación y capacitación de los trabajadores en habilidades relacionadas con la IA?
La Unión Europea tiene un plan de acción en educación digital, adoptado en 2020 y que estará en vigor hasta 2027. En España los cursos de formación continua a trabajadores en activos y desempleados del SEPE sobre IA se han multiplicado en este último año.
En el ámbito educativo, se están integrando acciones de alfabetización en IA en etapas preuniversitarias y en las Universidades. Además, se están definiendo documentos de guía o asesoramiento a nivel privado tanto en empresas como en Universidades.
Grandes empresas como Microsoft, Google, Amazon o IBM también ofrecen cursos gratuitos dirigidos a trabajadores.
Fuera de Europa, en Chile, por ejemplo, se ha creado el Centro Nacional de Inteligencia Artificial (CeNAI) un organismo público que tiene como objetivo impulsar el desarrollo y la aplicación de la IA en España. El CeNAI ofrece una serie de cursos y programas de formación en IA. ( https://www.cenia.cl/)
En el ámbito educativo, La UNESCO, dentro del contexto de su iniciativa “La Inteligencia Artificial y los Futuros del Aprendizaje”, se encuentra actualmente desarrollando un nuevo Marco de competencia para docentes y estudiantes en el campo de la Inteligencia Artificial. Este nuevo marco, se presentará en marzo de 2024 y definirá los conocimientos, habilidades y actitudes que deben poseer los docentes para comprender las funciones de la IA en la educación y utilizarla en sus prácticas docentes de manera ética y eficaz.
Seguro que hay muchas más y cada día hay nuevas.
¿Cómo se protegen los derechos de los usuarios en el contexto de la IA según la legislación europea?
La ley establece una serie de requisitos para los sistemas de IA que representan un riesgo elevado para los derechos fundamentales, como los sistemas de IA que se utilizan para la toma de decisiones automatizadas con efectos jurídicos o significativos para los usuarios. Estos sistemas deben cumplir los siguientes requisitos:
- Ser necesarios y proporcionados: Los sistemas de IA deben ser necesarios para alcanzar un objetivo legítimo y no deben ir más allá de lo necesario para alcanzar ese objetivo.
- Ser justos e imparciales: Los sistemas de IA deben ser diseñados y utilizados de forma justa e imparcial, sin discriminar a ninguna persona por motivos de raza, género, religión, discapacidad o cualquier otra condición personal.
- Ser transparentes: Los usuarios deben poder entender cómo funcionan los sistemas de IA y cómo afectan a sus derechos. Los desarrolladores de sistemas de IA deben proporcionar información sobre los datos que utilizan, los algoritmos que emplean y los resultados que producen.
- Ser auditables: Los sistemas de IA deben ser auditables para garantizar que cumplen con los requisitos de la ley.
¿Cómo se anticipa que la nueva ley de inteligencia artificial afecte a la colaboración y cooperación internacional en la investigación y desarrollo de la IA?
Se podrían presentar algunos escenarios posibles sobre cómo podría afectar la ley a la colaboración y cooperación internacional en la investigación y desarrollo de la IA:
Escenario 1: Colaboración reforzada
En este escenario, la ley podría promover la colaboración internacional al establecer un marco común para la regulación de la IA. Esto podría facilitar el intercambio de información y conocimientos entre investigadores e innovadores de diferentes países, lo que podría conducir a avances más rápidos en la investigación y el desarrollo de la IA.
Escenario 2: Cooperación reducida
En este escenario, la ley podría dificultar la cooperación internacional al establecer requisitos estrictos para los sistemas de IA que representan un riesgo elevado para los derechos fundamentales. Estos requisitos podrían hacer que sea más difícil para las empresas y organizaciones de diferentes países colaborar en el desarrollo de sistemas de IA de este tipo, lo que podría retrasar el progreso de la investigación y el desarrollo de la IA.
Es probable que se produzca una combinación de estos escenarios, con algunos casos en los que la ley promueva la colaboración internacional y otros en los que la dificulte. El impacto neto de la ley en la colaboración y cooperación internacional en la investigación y desarrollo de la IA dependerá de una serie de factores que todavía no se pueden determinar con certeza.