La inteligencia artificial (IA) es uno de los campos más prometedores en el contexto actual de transformación y disrupción tecnológica. Su reciente aparición en el ámbito empresarial plantea importantes incertidumbres y dilemas éticos, como la falta de transparencia de las herramientas, la toma de decisiones inteligibles para los humanos y los resultados discriminatorios y sesgos incrustados. Así, nace la necesidad de garantizar los derechos y las libertades fundamentales de todas las personas que emplean soluciones y tecnologías basadas en IA o que de alguna manera se ven afectadas por las mismas.
Un reciente informe elaborado por Grand View Research estima que el tamaño del mercado global de la IA crecerá un 37% cada año desde 2024 hasta 2030. Sin embargo, y a pesar de que el pasado 21 de mayo de 2024, el Consejo de la Unión Europea aprobó finalmente el Reglamento de IA, el ritmo regulatorio no avanza con la misma rapidez en todo el mundo, dando lugar a posibles vacíos, ambigüedades legales y desafíos para cualquier organización global en términos de cumplimiento normativo.
La colaboración público-privada, en este sentido, puede fomentar el intercambio de conocimientos y mejores prácticas, así como la creación de estándares y regulaciones más efectivas. Dentro de este contexto, las organizaciones tienen el deber y la responsabilidad de actuar como instrumentos de control, atribuyéndose la responsabilidad de trabajar en la creación de un órgano de gobierno especializado en esta tecnología, que garantice el cumplimiento de los principios de la IA responsable.
En este contexto, Prosegur desarrolló su propio sistema de gestión de IA Responsable, con el fin de garantizar el cumplimiento normativo y el respeto de los valores éticos y morales en todos los proyectos de adquisición o desarrollo tecnológico que incorporan tecnología de IA. Como parte de este sistema, la compañía publicó la primera Política de Inteligencia Artificial Responsable, que se aplica a los más de 30 países en los que desarrolla su actividad.
Esta iniciativa pone de manifiesto el compromiso de Prosegur con respecto a la aplicación y el seguimiento de la IA en todos los procesos y servicios en los que está presente. El procedimiento empleado para ello establece que esta tecnología debe definirse como: lícita (con el objetivo de garantizar el respeto de todas las leyes y reglamentos aplicables), ética (para asegurar el cumplimiento de los principios y valores éticos) y robusta (tanto desde el punto de vista técnico como social, ya que los sistemas de IA pueden provocar daños accidentales). Estos tres pilares permiten a Prosegur mantenerse a la vanguardia de la innovación tecnológica, al mismo tiempo que se respetan todos los valores de la organización.
Ante esto, y teniendo, en cuenta la cantidad de agentes implicados en el uso de la IA dentro de una compañía, el Comité de IA Responsable, se encarga de supervisar que todas las soluciones de IA implantadas en Prosegur sigan las reglas dispuestas en la Política en todo su ciclo de vida. Estos proyectos deben ser respetuosos con los valores éticos y morales, y lo suficientemente robustos, tanto desde un punto de vista técnico como social.
No cabe duda que el futuro de la inteligencia artificial es prometedor, con previsiones de un crecimiento significativo en términos de valor de mercado y aplicaciones en diversos sectores. La adopción continua de la IA transformará industrias, mejorando la eficiencia de los procesos, así como nuestra calidad de vida. Sin embargo, es crucial abordar los desafíos éticos y regulatorios para asegurar un desarrollo sostenible y beneficioso para la sociedad en su conjunto. La IA, bien gestionada y desarrollada, tiene el potencial de ser una fuerza impulsora para un progreso significativo.
Esta tribuna forma parte del Dosier Corresponsables: Por una IA Responsable, junto a Esade y Fundación SERES