Casi a la vez que se empezaba a desarrollar la Inteligencia Artificial (IA) como herramienta tecnológica, se abría el debate de su uso responsable. Pero qué es primero, el huevo o la gallina. Me explicaré. Sabemos que no todas las IA son iguales ni están desarrolladas por las mismas personas.
Ahora bien, en la mayor parte de casos, los desarrolladores y/o programadores han nacido y crecido en una cultura bastante similar y, en consecuencia, con unos sesgos antropológica y socialmente arraigados y una información de donde basarse prácticamente idéntica.
Este hecho plantea una pregunta crucial, a mi modo de ver: ¿es la IA quien incorpora los sesgos o somos nosotros, los humanos, los que, a través de la creación y entrenamiento de estos sistemas, transferimos nuestros prejuicios y limitaciones a la tecnología?
La “humanización” de la herramienta parece ser el punto de inflexión donde surgen los problemas. A medida que estas herramientas se vuelven más sofisticadas y se acercan a comportarse de manera más similar a los humanos, los errores inherentes a su diseño y desarrollo se vuelven más evidentes.
Por eso es necesario subrayar la importancia de cómo se usa, su regulación y la calidad de los datos con los que la alimentamos. La calidad de estos datos es fundamental, ya que la IA aprende y se adapta en función de la información que recibe. Si los datos son tendenciosos, la IA los replicará y, en muchos casos, los amplificará.
Es esencial dejar claro que la responsabilidad no recae únicamente en los desarrolladores de IA, sino en todo el universo social incluidas las empresas como usuarios finales. De ahí que la colaboración multidisciplinar y la ética en el desarrollo de la IA sean fundamentales para mitigar posibles desviaciones, acompañado todo ello del obligado establecimiento de regulaciones claras y normas éticas que guíen su desarrollo e implementación.
La transparencia también juega un papel fundamental en el uso responsable. Las empresas y organizaciones que implementamos estos sistemas tenemos que ser claras sobre cómo se utilizan los datos y qué medidas estamos tomando para prevenir orientaciones erróneas. Esto incluye, por supuesto, la creación de algoritmos justos y transparentes, junto a la implementación de auditorías y la revisión continua de los sistemas de IA para detectar y corregir.
Sería injusto no reconocer que ya existen iniciativas y proyectos que buscan abordar estos desafíos: desde la creación de conjuntos de datos más diversos y representativos hasta el desarrollo de algoritmos que priorizan la igualdad, la diversidad o los derechos humanos, en general.
La educación y la concienciación también juegan un papel crucial. Desde una edad temprana, es fundamental que nuestros hijos e hijas comprendan cómo funciona la IA y cuáles son sus implicaciones éticas. Lo mismo para quienes no somos nativos digitales, pero sí usuarios. Y para los profesionales en el campo, la formación continua sobre ética debe ser una parte integral de su desarrollo profesional. Hay mucho que corregir en la tecnología y es nuestra obligación aprender a usarla y saber cómo funciona.
Es fundamental que los desarrolladores, usuarios y responsables políticos estén bien informados de cuáles son los riesgos de un mal uso de la herramienta y sobre cuáles son las mejores prácticas. Esto implica fomentar una cultura de transparencia, responsabilidad y constante evaluación de los sistemas de IA. Además, la integración de principios éticos desde las etapas iniciales del desarrollo de la IA es lo que va a marcar una diferencia significativa. Me estoy refiriendo a considerar los derechos humanos, la privacidad y la inclusión en el diseño de algoritmos y sistemas.
Solo con un enfoque responsable y ético podemos asegurar que la IA beneficie a la sociedad, sin perpetuar errores y evitando los peligros de la discriminación y la exclusión. Una IA tecnológicamente avanzada, no es incompatible con que sea justa y equitativa. La tarea no es sencilla, pero sí fundamental. Una combinación de regulación, educación, diversidad y compromiso continuo con la mejora y la ética en el desarrollo tecnológico nos llevará a obtener su poder transformador.
Esta tribuna forma parte del Dosier Corresponsables: Por una IA Responsable, junto a Esade y Fundación SERES