Elías Bethencourt Parodi, Director Comercial de Latinoamérica en PFSTECH, comparte con Corresponsables sus perspectivas sobre los desafíos éticos de la inteligencia artificial (IA) y cómo esta tecnología está transformando el mercado laboral y la sociedad. En esta entrevista, Bethencourt nos ofrece un análisis profundo de las implicaciones de la IA, desde su desarrollo hasta su impacto futuro en nuestras vidas.
La ética en la IA es un tema crucial hoy en día. Desde su perspectiva, ¿cuáles son los principales desafíos éticos que enfrenta la inteligencia artificial en su desarrollo actual y futuro?
La ética de la inteligencia artificial enfrenta muchos desafíos. Algunos de estos problemas ya venían siendo discutidos, pero ahora han pasado de lo teórico a lo práctico, afectando nuestro día a día. Un ejemplo es el clásico dilema del tranvía en la filosofía, donde una decisión difícil entre salvar a un grupo o a una persona puede ahora reflejarse en un coche autónomo. ¿Cómo debe tomar una decisión en una situación inevitable? Este tipo de programación implica grandes responsabilidades. Además, tenemos temas como los sesgos algorítmicos, la privacidad de los datos y los derechos de autor, entre otros.
La IA generativa es solo una parte del panorama completo. ¿Qué diferencia ve entre esta, la IA General (AGI) y la IA Superinteligente (ASI), y qué impacto anticipa que tendrán en la sociedad?
La IA generativa está en lo que se conoce como Inteligencia Artificial estrecha, es decir, algoritmos que son muy buenos en tareas específicas. Luego tenemos la IA general, que se refiere a algoritmos que igualan a los humanos en cualquier tarea. Finalmente, la superinteligencia es aquella que se automejora y alcanza un nivel de conciencia propia. La IA generativa, como ChatGPT, es solo el comienzo de esta revolución. A diferencia de tecnologías anteriores, la IA generativa puede crear contenido por sí misma, lo cual ya está cambiando el mundo.
La IA ha demostrado reproducir ciertos sesgos de género y otras discriminaciones. ¿Qué medidas propone para evitar que los algoritmos amplifiquen estos prejuicios y asegurar que las decisiones de IA sean éticas y justas?
El desafío es que la IA sea más ética que los humanos. Muchas veces, los algoritmos aprenden de lo que hacemos, no de lo que decimos. Para mitigar estos sesgos, es fundamental un modelo de gobernanza de la IA con un enfoque integral. Por ejemplo, hemos visto casos de algoritmos que discriminan a personas por su género o raza, como el caso en EE.UU. de un algoritmo que ayudaba a jueces a decidir sobre la reincidencia delictiva y que terminó discriminando a personas negras. Por eso, es vital la transparencia y trazabilidad en el desarrollo de la IA.
Con la automatización y la IA transformando el mercado laboral, ¿cuáles cree que son las acciones clave que gobiernos y empresas deben tomar para mitigar el impacto en los empleos y mantener la cohesión social?
El FMI estima que la IA afectará el 40% de las posiciones de trabajo en los próximos años. Esto no significa que se perderán todos esos empleos, sino que algunos se transformarán, otros desaparecerán y surgirán nuevos. Por eso, debemos prepararnos para esta transición, educando a las personas en habilidades críticas como el pensamiento crítico, el trabajo en equipo y la flexibilidad. Los gobiernos deben facilitar esta educación y regulación de la IA, y las empresas necesitan alinear su uso de la IA con principios éticos claros.
Hemos visto a Europa liderar esfuerzos regulatorios en el ámbito de la IA. ¿Cómo cree que la reciente ley de IA en Europa y la alianza con CELAG afectarán la implementación y regulación de la IA en América Latina?
La ley europea es un referente global en la regulación de la inteligencia artificial. Europa se posiciona como árbitro en este campo, protegiendo los derechos fundamentales de los ciudadanos. Muchos países de Latinoamérica han firmado acuerdos para alinear sus regulaciones con las de la Unión Europea, lo cual es positivo. Sin embargo, en América Latina, hay una gran diversidad política, lo que puede ralentizar este proceso. Aun así, es fundamental comenzar a trabajar en una regulación que sea segura para la sociedad.
¿Qué papel cree que deben jugar las regulaciones para asegurar que esta tecnología sea beneficiosa y no cause daños irreversibles a la sociedad?
La regulación es fundamental. La IA puede curar enfermedades, prevenir accidentes y combatir el cambio climático, pero también puede aumentar la desigualdad o ser usada para vigilancia masiva. La regulación debe guiar el desarrollo de la IA para que genere beneficios económicos y sociales. Además, es necesario un enfoque colaborativo entre la academia, los gobiernos, las empresas y las ONGs para asegurar un marco regulatorio adecuado.
La IA ha democratizado el acceso a tecnologías avanzadas, pero también ha hecho crecer las desigualdades en algunas áreas. ¿Qué papel juegan la ética y la gobernanza para reducir estas brechas tecnológicas y asegurar un acceso más equitativo a los beneficios de la IA?
La ética es clave. Por encima de las normas están los principios, y por encima de los principios, los valores. La ética de la IA debe enmarcarse en los desafíos del siglo XXI. Esto debe estar presente no solo en la regulación, sino en todos los niveles de la sociedad. En la práctica, las empresas y gobiernos deben implementar modelos de gobernanza ética de la IA, trabajando en todas las etapas del desarrollo para mitigar sesgos, garantizar transparencia y asegurar la supervisión humana.
A medida que la IA evoluciona, ¿cómo imagina el equilibrio entre la inteligencia artificial y la inteligencia humana en la toma de decisiones críticas, tanto en las empresas como en la vida diaria?
Creo que vamos a acostumbrarnos a trabajar con IA en casi todas las áreas. Desde tareas simples hasta decisiones complejas, la IA nos ayudará a extender las fronteras del conocimiento humano. En el corto plazo, veremos cómo diferentes aplicaciones de IA se integran en nuestra vida cotidiana, tanto personal como profesional.
Escucha la entrevista completa aquí
Accede a más información responsable en nuestra biblioteca digital de publicaciones Corresponsables.