El pasado 31 de mayo, la Fundación Mutua Madrileña celebró el encuentro “Jóvenes y Tercer sector: un futuro compartido” en Madrid. El evento estuvo dedicado precisamente a conocer la visión de la juventud sobre el papel de las ONG en nuestra sociedad. Visión recogida en el estudio “Percepción y perspectivas de los jóvenes sobre el tercer sector”, elaborado por Metroscopia y presentado públicamente durante esta jornada.
En la segunda parte del evento, Enrique Dans, profesor de Innovación en IE Business School-IE University, dedicó a los presentes una conferencia titulada “Inteligencia artificial: herramientas, riesgos y oportunidades para el tercer sector”. Sin duda un tema de máxima actualidad y al mismo tiempo de gran interés, puesto que estas herramientas tecnológicas, bien empleadas, pueden ser de enorme utilidad para las ONG. Así nos lo cuenta el propio Dans en la siguiente entrevista.
¿Cómo puede ayudar la inteligencia artificial (IA) a generar herramientas y oportunidades útiles para el Tercer Sector?
En cualquier industria, la contribución inicial del machine learning y los algoritmos es la mejora de la productividad: básicamente, hablamos de herramientas capaces de actuar como asistentes avanzados con los que una persona puede hacer más cosas en menos tiempo. Adicionalmente, les podemos pedir creatividad, que pensábamos que era un atributo humano y ahora sabemos que no, que la capacidad de recombinación de elementos y creación de elementos nuevos es mucho más elevada y sujeta a menos restricciones, o cuestiones como la predicción, también enormemente potentes.
La diferencia fundamental en el tercer sector es que en este caso, la eficiencia es un parámetro fundamental: en el equilibrio entre lo que una asociación gasta para llevar a cabo su labor y lo que emplea simplemente en su funcionamiento, el aporte de productividad y optimización que puede aportar la algoritmia generativa o el machine learning en general puede llegar a tener una importancia fundamental, y separar a las organizaciones más eficientes de las que no logran llegar a serlo.
¿Cuáles son los principales riesgos éticos y sociales que acarrea la IA aplicada en el tercer sector y cómo se pueden abordar?
Los riesgos fundamentales tienen que ver con el uso de algoritmos mal entrenados, o entrenados con datos que únicamente representan una parte de la realidad. Los sesgos, los criterios justos o injustos en función de los datos empleados en el entrenamiento, los planteamientos de soluciones inadecuadas, la pérdida de puestos de trabajo o la concentración del poder en quienes manejan los algoritmos son amenazas importantes, que debemos combatir siendo capaces de entender la tecnología y de gestionar nuestros propios desarrollos algorítmicos para no depender sistemáticamente de terceros. La mejor forma de evitar los problemas relacionados con la adopción de una tecnología es conocerla y controlarla lo mejor posible.
¿Podría explicar algún ejemplo de cómo la IA se está utilizando con éxito para abordar desafíos relacionados con el Tercer Sector?
Existen cada vez más casos de organizaciones generando algoritmos para aportar elementos a su labor de manera escalable. AI for Good, por ejemplo, ha creado un algoritmo generativo conversacional capaz de mantener conversaciones dirigidas a personas que potencialmente estén en relaciones abusivas, controladores o poco saludables, que llegó a mantener y diagnosticar más de doscientas mil conversaciones en los primeros cien días tras su lanzamiento, multiplicando el alcance potencial de su labor.
El Danish Refugee Council es capaz de prever desplazamientos de refugiados en según qué países en función de una serie de variables coyunturales, y ayudar a la asociación a gestionar sus recursos en las crisis. Save the Children ha desarrollado con algunos socios algoritmos para prevenir el acoso y la violencia en la red dirigida a los niños en foros, videojuegos y publicaciones. En la práctica, se trata de que una persona con un buen conocimiento de la cadena de valor de la asociación sea capaz de conocer lo suficiente de machine learning como para que pueda proyectar casos de uso, y esto es cada vez más sencillo porque las barreras de entrada a la tecnología son cada vez más bajas.
¿Cómo se puede garantizar la transparencia y la equidad en el uso de algoritmos de IA? ¿Existen buenas prácticas o estándares éticos específicos que se deban seguir en el caso del ámbito del Tercer Sector?
Con el desarrollo de algoritmos siempre se procede igual: lo más pesado es la obtención y preparación de los datos, su limpieza, el asegurarnos de que responden a una distribución razonable y no excesivamente sesgada, etc. Por eso lo fundamental es preparar a nuestras organizaciones para que sean capaces de generar una maquinaria de producción continua de datos con los que alimentar a nuestros algoritmos.
Cuando tengamos esos datos, lo siguiente es probar todo tipo de algoritmos para ver cuáles generan respuestas más razonables y con más sentido, y ponerlas a prueba con distintos conjuntos de datos para detectar posibles errores. Hay todo tipo de procedimientos de bootstrapping que las aplicaciones de machine learning permiten utilizar para comprobar que un algoritmo tiene sentido y está libre de errores, y por supuesto, el sentido crítico que quien lo gestiona y conoce la forma en que los datos son generados. En el fondo, es estadística, no ciencia de cohetes.
¿Cuál es el papel de la colaboración entre ONG, empresas y gobiernos para aprovechar al máximo el potencial de la IA?
Las ONGs deben tratar de convertirse en los mejores especialistas de su ámbito, en la referencia que los gobiernos y los medios buscan para hablar de determinados temas. Eso exige que sean capaces no solo de gestionar bien, sino también de aprender de su propia gestión, de realimentarse y de generar datos que puedan servir de referencia para otros en ese ámbito. Cuanto más procesamiento de datos avanzado se lleve a cabo, más apalancamiento cognitivo se generará en medios y gobiernos, y mejores serán las oportunidades de colaboración que puedan generarse.
¿Cómo se pueden superar las barreras, como la falta de conocimiento técnico o los recursos limitados, para que las organizaciones del Tercer Sector puedan adoptar soluciones de IA de manera efectiva?
Lo fundamental es entender que las barreras de entrada son muy bajas, que no necesitamos científicos de datos que inventen algoritmos, porque las herramientas ya permiten trabajar con nuestros propios datos y generar nuestros propios algoritmos, Podemos tener becarios de escuelas de negocio o de escuelas universitarias que nos ayuden a plantearlo, pero en cuanto veamos desarrollos programados en Python, en R o en lenguajes similares, salgamos huyendo: no es eso lo que queremos.
Queremos soluciones no code que sean fáciles de implementar y de combinar con el software de gestión que la ONG utiliza, no engendros hechos por desarrolladores generalmente muy limitados que pretenden reinventar la rueda. Hay suficientes herramientas no code como para que no necesitemos programar prácticamente nada: si ves líneas y líneas de código, estarás tratando seguramente con proyectos que no habrá manera humana, con los recursos habituales en una ONG, de poner en producción.
¿Cuáles son algunos de los desafíos futuros que enfrenta el Tercer Sector en la incorporación de la inteligencia artificial de manera responsable y sostenible, y cómo pueden abordarse?
El desafío fundamental es entender que hablamos de un entorno en el que no debemos depender de las big tech, de OpenAI o de nadie que no seamos nosotros mismos. Lo normal será que nadie intente desarrollar un algoritmo conversacional generativo como tal, porque requiere miles de millones de parámetros para hacerlo bien y es algo que OpenAI o su alternativa abierta, Orca, ya han hecho.
¿Crear un algoritmo para automatizar tareas administrativas? Tanto Microsoft como Google tienen los suyos, y funcionan bien. Pero a la hora de automatizar o procesar los datos propios con los que trabajamos, lo normal será que utilicemos nuestros propios recursos, que generemos nuestros propios algoritmos y predicciones, y que seamos mucho más autosuficientes. En ese equilibrio entre herramientas propias y ajenas está el desafío fundamental.
Accede a más información responsable en nuestra biblioteca digital de publicaciones Corresponsables.