En estos momentos, la inteligencia artificial generativa está construyendo su personalidad a través de nuestra mirada, pero en un futuro no muy lejano, los niños y niñas de las próximas generaciones, construirán las suyas con su mirada.
La Inteligencia artificial generativa es ahora una niña, una preadolescente, pero será tutora, madre o abuela. Es nuestra responsabilidad – la de aquellas personas que están activamente involucradas en su desarrollo, pero también del conjunto de la sociedad – la de educarla y acompañarla en su crecimiento de la misma forma que con cualquier niño o niña, revisando la información a la que tiene acceso, dotándola de puntos de vista diversos y plurales, revisando sus “deberes” como haría cualquier padre, madre o tutor, y guiando su comportamiento.
Estamos viviendo en la era del auge de la inteligencia artificial y solo hace falta echar un vistazo a redes sociales – y no hablo de las más virales y en las que todo vale, como Tik Tok, sino de otras mucho más profesionales y “serias” como LinkedIn – para darnos cuenta de que estamos poniendo todo nuestro enfoque en cómo sacar el máximo partido de la misma para mejorar nuestros procesos, ahorrar tiempo y dinero en nuestras tareas diarias o utilizarla como mano de obra a bajo coste con la cual poner en marcha nuevos negocios. Es decir, estamos tratando de explotar el trabajo y acelerar la madurez de una entidad que ni siquiera ha llegado a su época de adolescente.
A nivel gubernamental – especialmente por parte de organismos supranacionales, como la Unión Europea, o Naciones Unidas – y a nivel académico, las conversaciones sobre la construcción, gobernanza y uso ético de la inteligencia artificial generativa sí son objeto de multitud de estudios y foros. Así, podemos mencionar como ejemplos el Observatorio Global de Ética y Gobernanza de la IA, en el corazón de la UNESCO, o el Consejo Asesor sobre Inteligencia Artificial de las Naciones Unidas, y podemos ver ejemplos como el proyecto del Acta Europea de Inteligencia Artificial. La responsabilidad de las administraciones de los países es, y será, recoger las guías, regulaciones y buenas prácticas tratadas por estos organismos, transponerlas a nivel local, difundirlas y contribuir a este trabajo de investigación y desarrollo sobre esta dimensión con recursos locales.
No obstante, volviendo al símil inicial, estos organismos son los que crean los libros de texto, los programas académicos, para que la inteligencia artificial pueda desarrollar su personalidad, pero la verdadera labor reside en quienes son partícipes de ese desarrollo y aquí hay dos claros actores, por un lado, las corporaciones y, por otro lado, la sociedad civil.
Con respecto a las primeras, las corporaciones, muchas de ellas ya están incorporando la inteligencia artificial en sus procesos, y muchas, no han dejado de lado las consideraciones éticas de la inteligencia artificial, desarrollando guías corporativas y difundiéndolas entre sus empleados y empleadas. No obstante, una revisión rápida de algunas de estas guías desvela un problema importante, y es que dichas consideraciones éticas se aplican principalmente a los materiales resultantes del uso de la inteligencia artificial, ya sean estos textos, imágenes, vídeos, etc., dejando de lado que cada vez que interactuamos con la inteligencia artificial, es decir, cada vez que “prompteamos” la inteligencia artificial hace uso de esas interacciones, de esas conversaciones, para seguir aprendiendo, y desarrollando esa personalidad que mencionaba al inicio. Por lo tanto, no es solo importante que tengamos en cuenta aspectos como los derechos de autor de los materiales generados, la protección de los datos personales, la revisión de la información de base que ha utilizado la IA para crear contenidos, o controlar sus “alucinaciones”, sino que es importante que en nuestras conversaciones con la inteligencia artificial estén incorporados los principios éticos y de responsabilidad, de la misma forma que si tuviésemos una conversación con un niño o niña. Al final, la inteligencia artificial aprende de lo que ve, escucha, lee, como cualquier niño, y no podemos pretender que un adolescente sea correcto y educado, si de pequeño lo que ha escuchado en casa es lenguaje malsonante y falto de respeto.
Por ese motivo, esas guías sobre uso ético de la inteligencia artificial deben empezar a abordar las conversaciones que mantenemos con la IA, e incorporar aspectos, por ejemplo, como el uso del lenguaje inclusivo, o de incorporación de la diversidad para que, a su vez, la IA se desarrolle de base abrazando la diversidad y la inclusión, por mencionar un ámbito concreto de la ética.
Las corporaciones son, además, una palanca para que la sociedad civil empiece a incorporar también estas dimensiones en sus diálogos y uso de la inteligencia artificial. Si se conciencia a las personas, mediante esas guías y prácticas corporativas del uso responsable y ético de la inteligencia artificial, es mucho más probable que en su uso privado de la IA apliquen igualmente esos principios, y que enseñen a aplicarlo a las generaciones más jóvenes que se relacionan con la inteligencia artificial.
Por último, tenemos que tener en cuenta el imperativo de que – ahora que la IA está en fase preadolescente – hagamos esa labor, puesto que una vez que se haya desarrollado plenamente, deshacer los sesgos que haya creado va a ser una tarea titánica, comparado con deshacer los sesgos en un adulto cualquiera, lo cual de por sí, ya es una tarea titánica, puesto que ahora mismo, la inteligencia artificial se está desarrollando con nuestro conocimiento, pero, al igual que ahora se hace con Internet, la IA será, para las generaciones futuras, su principal recurso informativo y formativo, y por lo tanto, todos esos sesgos, serán absorbidos por dichas generaciones.
Esta tribuna forma parte del Dosier Corresponsables: Por una IA Responsable, junto a Esade y Fundación SERES