Blade Runner (1982), Terminator (1984) y RoboCop (1987) son ejemplos emblemáticos del cine de ciencia ficción de los años ochenta que no solo anticiparon avances tecnológicos en el ámbito de la inteligencia artificial, sino que también abordaron cuestiones filosóficas y éticas más profundas sobre la naturaleza humana, la deshumanización, la rebelión de las máquinas o la ética del uso de la tecnología para el control y la seguridad.
Doce años después, The Matrix (1999) revolucionó el género al mostrar a un hacker que descubre que el mundo en el que vive es una simulación creada por máquinas inteligentes para subyugar a la humanidad. La película de Lana y Lilly Wachowski no solo explora la idea de una realidad simulada, sino que también profundiza en la compleja relación entre los humanos y las máquinas.
Estos relatos cinematográficos nos ofrecen lecciones muy valiosas sobre el uso responsable de la inteligencia artificial, lecciones que podemos aplicar también al ámbito de la Comunicación Corporativa. Porque si de algo estamos convencidos en la Asociación de Directivos de Comunicación, Dircom, es que la tecnología puede ser una poderosa herramienta para mejorar la eficiencia y la efectividad de nuestras estrategias comunicativas, pero su uso y su desarrollo deben estar guiados por unos principios sólidos que nos ayuden a combatir los riesgos éticos que la incorporación de esta tecnología nos presenta.
El World Economic Forum de 2024 reconoció la desinformación y la manipulación de la información, impulsadas por la inteligencia artificial, como una de las amenazas más severas a la estabilidad global a corto plazo, afectando profundamente la cohesión social y la confianza en los procesos democráticos.
El Foro Económico Mundial aboga por la creación de marcos regulatorios robustos y por la cooperación global para mitigar estos riesgos, aunque reconoce que la rápida evolución de la tecnología puede superar la capacidad de la respuesta regulatoria. Así, la alianza para la gobernanza de la IA es una iniciativa clave para promover su desarrollo y uso responsables.
Otro de los riesgos éticos y legales más significativos e inquietantes en el uso de la IA es la protección de los datos personales. El mal uso de datos recopilados puede llevar a violaciones graves de la privacidad y a la explotación de información sensible. Por eso, es crucial que las organizaciones adopten prácticas estrictas de gestión de datos y aseguren que cualquier recolección y uso de datos se realice de manera transparente y con el consentimiento informado de las personas.
En este contexto de `hiperdesarrollo` tecnológico, la responsabilidad y la rendición de cuentas se tornan también aspectos fundamentales. Hoy nos podemos preguntar ¿quién es responsable de las decisiones tomadas por sistemas de IA, especialmente cuando estas decisiones tienen consecuencias negativas? Definir estas responsabilidades es imprescindible y las organizaciones deben establecer mecanismos claros de supervisión y rendición de cuentas para garantizar que las acciones de la IA sean monitoreadas y evaluadas continuamente.
Asimismo, la ética en la generación de contenidos plantea preguntas sobre autenticidad, autoría y el valor de estas creaciones. La capacidad de la IA para producir contenido automáticamente puede ser extremadamente útil en el ámbito de la Comunicación Corporativa, pero también puede llevar a la deshumanización de esa comunicación y a la pérdida de confianza si no se maneja adecuadamente. Por tanto, es esencial mantener la integridad en la comunicación y asegurar que el contenido generado por IA sea claramente identificado y utilizado de manera ética.
Estos riesgos que acabo de citar abarcan tanto la dimensión técnica como la ética, y su manejo adecuado es fundamental para asegurar que el uso de la IA en la comunicación sea responsable y beneficioso para todos.
Reflexionar sobre estos y otros dilemas a través de la lente del cine puede ayudarnos a la hora de construir un marco ético robusto que promueva un uso responsable y ético de la IA en nuestras prácticas profesionales. Porque si bien la tecnología debe servirnos para mejorar la comunicación, nunca debería comprometer nuestros valores fundamentales ni la confianza de nuestros públicos.
Esta tribuna forma parte del Dosier Corresponsables: Por una IA Responsable, junto a Esade y Fundación SERES