La Inteligencia Artificial generativa (GenAI) promete revolucionar la productividad laboral en múltiples sectores y funciones corporativas. Según McKinsey, hay 63 casos de uso de IA generativa en 16 funciones empresariales, lo que subraya su potencial transformador. Sin embargo, junto con el entusiasmo, surge la preocupación por los riesgos inherentes a su implementación.
La protección de la propiedad intelectual y de la información confidencial es un área crítica. La GenAI implica, en muchos casos, la introducción de datos en modelos de IA desarrollados por terceros, convirtiendo todo lo introducido en estas herramientas en información susceptible de ser utilizada para su entrenamiento. Esto plantea una cuestión significativa para la propiedad intelectual y la información confidencial de las empresas.
Por ejemplo, si se utiliza una herramienta de GenAI para redactar un discurso de lanzamiento de producto, los detalles del producto ingresados podrían convertirse en parte del modelo utilizado. Por este motivo, las empresas deben encontrar el equilibrio entre proteger su información y aprovechar la IA generativa. La dependencia de estos modelos para decisiones estratégicas debe ser aclarada y comunicada efectivamente dentro de la organización.
Como con otras herramientas tecnológicas disruptivas, la gestión del cambio y la formación de los profesionales en el uso de estas nuevas posibilidades debe convertirse en una prioridad para todo tipo de empresas. Además, la existencia de posibles sesgos en los modelos de IA también debe ser tenida en cuenta. Aunque estas herramientas utilizan grandes volúmenes de datos para su entrenamiento, todavía pueden desarrollar o contener sesgos que produzcan riesgo para las compañías. Por ejemplo, este tipo de sesgos pueden afectar a áreas críticas como la contratación, donde el uso de estas herramientas podría no ofrecer los resultados deseados o adaptados a las políticas preexistentes de la compañía.
Otra preocupación suscitada por este tipo de herramientas es la legalidad o los derechos de propiedad de los materiales creados por ellas. Ya existen demandas en curso donde se alega que diferentes trabajos creativos fueron usados para entrenar la IA sin consentimiento. En muchos casos no está claro si es seguro usar estos datos. Lo más importante es siempre verificar meticulosamente los productos creados con la GenAI y valorar su validez para ser usados como materiales corporativos antes de hacerlo.
En conclusión, la GenAI ofrece enormes oportunidades para aumentar la productividad y la eficiencia, pero las empresas deben abordar con seriedad los riesgos asociados. Es necesario adoptar una postura equilibrada, donde se maximicen los beneficios mientras se minimizan los riesgos. La IA debe ser vista como una herramienta de apoyo integrada en los servicios y
herramientas existentes, más que como un fin en sí misma. Esto contribuirá a mitigar riesgos, aunque, en última instancia, la gestión de riesgos en la era de la GenAI es un desafío continuo que requiere vigilancia y adaptación constantes y que debe contar, preferiblemente, con unas claras directrices en el seno de las organizaciones para conseguir los resultados deseados.
Una opción para lograr esto y reducir las preocupaciones a la hora de gestionar estas herramientas es colaborar con socios de confianza y experimentados, capaces de ofrecer servicios ad hoc, adaptados a las necesidades de cada caso. Por ejemplo, en Canon, hemos desarrollado diferentes herramientas para la gestión de la información en las compañías de forma automatizada y digital, que aprovechan las ventajas de IA para ofrecer mejores resultados con todas las garantías en materia de compliance y legalidad.
A través de estas herramientas se consigue aumentar la productividad y celeridad en la gestión de muchos de los datos manejados por las compañías y también de sus documentos. De esta forma, se multiplica la seguridad de la información corporativa, al tiempo que se reducen los posibles errores humanos en la gestión de estos materiales, entre otras cuestiones.
Esta tribuna forma parte del Dosier Corresponsables: Por una IA Responsable, junto a Esade y Fundación SERES