Desinformar con IA: los expertos evitan caer en el pesimismo. La masificación de la inteligencia artificial generativa como ChatGPT o Midjourney levantó las alarmas por su posible impacto en la desinformación.
Aunque expertos consultados por EFE son cautos y rehúsan caer en el pesimismo.
Algunos de estos modelos ya han producido imágenes falsas —pero muy verosímiles— sobre el papa o Donald Trump, sin embargo.
Google TV contiene ahora más de 800 canales de televisión gratis
Sobornos
A menor escala también sirvieron para acusar falsamente de sobornos a un alcalde australiano o de acoso sexual a un profesor en Washington.
Juan De Brigard, experto colombiano de la Fundación Karisma, encargada de promover los derechos humanos en el mundo digital, comparte a EFE Verifica dos inquietudes que atañen a la desinformación.
Por un lado, señala que esto genera un volumen «sin precedentes» de contenido que es muy difícil de filtrar.
Mientras que por otra parte, habla de que las herramientas están programadas para que lo que digan «parezca plausible», sin estar necesariamente apegadas a la verdad.
«No están hechas con ningún parámetro que resguarde o que se preocupe o que conserve la verdad», menciona De Brigard sobre las inteligencias artificiales generativas.
Sus algoritmos son entrenados con millones de datos e imágenes que pueden contener sesgos, con el peligro de que se puedan reproducir después en sus respuestas.
«Los datos históricos utilizados para entrenar a los sistemas reflejan un sesgo sistémico de larga data, y la IA replica, y en ocasiones incluso exacerba ese sesgo», aclara Maura Grossman, investigadora en la Escuela de Ciencias de la Computación de la Universidad de Waterloo (Canadá).
Incidencias documentadas
El repositorio de la organización ‘Contra Incidentes y controversias de IA, algoritmos y automatización’ que recopila incidentes relacionados con el mal uso de la inteligencia artificial (IA), demuestra cómo en algunos casos contribuyen a desinformar.
Por ejemplo, este año en Venezuela se usaron «deepfakes», videos en los que la inteligencia artificial crea avatares que parecen personas reales, para que presentadores de televisión sintéticos mintieran sobre la salud económica del país.
También en Estados Unidos, ChatGPT acusó falsamente a un profesor universitario de haber acosado a una alumna, citando un artículo inexistente del diario The Washington Post.
Con información de EFE
Foto referencial