La inteligencia artificial (IA) promete ser una herramienta revolucionaria en las elecciones presidenciales de México en 2024, pero su potencial para alimentar campañas negras plantea serias preocupaciones éticas. Jorge Álvarez Máynez, candidato de Movimiento Ciudadano, ha señalado a AMLO por adherirse a «ideas de hace un siglo» en su defensa de las refinerías, ilustrando cómo la IA podría intensificar el juego electoral.
Especialistas en la materia, como el presidente del Consejo de Colegios en Ingeniería Informática de España, Fernando Suárez, advierten sobre los riesgos de la navegación en redes abiertas y la vulnerabilidad de los datos en tales entornos. En este contexto digital, la IA emerge como un recurso poderoso para modelar y manipular el discurso político, haciendo que la distinción entre información veraz y manipulada sea más difusa que nunca.
El «Informe de Riesgos Globales 2024» del Foro Económico Mundial ya identificó la polarización social como uno de los mayores riesgos, anticipando el uso de la desinformación para agravar divisiones sociales y políticas. En México, estrategas de campaña ven en la IA una herramienta para hacer su trabajo más eficiente y económico, aunque reconocen el peligro que representa cuando se utiliza para difamar a oponentes políticos.
Anna Laura Montiel Álvarez, directora general de Comunicación e Imagen, y Rafael Morales, estratega de campañas electorales, resaltan los beneficios y riesgos de integrar la IA en la política. Mientras que la IA puede optimizar la segmentación de mensajes y la comunicación con el electorado, su uso para crear campañas de desprestigio o alterar materiales de campaña puede tener un alto costo social y dañar la integridad del proceso electoral.
Sergio Navarro Barrientos, director de Preventa de IQSEC, propone estrategias de ciberseguridad para proteger a los candidatos de ataques virtuales. La prevención proactiva y la rápida reacción ante la usurpación de imagen o suplantación de identidad son cruciales para mantener la integridad de las campañas.