CDMX a 15 de agosto, 2024.- En un desarrollo que mezcla la tecnología de vanguardia con preocupaciones éticas, xAI, la empresa de inteligencia artificial de Elon Musk, ha lanzado dos nuevos modelos para su chatbot Grok: Grok-2 y Grok-2 mini. Estos modelos, disponibles exclusivamente en la red social X (antes conocida como Twitter), han generado preocupación debido a su capacidad de generar y publicar imágenes realistas de personajes públicos, como políticos en situaciones comprometedoras.
Grok-2 y Grok-2 mini permiten a los usuarios generar imágenes que pueden ser tanto innovadoras como controvertidas. Por ejemplo, usuarios han compartido imágenes realistas de figuras como Donald Trump en actos de violencia o George W. Bush en situaciones comprometedoras. Este tipo de representaciones, accesibles a través de una suscripción Premium o Premium Plus, plantean serios interrogantes sobre la ética de la IA y los límites de la representación digital.
El lanzamiento de estas herramientas ocurre en un momento delicado, en medio de las elecciones presidenciales en Estados Unidos, aumentando el riesgo de que sean utilizadas para influir indebidamente en el electorado. La falta de indicadores claros que distingan las imágenes generadas por IA de las reales puede confundir a los usuarios, difundiendo potencialmente desinformación.
El Foro Económico Mundial ya ha advertido en su Informe sobre Riesgos Globales 2024 que la desinformación será una de las mayores amenazas en los próximos años, especialmente en contextos electorales. La capacidad de las IA generativas de influir en la opinión pública y socavar los procesos democráticos es una preocupación creciente.
Ante estos riesgos, surge la necesidad de establecer regulaciones más estrictas y transparentes. La empresa xAI ha mencionado que está trabajando para incorporar las capacidades de Grok-2 en otras herramientas, lo que podría incluir mejoras en la detección y el manejo de la desinformación, aunque los detalles siguen siendo escasos.
Mientras tanto, la comunidad global y los reguladores tendrán que considerar cómo equilibrar los beneficios de la IA con la necesidad de proteger el espacio público de manipulaciones y falsedades.