DeepSeek: Exposición de datos y riesgos de seguridad en la IA generativa

Por Juan Pablo Ojeda

 

En las últimas semanas, DeepSeek, la plataforma china de inteligencia artificial generativa, ha cautivado a millones de usuarios con sus capacidades, pero también ha levantado alarmas por fallas de seguridad que podrían tener consecuencias globales. Recientemente, se descubrió que la plataforma había dejado expuesta una enorme base de datos, lo que ha generado graves preocupaciones sobre el manejo de la información de sus usuarios.

La investigación llevada a cabo por la empresa de ciberseguridad Wiz reveló que DeepSeek, un competidor emergente de modelos populares como ChatGPT, había tenido una brecha significativa en su seguridad. La base de datos expuesta contenía más de un millón de registros de usuarios, incluyendo claves de autenticación y detalles sensibles, los cuales fueron fácilmente accesibles. Este tipo de error básico ha sido duramente criticado, ya que revela una falta de madurez en la plataforma para manejar datos confidenciales.

Según Ami Luttwak, director de tecnología de Wiz, el nivel de acceso que tuvieron los investigadores muestra lo alarmante que fue la exposición de información. Aunque la base de datos fue asegurada rápidamente, el incidente plantea dudas sobre si actores malintencionados pudieron haber accedido a la información antes de su corrección. El acceso fácil a estos datos pone de manifiesto los riesgos que enfrentan los usuarios de plataformas de IA emergentes que aún no cuentan con protocolos de seguridad sólidos.

Este incidente también subraya las preocupaciones sobre la posible influencia geopolítica de DeepSeek. Se ha informado que la plataforma está enviando información sensible, incluidos datos personales de los usuarios, a ByteDance, la empresa matriz de TikTok, lo que genera inquietudes sobre la privacidad y el posible uso indebido de la información por parte del gobierno chino. Además, DeepSeek ha sido criticada por sus prácticas de censura, ya que se niega a proporcionar respuestas sobre eventos políticos sensibles, como la masacre de Tiananmén en 1989, favoreciendo narrativas alineadas con el régimen chino.

La alarma no solo está sonando en Estados Unidos, donde se emitieron advertencias de seguridad para su personal, sino también en Europa, donde autoridades como el regulador de protección de datos en Italia están cuestionando las prácticas de la empresa sobre el origen de sus datos de entrenamiento y su cumplimiento con las leyes locales.

Por si fuera poco, el debate sobre las implicaciones éticas de estas plataformas crece a medida que más usuarios interactúan con DeepSeek. Los expertos en privacidad señalan que muchas personas no son conscientes de cómo se entrenan estos sistemas o de la influencia que podrían tener en la información que consumen.

A medida que DeepSeek sigue ganando popularidad, las preocupaciones sobre su manejo de datos y las posibles repercusiones geopolíticas parecen solo estar comenzando. Los usuarios y reguladores tendrán que tomar en cuenta no solo la innovación de estas tecnologías, sino también los riesgos de seguridad y las implicaciones éticas que conllevan.

 

También te podría interesar

Deja un comentario