OpenAI ha desarrollado una herramienta capaz de detectar con un 99% de certeza si un texto ha sido generado por ChatGPT. Sin embargo, la empresa aún no ha decidido lanzarla debido a un debate interno sobre su impacto en diversas áreas, incluyendo la posible reducción de usuarios que utilizan su servicio.
Según un informe de The Wall Street Journal, este proyecto lleva aproximadamente dos años en desarrollo y emplea un método de marca de agua en el texto para identificar contenido generado específicamente por esta IA. A diferencia de una herramienta anterior que tenía una baja tasa de precisión, esta nueva herramienta promete una detección altamente precisa.
Ventajas y complejidades de la herramienta
La herramienta utiliza pequeños cambios en la selección de palabras por parte de ChatGPT para crear una marca de agua «invisible» para los usuarios, pero detectable mediante una herramienta separada. Un portavoz de OpenAI explicó a TechCrunch que, aunque técnicamente prometedor, este método conlleva riesgos importantes, como ser eludido por malos actores y afectar a grupos que no hablan inglés.
A pesar de su alta precisión contra manipulaciones localizadas, OpenAI reconoce que la herramienta no es robusta frente a manipulaciones globales, como el uso de sistemas de traducción o la reformulación con otros modelos generativos. Esto ha llevado a la empresa a tomar un «enfoque deliberado» respecto a su lanzamiento.
Esfuerzos previos y limitaciones
En enero de 2023, OpenAI lanzó AI Text Classifier, una herramienta destinada a identificar si un texto había sido escrito por una IA, especialmente en contextos educativos. Sin embargo, debido a su baja tasa de precisión y limitaciones como clasificar incorrectamente contenido en español, la herramienta fue cerrada meses después.
OpenAI continúa evaluando el lanzamiento de su nueva herramienta de detección, sopesando los beneficios de una identificación precisa contra los riesgos potenciales y el impacto en sus usuarios.