Al parecer OpenAI teme lanzar una herramienta de detección de ChatGPT que podría hacer enfadar a los tramposos
El creador de ChatGPT, OpenAI, tiene nuevas funciones de búsqueda y voz en camino, pero también tiene una herramienta a su disposición que es supuestamente bastante buena para atrapar todos esos artículos falsos generados por IA que se ven en Internet hoy en día. La compañía ha estado sentada sobre ella durante casi dos años, y todo lo que tendría que hacer es activarla. Aun así, la empresa liderada por Sam Altman todavía está contemplando si lanzarla, ya que hacerlo podría enfadar a los mayores fans de OpenAI.
Esta no es esa defunta detección de IA que la compañía lanzó en 2023, sino algo mucho más preciso. OpenAI es reacia a lanzar esta herramienta de detección de IA, según un informe del Wall Street Journal del domingo basado en algunas fuentes anónimas dentro de la compañía.
El programa es efectivamente un sistema de marcas de agua de IA que imprime texto generado por IA con ciertos patrones que su herramienta puede detectar. Al igual que otros detectores de IA, el sistema de OpenAI puntuaría un documento con un porcentaje de probabilidad de que haya sido creado con ChatGPT.
Hablemos de la efectividad del programa
El supuesto programa es supuestamente 99.9% efectivo según documentos internos, según el WSJ. Esto sería mucho mejor que la efectividad declarada de otros software de detección de IA desarrollados en los últimos dos años. Eso probablemente se deba a que OpenAI tiene acceso a su propia receta secreta.
Los defensores internos del programa dicen que hará mucho para ayudar a los maestros a descubrir cuándo sus estudiantes han entregado tareas generadas por IA.
Supuestamente, la compañía ha estado sentada sobre este programa durante años debido a preocupaciones de que cerca de un tercio de su base de usuarios no lo aceptaría. Gizmodo se comunicó con OpenAI para obtener comentarios, pero no recibimos una respuesta inmediata. La compañía le dijo al WSJ que la tecnología tiene «importantes riesgos que estamos sopesando mientras investigamos alternativas».
El otro problema para OpenAI es la preocupación de que si lanza su herramienta lo suficientemente ampliamente, alguien podría descifrar la técnica de marcas de agua de OpenAI. También hay un problema de que podría estar sesgada contra hablantes no nativos de inglés.
Google también desarrolló técnicas similares de marcas de agua para imágenes y texto generados por IA, llamadas SynthID. Ese programa no está disponible para la mayoría de los consumidores, pero al menos la compañía es abierta sobre su existencia.
Tan rápido como las grandes tecnológicas están desarrollando nuevas formas de arrojar texto e imágenes generados por IA en Internet, las herramientas para detectar falsificaciones no son ni de cerca tan capaces. Los maestros y profesores están especialmente presionados para descubrir si sus estudiantes están entregando tareas escritas por ChatGPT. Las herramientas actuales de detección de IA como Turnitin tienen una tasa de fallo tan alta como del 15%. La compañía dijo que hace esto para evitar falsos positivos.