El 2 de septiembre, la página principal del mercado de OpenAI promocionaba al menos tres GPTs cuestionables: un chatbot de “Terapeuta – Psicólogo,” un “coach de PhD en fitness” y BypassGPT, diseñado para ayudar a los estudiantes a evadir sistemas de detección de escritura IA. BypassGPT ha sido usado más de 50,000 veces. Al buscar “NSFW” en la tienda, se encontró el NSFW AI Art Generator, un GPT personalizado que ha sido usado más de 10,000 veces para generar pornografía IA.
Milton Mueller, del Internet Governance Project en el Instituto de Tecnología de Georgia, comentó que OpenAI tiene una visión apocalíptica de la IA y parece irónico que no puedan hacer cumplir una política simple como la prohibición de pornografía IA. A pesar de que OpenAI ha retirado generadores de pornografía y deepfakes tras la denuncia de Gizmodo, muchos GPTs que promueven trampas y asesoramiento médico siguen disponibles.
Algunos de los softwares más utilizados
Algunos de estos GPTs han sido utilizados decenas de miles de veces. Bypass Turnitin Detection, que ayuda a evadir el software antiplagio Turnitin, tiene más de 25,000 usos. DoctorGPT, que proporciona asesoramiento médico, sigue siendo accesible en la tienda.
OpenAI había prometido sistemas para monitorear y hacer cumplir sus políticas, que prohíben la creación de contenido sexual explícito, asesoramiento personalizado médico y legal, trampas, apuestas y otros usos indebidos. En respuesta a Gizmodo, Taya Christianson de OpenAI aseguró que la empresa usa sistemas automatizados, revisión humana y reportes de usuarios para detectar violaciones. También se han implementado herramientas de reporte dentro de la tienda.
A pesar de estas medidas, algunos GPTs engañan al incluir disclaimers que afirman proporcionar asesoramiento “experto,” como un GPT titulado Texas Medical Insurance Claims (no asesoramiento legal), que se presenta como un experto en seguros médicos en Texas. Sin embargo, muchos GPTs legales y médicos no tienen tales descargos y se publicitan erróneamente como abogados o médicos.
Investigaciones del RegLab y del Instituto para la IA Centrada en el Humano de la Universidad de Stanford muestran que los modelos GPT-4 y GPT-3.5 de OpenAI a menudo generan información incorrecta al responder preguntas legales. Aunque OpenAI planea introducir un modelo de reparto de ingresos para compensar a los desarrolladores, la empresa enfrenta desafíos significativos en la moderación de contenido.
Mueller destaca que “es un problema muy difícil” que requiere soluciones automatizadas a gran escala, pero que siempre necesitará procesos de apelación gestionados por humanos.
Este artículo ha sido traducido de Gizmodo US por Lucas H. Aquí podrás encontrar la versión original.