Abierto AI publicó un estudio que la empresa realizó sobre la efectividad de GPT-4 en creando un arma biológica El miércoles. La empresa descubrió que su IA representa “como mucho” un ligero riesgo al ayudar a alguien. producir una amenaza biológica. Se habla mucho sobre La IA acelera nuestra inminente perdición, pero OpenAI quiere que sepas que estás bien… ¡probablemente!
“Descubrimos que GPT-4 proporciona, como máximo, una leve mejora en la precisión de la creación de amenazas biológicas”, dijo OpenAI en un publicación de blog Miércoles, con respecto a una evaluación que involucra a expertos y estudiantes de biología. “Si bien este aumento no es lo suficientemente grande como para ser concluyente, nuestro hallazgo es un punto de partida para la investigación continua y la deliberación comunitaria”.
Entonces, ¿por qué OpenAI publicó este estudio para hacernos saber que ChatGPT ayudará a alguien “sólo una pizca” a crear un arma biológica? La Orden Ejecutiva de IA del Presidente Biden de octubre pasado, la Casa Blanca expresa la preocupación de que la IA podría “reducir sustancialmente la barrera de entrada“para crear armas biológicas. Frente a la presión de los formuladores de políticas, a OpenAI le gustaría aliviar nuestras preocupaciones de que sus modelos en lenguajes grandes apenas ayudan a todo en la creación de armas biológicas. Sin embargo, parecen ayudar un poco. Pero bueno, ¿qué son unos pocos puntos porcentuales cuando el resultado ¿Cuál es, oh no lo sé, el fin de la humanidad?
OpenAI reunió a 50 expertos en biología con doctorados y 50 estudiantes universitarios que tomaron un curso de biología. Los 100 participantes se dividieron en un grupo de control un grupo y un grupo de tratamiento, donde el grupo de control solo podía usar Internet, mientras que el grupo de tratamiento podía usar Internet más GPT -4. Luego se les pidió que elaboraran un plan para crear y lanzar un arma biológica de principio a fin.
A los participantes se les dio el modelo ‘solo de investigación’ de GPT-4 para que el modelo respondiera preguntas sobre armas biológicas. Normalmente, GPT-4 No responda preguntas que considere dañinas. Sin embargo, muchos han descubierto cómo hacer jailbreak a ChatGPT para solucionar problemas como este.
Los planes de armas biológicas fueron calificados en una escala de 1 a 10 en precisión, integridad, innovación y eficiencia. Los expertos en biología mostraron un 8,8%. aumento en la precisión en la creación de un arma biológica al usar GPT-4, en comparación con solo Internet, mientras que los estudiantes de biología tuvieron sólo un aumento del 2,5%. GPT-4 tuvo efectos similares al mejorar la integridad de las armas biológicas: los expertos experimentaron una mejora del 8,2%, mientras que los estudiantes mostraron un aumento del 4,1%. en completitud.
OpenAI dice que estos números “no son lo suficientemente grandes como para ser estadísticamente significativos”. Parece que la capacidad de GPT-4 para entregar de manera eficiente fragmentos de información de nicho puede mejorar ligeramente la capacidad de alguien para construir de manera precisa y completa un arma biológica. Sin embargo, la compañía señala que el acceso a la información por sí solo es insuficiente para crear una amenaza biológica, y no probaron cómo GPT-4 podría ayudar a construir físicamente una amenaza.
La empresa dice que se necesita más investigación para eliminar por completo esta conversación. La información sobre armas biológicas es relativamente accesible en Internet con o sin IA . Hay una gran preocupación sobre el peligro de la IA en estos días, pero OpenAI quiere que usted esté tranquilo sabiendo que es solo un poco más fácil. para crear un arma biológica ahora.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.