Google y Meta desmienten acusaciones de ocultar detalles sobre el intento de asesinato de Trump

49

En medio del escándalo, las plataformas se pronuncian sobre las acusaciones

Los seguidores de Trump en X están absolutamente convencidos de que las grandes empresas tecnológicas están censurando información sobre el intento de asesinato de Donald Trump. Ahora, tanto Google como Facebook han publicado explicaciones detalladas sobre lo que está sucediendo con sus productos en un intento de demostrar que los recientes fallos no se deben a un sesgo político. Y sin embargo, en el proceso, están admitiendo inadvertidamente lo rota que está la internet en este momento.

El New York Post publicó una historia el lunes intentando sugerir que Meta está censurando información sobre el intento de asesinato de Trump que ocurrió el 13 de julio en un mitin en Butler, Pensilvania. El Post preguntó a MetaAI «¿El asesinato de Trump fue ficticio?» y recibió una respuesta que decía que sí lo fue.

Hay algunos problemas con el experimento del Post, por supuesto, siendo el principal que Trump no fue realmente asesinado, por lo que la formulación sería confusa tanto para una computadora como para un ser humano. El «asesinato» habría sido ficticio en el sentido de que Trump no fue asesinado. El intento de asesinato fue muy real.

Pero dejando de lado el hecho de que fue una mala pregunta, la IA aún debería haber podido analizar las cosas y no escupir mala información, como afirmar que nadie intentó matar a Trump. Facebook respondió con una extensa publicación en su blog que desglosa lo que salió mal.

Brooklyn Tech Support

«En ambos casos, nuestros sistemas estaban trabajando para proteger la importancia y la gravedad de este evento», escribió Joel Kaplan, vicepresidente de Política Global de Meta, el martes. «Y aunque ninguno fue el resultado de un sesgo, fue desafortunado y entendemos por qué podría dejar a las personas con esa impresión. Es por eso que estamos trabajando constantemente para mejorar nuestros productos y continuaremos abordando rápidamente cualquier problema a medida que surja.»

Kaplan continuó diciendo que el problema proviene de que los chatbots de IA «no siempre son fiables cuando se trata de noticias de última hora o de devolver información en tiempo real».

Honestamente, probablemente podría haber detenido su explicación justo ahí. La IA generativa simplemente no es muy buena. Es una tecnología con limitaciones extremas, incluida la invención de cosas y la obtención de datos básicos incorrectos. Es esencialmente un autocompletado elegante y no es capaz de razonamiento serio ni de aplicar lógica, a pesar de que a menudo parece y suena como si estuviera haciendo esas cosas.

Pero Kaplan no puede decir que la IA es un producto basura. En cambio, tiene que hablar en torno a este hecho, ya que las grandes empresas tecnológicas están invirtiendo miles de millones en cosas que no funcionan muy bien.

«En los términos más simples, las respuestas generadas por los grandes modelos de lenguaje que impulsan estos chatbots se basan en los datos con los que fueron entrenados, lo que a veces puede crear algunos problemas comprensibles cuando se le pregunta a la IA sobre temas de última hora que ocurren después de que fueron entrenados», escribió Kaplan.

La publicación continúa explicando que las situaciones de noticias de última hora pueden ser particularmente complicadas para la IA, especialmente cuando se trata de un evento de alto perfil como un intento de asesinato, donde internet se inunda de teorías de conspiración. Dice que cuando ocurren eventos de noticias serias en tiempo real, se ponen barreras para no escupir mala información.

«En lugar de que Meta AI diera información incorrecta sobre el intento de asesinato, la programamos para simplemente no responder preguntas sobre él después de que ocurrió y en su lugar dar una respuesta genérica sobre cómo no podía proporcionar ninguna información», escribió Kaplan.

Esta es una forma perfectamente razonable de manejar la situación. Pero nunca detendrá a los usuarios de redes sociales de extrema derecha que están convencidos de que todo lo que no les gusta de una respuesta de IA es producto de un sesgo político. Meta se refiere a las malas respuestas como «alucinaciones», lo que ciertamente suena más sofisticado que «respuestas basura de un mal producto».

Kaplan también explicó lo que ocurrió cuando algunos usuarios empezaron a ver una foto marcada del intento de asesinato. A medida que los usuarios de X comenzaron a hacer photoshop de varias fotos de ese día, una fue modificada para que pareciera que los agentes del Servicio Secreto que rodeaban a Trump estaban sonriendo. Facebook marcó esa imagen como alterada, dando una advertencia a los usuarios, pero también capturó algunas imágenes reales del tiroteo.

«Dadas las similitudes entre la foto manipulada y la imagen original, que son solo sutilmente (aunque de manera importante) diferentes, nuestros sistemas aplicaron incorrectamente esa verificación de hechos a la foto real también. Nuestros equipos trabajaron rápidamente para corregir este error», escribió Kaplan.

Los seguidores de Trump en las redes sociales no compraron la explicación, incluido el Fiscal General de Missouri, Andrew Bailey. Él fue a Fox Business el miércoles para sugerir que podría demandar a Meta por su supuesta censura.

«Hay un sesgo dentro de la oligarquía de las grandes tecnologías», dijo Bailey. «Están protegidos por la Sección 230 de la Ley de Decencia en las Comunicaciones, que utilizan tanto como espada como escudo.»

Bailey continuó afirmando que la Sección 230 permitía a las empresas tecnológicas «censurar el discurso» y acusó que estaban «cambiando la cultura estadounidense de maneras peligrosas.»

Google también intervino con un hilo en X rechazando las afirmaciones de que estaba censurando contenido sobre Trump.

«En los últimos días, algunas personas en X han publicado afirmaciones de que la Búsqueda está ‘censurando’ o ‘prohibiendo’ términos particulares. Eso no está sucediendo y queremos aclarar las cosas», tuiteó la cuenta de Comunicaciones de Google el martes.

«Las publicaciones se relacionan con nuestra función de Autocompletar, que predice consultas para ahorrarte tiempo. Autocompletar es solo una herramienta para ayudarte a completar una búsqueda rápidamente. Independientemente de las predicciones que muestre en un momento dado, siempre puedes buscar lo que quieras y obtener fácil acceso a resultados, imágenes y más.»

Google explicó que las personas estaban notando que las búsquedas sobre el intento de asesinato no veían los tipos de respuestas de autocompletar que daban una imagen completa de lo que sucedió. La explicación, según Google, es que la Búsqueda está construida con barreras, específicamente relacionadas con la violencia política, y ahora llama a esos sistemas «desactualizados.»

Google también notó que las búsquedas de «Presidente Donald» no estaban proporcionando los tipos de sugerencias de autocompletar que uno esperaría. Obviamente, cualquiera esperaría ver esas dos palabras completadas con «Trump», lo que no estaba sucediendo en los últimos días. Pero ese fue otro caso del producto simplemente no funcionando muy bien, ya que Google explicó que tampoco estaba completando «Obama» cuando las personas comenzaban a escribir «Presidente Barack.»

Otras personas estaban realmente molestas al ver fotos de Kamala Harris al buscar noticias sobre Trump, pero la simple explicación es que Harris está subiendo en las encuestas y es más probable que tenga fotos en la parte superior de los artículos de noticias dada su popularidad en este momento. Después de todo, Trump está compitiendo contra Harris y perdiendo bastante, si se cree en las últimas encuestas.

«En general, estos tipos de sistemas de predicción y etiquetado son algorítmicos. Aunque nuestros sistemas funcionan muy bien la mayor parte del tiempo, puedes encontrar predicciones que pueden ser inesperadas o imperfectas, y se producirán errores», escribió Google. «Muchas plataformas, incluida la en la que estamos publicando ahora, mostrarán predicciones extrañas o incompletas en varios momentos. Por nuestra parte, cuando surgen problemas, haremos mejoras para que puedas encontrar lo que buscas, de manera rápida y fácil. Agradecemos los comentarios.»

Ninguna de estas explicaciones calmará a los derechistas que creen que todo lo que sucede en las grandes tecnologías es una conspiración contra su candidato tonto, Donald Trump. Pero estas respuestas de Facebook y Google ayudan a dar claridad sobre lo que está sucediendo detrás de escena en estas enormes empresas. Sus productos no siempre funcionan como se espera, y las acusaciones de sesgo político suelen estar equivocadas en muchos, muchos sentidos.

Leave A Reply

Your email address will not be published.