¿Google censura a Jesús? Conoce a Buda, Satán, Mahoma, pero no al salvador cristiano


¿Google censura a Jesús? Conoce a Buda, Satán, Mahoma, pero no al salvador cristiano

Google Jesus Mahoma


Google Home y Alexa, de Amazon, prometen dar respuesta a todas las preguntas de la vida, como dónde puedes ordenar una pizza o hallar fotos de gatos. Pero ahora un hombre de Tennessee jura que su asistente personal electrónico no sabe quién es Jesús.

David Sams, residente de un suburbio de Nashville, comentó a medios locales que le preguntó a su Google Home: “¿Quién es Jesucristo?”, y recibió gran variedad de respuestas.

“Google sabía quién era yo, pero Google no sabía quién fue Jesús. Google no sabía quién fue Jesucristo, y Google no sabía quién era Dios”, les dijo Sams a los periodistas.

La revelación provocó furor entre las personas de extrema derecha en los medios sociales, quienes fueron rápidos en acusar a los objetos inanimados de ser el centro de una conspiración islámica.

Un usuario de YouTube publicó un video para demostrar que su dispositivo puede identificar personajes religiosos como Alá, Brahma, Krishna, Moisés y Joseph Smith, pero fue incapaz de dar una respuesta clara sobre quién es Jesucristo, respondiendo: “He aquí algunos resultados de la web”. Otros usuarios de medios sociales han publicado videos de asistentes virtuales identificando a personajes religiosos como Buda y Satán.

LEE TAMBIÉN: La afición por las teorías conspirativas tiene una explicación y preocupantes consecuencias

“Google Home está ansioso de hablar de Mahoma, pero no sabe quién es Jesús… La islamización de Occidente está más que en marcha”, tuiteó Mark Collett, quien se autodenomina activista político británico.

Alex Jones, quien es un teórico de la conspiración y conduce el programa de radio Info Wars, declaró que Google censura a Jesús.

Algunos usuarios de medios sociales también se fueron contra Alexa, de Amazon, afirmando que ella había llamado a Jesús un “personaje ficticio”.

Tanto Alexa, de Amazon, como Google Home están diseñados para responder una gran variedad de preguntas, pero muchos observadores señalan que todavía batallan para sostener una conversación y en ocasiones pueden malinterpretar preguntas complejas. Estos problemas técnicos han llevado a algunos contratiempos.

Por ejemplo, cuando una niña de seis años en Texas le preguntó a Alexa si jugaría con ella y su casa de muñecas, el dispositivo le ordenó una casa de muñecas de $170 dólares. En un incidente distinto, un niño pequeño le pidió a Alexa que le tocara una canción infantil, y la asistente virtual tocó una canción sobre pornografía.

Publicado en cooperación con Newsweek / Published in cooperation with Newsweek

Ingresa las palabras claves y pulsa enter.