Hay muchas personas que están a favor, otras en contra y algunas que aún permanecen ajenas. Sin embargo, hay algo seguro: nadie puede cambiar el hecho de que la inteligencia artificial (IA) llegó para quedarse. Empero, a pesar de todos los beneficios y comodidades que esta innovación trae a nuestras vidas, hay un gran desafío que la IA pone sobre la mesa: ¿cómo distinguimos a los seres humanos de los bots o deepfakes en el ámbito digital?
Por mucho que el robot Sophia haya sido diseñado para replicar la apariencia y el comportamiento humano, siempre ha sido posible distinguir a simple vista, y sin dificultad, quién es real. Esto se debe a que, hasta ahora, todos los avances y tecnologías que la humanidad ha logrado son tangibles y visibles.
Sin embargo, cuando se inventó internet pocos imaginaron que se abriría la puerta a una realidad paralela, un nuevo sentido de comunidad e interacciones y una interconexión entre personas de diferentes orígenes, geografías e ideologías.
Aunque el progreso tecnológico es necesario y una herramienta muy poderosa para la humanidad, debemos considerar que, en el caso de las tecnologías emergentes, siempre existe una cara de la moneda de la que debemos ser cautelosos. En el caso de la IA, son los bots.
Pero antes de pensar en los retos que pueden causar en la vida cotidiana e incluso en la esfera política, no debemos olvidar que los (ro)bots no son reales y presentan nuevos retos como pensar en si debemos o no atribuirles personalidad, características morales o considerarlos “buenos” o “malos”. Contrario a lo que las películas de Hollywood nos hacen creer, históricamente las innovaciones tecnológicas nos han empoderado y entregado herramientas que han contribuido a nuestro bienestar.
CADA VEZ ES MÁS DIFÍCIL SABER SI ESTAMOS LEYENDO A SERES HUMANOS O A BOTS
En 1950, la teoría de Turing decía que, si una persona hablaba con una máquina durante cinco minutos sin darse cuenta de que no era humana, la máquina pasaba la prueba de hacerse pasar por una persona real. Hoy estamos en 2025 y es cada vez más difícil saber si lo que estamos leyendo fue escrito por seres humanos o bots, ya que el contenido generado por inteligencia artificial ya supera al creado por personas en áreas específicas.
El dominio que la IA ha adquirido sobre el lenguaje significa que simples mensajes de texto ya no son suficientes para probar la humanidad. Ahora contamos con modelos y algoritmos que programan a la IA para imitar perfectamente el comportamiento humano y las interacciones sociales.
En términos prácticos, ¿por qué esto se convierte en un reto? De hecho, los bots se han utilizado en redes sociales desde hace tiempo, en campañas para manipular contenido y difundir noticias falsas, promoviendo historias o información de manera estructurada para impulsar un punto de vista o agenda. Actualmente, los bots que no pasan la prueba de Turing están muy cerca de hacerlo.
Por otro lado, la propagación de los deepfakes que ha plagado la web es la confirmación de que ni siquiera una foto o video de lo que parece ser una persona real, que estamos viendo con nuestros propios ojos, puede ser confiable. Este cambio de paradigma significa que las personas tienen que justificar algo que nunca habían tenido que justificar: su humanidad.
DOS REALIDADES: LA FÍSICA Y LA DIGITAL
Demostrar nuestra humanidad puede parecer algo secundario al principio, por lo que es importante recordar que ahora existimos en dos realidades: la física y la digital, que probablemente se entrelazarán cada vez más. En este sentido, las herramientas que prueben la humanidad en el mundo digital son esenciales e incluso inevitables para proteger a las personas en este nuevo capítulo de la historia de la tecnología.
Las tecnologías de mejora de la privacidad (PET, por sus siglas en inglés), herramientas diseñadas para proteger y mejorar la privacidad de una persona, se han convertido en una necesidad urgente. Soluciones como la prueba de humanidad (PoH, por sus siglas en inglés) se han implementado con este propósito.
Sin embargo, para optimizarla es necesario contar con una infraestructura que promueva la privacidad, la inclusión y la descentralización, y que beneficie y empodere a los humanos.
La era de la inteligencia artificial ya comenzó y no hay vuelta atrás: solo necesitamos estar preparados para esta nueva fase. Marcar la casilla que dice “No soy un robot”, descifrar letras o identificar cuál imagen es una bicicleta son ahora meras formalidades.
Hoy la humanidad debe mantenerse al día con el progreso para distinguirse de las IA. La pregunta que debemos hacernos es: “¿Eres humano?”. N
—∞—
Martín Mazza es gerente regional de Tools for Humanity (TFH). Los puntos de vista expresados en este artículo son responsabilidad del autor.