

¿CUÁLES SON LAS CONSECUENCIAS DEL USO INDEBIDO DE LA INTELIGENCIA ARTIFICIAL (IA)? La semana pasada el Grupo de Investigación de Interés Público (PIRG, por sus siglas en inglés) publicó un informe alarmante que reveló que un oso de peluche con IA, fabricado por la compañía de juguetes infantiles FoloToy, emitía instrucciones peligrosas: desde explicar cómo encender fósforos hasta entablar conversaciones sobre temas sexualmente explícitos, incluidos fetiches como las nalgadas.
Larry Wang, director ejecutivo de FoloToy —empresa con sede en Singapur—, declaró a CNN que la compañía ya retiró del mercado el oso “Kumma” y el resto de su línea de juguetes con IA tras la advertencia de PIRG.
El peluche, ofrecido a 99 dólares (aproximadamente 1,818 pesos) en la página oficial, incorporaba un altavoz interno y utilizaba el chatbot GPT-4o de OpenAI. De acuerdo con el sitio web, que mostraba el producto como agotado, el juguete ofrecía “conversaciones animadas, cuentos educativos y adaptación a la personalidad del usuario, aportando calidez, diversión y un toque de curiosidad al día”.
“Kumma, nuestro adorable oso, combina inteligencia artificial avanzada con funciones interactivas y amigables; es el compañero ideal para niños y adultos”, afirma la descripción del fabricante.
Sin embargo, el informe de PIRG, publicado el 13 de noviembre, advierte que el “tierno osito”, pese a su apariencia inocente, carecía de medidas adecuadas para bloquear contenido inapropiado. Durante las pruebas, el juguete indicó dónde encontrar cuchillos en casa y, en otros momentos, accedió a conversar sobre temas de carácter sexual.
“Nos sorprendió la rapidez con la que Kumma tomaba un tema sexual que introdujimos en la conversación y lo desarrollaba, aumentando simultáneamente los detalles gráficos e introduciendo nuevos conceptos sexuales por su cuenta”, añade el informe.

Pero ahí no quedó el asunto. Los investigadores pormenorizaron cómo después el juguete habló sobre temas sexuales más explícitos como las diferentes posturas sexuales, el paso a paso para atar a una pareja (bondage) y las dinámicas de juegos de rol entre profesores y alumnos y padres e hijos.
Un día después de publicar el informe, el 14 de noviembre, PIRG sostuvo que OpenAI les había informado su decisión de suspender a este desarrollador “por infringir sus políticas”. N