La empresa estadounidense OpenAI dice que le preocupa que una función de voz realista para su inteligencia artificial pueda hacer que las personas se vinculen con el bot a costa de las interacciones humanas.
La empresa con sede en San Francisco citó literatura que, según dice, indica que conversar con una IA como uno podría hacerlo con una persona puede resultar en una confianza fuera de lugar y que la alta calidad de la voz GPT-4o puede exacerbar ese efecto.
“La antropomorfización implica atribuir comportamientos y características similares a los humanos a entidades no humanas, como los modelos de IA”, dijo OpenAI el jueves en un informe sobre el trabajo de seguridad que está realizando en una versión ChatGPT-4o de su IA.
“Este riesgo puede verse incrementado por las capacidades de audio de GPT-4o, que facilitan interacciones más parecidas a las humanas con el modelo”.
OpenAI dijo que notó que los evaluadores hablaban con la IA de maneras que insinuaban vínculos compartidos, como lamentarse en voz alta de que era su último día juntos.
Dijo que estos casos parecen benignos pero deben estudiarse para ver cómo podrían evolucionar en períodos más largos de tiempo.
Socializar con IA también podría hacer que los usuarios sean menos hábiles o inclinados a la hora de relacionarse con humanos, especuló OpenAI.
“La interacción prolongada con el modelo podría influir en las normas sociales”, afirma el informe.
“Por ejemplo, nuestros modelos son deferentes y permiten a los usuarios interrumpir y ‘tomar el micrófono’ en cualquier momento, lo que, si bien es esperable en una IA, sería antinormativo en las interacciones humanas”.
La capacidad de la IA para recordar detalles mientras conversa y realizar tareas también podría hacer que las personas dependan demasiado de la tecnología, según OpenAI.
“Las recientes preocupaciones compartidas por OpenAI sobre la posible dependencia del modo de voz de ChatGPT indican lo que muchos ya han comenzado a preguntar: ¿es hora de hacer una pausa y considerar cómo esta tecnología afecta la interacción y las relaciones humanas?”, dijo Alon Yamin, cofundador y director ejecutivo de la plataforma de detección antiplagio de inteligencia artificial Copyleaks.
Dijo que la IA nunca debería reemplazar la interacción humana real.
OpenAI afirmó que seguirá probando cómo las capacidades de voz en su IA podrían provocar que las personas se apeguen emocionalmente.
Los equipos que probaron las capacidades de voz de ChatGPT-4o también pudieron incitarlo a repetir información falsa y producir teorías conspirativas, lo que generó preocupaciones de que se le pudiera indicar al modelo de IA que lo hiciera de manera convincente.
OpenAI se vio obligada a disculparse con la actriz Scarlett Johansson en junio por usar algo muy similar a su voz en su último chatbot, arrojando luz sobre la tecnología de clonación de voz.
Aunque OpenAI negó que la voz que usaron fuera la de Johansson, su caso no fue ayudado por el CEO Sam Altman, quien destacó el nuevo modelo con un mensaje de una sola palabra en las redes sociales: “Ella”.
Johansson prestó su voz a un personaje de inteligencia artificial en la película “Her”, que Altman dijo anteriormente que era su película favorita sobre esa tecnología.
La película de 2013 está protagonizada por Joaquin Phoenix como un hombre que se enamora de una asistente de inteligencia artificial llamada Samantha.