El sistema de inteligencia artificial generativa ChatGPT respondió a sus usuarios de manera extraña y sin sentido durante horas entre este martes 20 y miércoles 21 de febrero, sin que hasta ahora se conozcan las razones del fallo.
OpenAI, la empresa matriz de ChatGPT, no explicó qué le sucedió a su herramienta estrella, considerada ya un referente del sector tecnológico. “Estamos investigando informes de respuestas inesperadas desde ChatGPT”, reportó OpenAI en el sitio web que indica el estado del servicio.
ChatGPT estaba dando respuestas “peculiares”, inventando palabras, escribiendo frases incompletas y en general palabrería sin sentido, reportaron desarrolladores en un foro de OpenAI. “Se siente como si mi GPT hubiera sido embrujado”, lamentó un programador.
CHATGPT PASÓ MÁS DE 16 HORAS RESPONDIENDO SIN SENTIDO
Más de 16 horas después de que se reportara el problema, OpenAI actualizó su sitio con un mensaje en el que anunció el restablecimiento del servicio con normalidad. ChatGPT es un modelo hermano de InstructGPT, que está entrenado para seguir una instrucción en un aviso y proporcionar una respuesta detallada.
“Entrenamos este modelo utilizando el aprendizaje de refuerzo de la retroalimentación humana (RLHF), utilizando los mismos métodos que InstructGPT, pero con ligeras diferencias en la configuración de la recopilación de datos. Entrenamos un modelo inicial utilizando un ajuste fino supervisado: los entrenadores humanos de inteligencia artificial proporcionaron conversaciones en las que jugaron en ambos lados: el usuario y un asistente de inteligencia artificial”, indica la empresa.
Añade: “Les dimos a los formadores acceso a sugerencias escritas por modelos para ayudarles a redactar sus respuestas. Mezclamos este nuevo conjunto de datos de diálogo con el conjunto de datos InstructGPT, que transformamos en un formato de diálogo”.
RESPUESTAS PLAUSIBLES, PERO INCORRECTAS
La empresa explica que “ChatGPT a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido. Solucionar este problema es un desafío, ya que: (1) durante el entrenamiento de RL, actualmente no hay una fuente de verdad; (2) entrenar al modelo para que sea más cauteloso hace que rechace las preguntas que puede responder correctamente; y (3) el entrenamiento supervisado engaña al modelo porque la respuesta ideal depende de lo que el modelo sepa, en lugar de lo que sabe el demostrador humano.
ChatGPT es sensible a los ajustes en el fraseo de entrada o a intentar el mismo mensaje varias veces. Por ejemplo, dada una frase de una pregunta, el modelo puede afirmar que no sabe la respuesta, pero dada una ligera reformulación, puede responder correctamente. N