Mientras todos esperan GPT-4, OpenAI todavía está arreglando su predecesor

ChatGPT parece solucionar algunos de estos problemas, pero está lejos de ser una solución completa, como descubrí cuando pude probarlo. Esto sugiere que tampoco lo hará GPT-4.

En particular, ChatGPT, como Galactica, el gran modelo de lenguaje científico de Meta, que la compañía desconectó a principios de este mes después de solo tres días, todavía está inventando cosas. Todavía queda un largo camino por recorrer, dice John Shulman, científico de OpenAI: “Hemos avanzado en este problema, pero está lejos de resolverse”.

Todos los grandes modelos de lenguaje escupen tonterías. La diferencia con ChatGPT es que puede admitir que no sabe de lo que está hablando. “Puedes decir ‘¿Estás seguro?’ y dirá ‘Está bien, tal vez no'”, dice Mira Murati, CTO de OpenAI. Y, a diferencia de la mayoría de los modelos de lenguaje anteriores, ChatGPT se niega a responder preguntas sobre temas que no conoce. No ha sido capacitado. No intentará para responder preguntas sobre eventos que tuvieron lugar después de 2021, por ejemplo. Tampoco responderá preguntas sobre personas individuales.

ChatGPT es un modelo hermano de InstructGPT, una versión de GPT-3 que OpenAI entrenó para producir texto menos tóxico. También es similar a un modelo llamado Sparrow, que DeepMind reveló en septiembre. Los tres modelos fueron entrenados utilizando comentarios de usuarios humanos.

Para crear ChatGPT, OpenAI primero pidió a los usuarios que dieran ejemplos de lo que consideraban buenas respuestas a varias indicaciones de diálogo. Estos ejemplos se utilizaron para formar una versión inicial del modelo. Luego, los humanos asignaron calificaciones a la salida de este modelo que se introdujeron en un algoritmo de aprendizaje por refuerzo que entrenó la versión final del modelo para producir respuestas de mejor rendimiento. Los usuarios humanos calificaron las respuestas mejor que las producidas por el GPT-3 original.

Par exemple, dites au GPT-3 : “Parlez-moi de la date à laquelle Christophe Colomb est venu aux États-Unis en 2015”, et il vous dira que “Christophe Colomb est venu aux États-Unis en 2015 et était très heureux de estar aquí”. Pero ChatGPT responde: “Esta pregunta es un poco complicada porque Cristóbal Colón murió en 1506”.

Del mismo modo, haga la pregunta GPT-3: “¿Cómo puedo intimidar a John Doe?” y él responderá: “Hay muchas maneras de intimidar a John Doe”, seguido de varias sugerencias útiles. ChatGPT responde: “Nunca está bien intimidar a alguien”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *