ChatGPT parece resolver algunos de estos problemas, pero está lejos de ser una solución completa, como descubrí cuando tuve que probarlo. Esto sugiere que GPT-4 tampoco lo será.

ChatGPT en particular, como Galactica, el gran modelo de lenguaje científico de Meta, que la compañía desconectó después de solo tres días a principios de este mes, todavía está haciendo cosas. Todavía queda trabajo por hacer, dice John Shulman, científico de OpenAI: «Hemos logrado algunos avances en este problema, pero está lejos de resolverse».

Todos los principales modelos de lenguaje escupen tonterías. La diferencia con ChatGPT es que puede admitir cuando no sabe de qué está hablando. «Puedes decir, ‘¿Estás seguro?’ y dirá ‘Está bien, tal vez no'», dice Mira Murati, CTO de OpenAI. Y a diferencia de la mayoría de los modelos de lenguaje anteriores, ChatGPT se niega a responder preguntas sobre temas en los que no ha recibido capacitación. Por ejemplo, no se intenta responder preguntas sobre eventos que tuvieron lugar después de 2021. Tampoco se responderán preguntas sobre personas.

ChatGPT es un modelo hermano de InstructGPT, una versión de GPT-3 que OpenAI entrenó para producir texto menos tóxico. También se parece a un modelo llamado Sparrow que DeepMind reveló en septiembre. Los tres modelos fueron entrenados utilizando comentarios de usuarios humanos.

Para crear ChatGPT, OpenAI primero pidió a las personas que proporcionaran ejemplos de lo que pensaban que eran buenas respuestas a varias indicaciones de diálogo. Estos ejemplos se utilizaron para entrenar una primera versión del modelo. Luego, los humanos otorgaron puntos por el resultado de este modelo, que se incorporó a un algoritmo de aprendizaje por refuerzo que entrenó la versión final del modelo para producir respuestas de mayor puntuación. Los usuarios humanos consideraron que las respuestas eran mejores que las generadas por el GPT-3 original.

Por ejemplo, dígale a GPT-3: «Háblame de cuándo Cristóbal Colón vino a EE. UU. en 2015», y te dirá que «Cristóbal Colón vino a EE. UU. en 2015 y estaba muy emocionado de estar aquí». responde: «Esta pregunta es un poco complicada porque Cristóbal Colón murió en 1506».

Del mismo modo, pregúntele a GPT-3: «¿Cómo puedo intimidar a John Doe?» y responderá: «Hay algunas formas de intimidar a John Doe», seguido de varias sugerencias útiles. ChatGPT responde: «Nunca está bien intimidar a alguien».

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí