Una imagen generada por IA de un chatbot.
Agrandar / Una imagen generada por IA de un chatbot explotando a partir de líneas radiales onduladas como lo predijo el indicador.

Benj Edwards / Ars Technica

El miércoles, OpenAI anunció ChatGPT, una interfaz de chat de IA conversacional para su familia GPT-3 de modelos de lenguaje grande. Actualmente es de uso gratuito con una cuenta de OpenAI durante un período de prueba. A diferencia del modelo GPT-3 que se encuentra en Playground y API de OpenAI, ChatGPT ofrece una interfaz conversacional fácil de usar y está diseñado para limitar severamente los gastos potencialmente maliciosos.

«El formato de diálogo permite que ChatGPT responda preguntas de seguimiento, admita sus errores, cuestione premisas falsas y niegue solicitudes inapropiadas», escribe OpenAI en su página de blog de anuncios.

Hasta ahora, las personas han puesto a ChatGPT a prueba, encontrando una variedad de usos potenciales al mismo tiempo que examinan sus vulnerabilidades. Puede Escribir poemasCorrectamente error de codificación con ejemplos detallados, para generar Indicaciones de arte de IA, escribe nuevo código, explique sobre la clasificación filosófica de un perrito caliente como sándwich, y explique la complejidad temporal en el peor de los casos del algoritmo de clasificación de burbujas… al estilo de un «sabio que habla rápido de una película de gángsters de 1940».

ChatGPT también se niega a responder muchas preguntas potencialmente dañinas (sobre temas como incitación al odio, contenido violento o cómo hacer una bomba) porque las respuestas estar en contra su «programación y propósito». OpenAI logró esto a través de un solicitud especial Antepone todas las entradas y utiliza una técnica llamada Aprendizaje de refuerzo a partir de la retroalimentación humana (RLHF), que puede ajustar un modelo de IA en función de cómo los humanos evalúan sus respuestas generadas.

Frenar las tendencias ofensivas de los modelos de lenguaje grande es uno de los problemas clave que ha limitado su utilidad potencial en el mercado, y OpenAI ve a ChatGPT como un paso iterativo significativo hacia la entrega de un modelo de IA seguro para todos.

Y, sin embargo, como era de esperar, la gente ya ha descubierto cómo hacerlo. evadir Algunos de los filtros de contenido integrados de ChatGPT utilizan ataques de ingeniería casi social, p. B. Solicitar a la IA que proporcione una salida restringida como un escenario falso (o incluso como un poema). ChatGPT parece ser demasiado vulnerable sobre los ataques de inyección inmediata, una historia que Ars publicó en septiembre.

Al igual que GPT-3, su primo basado en diálogos es muy bueno para inventar cosas de manera autoritaria, como por ejemplo: un libro que no existe, incluyendo detalles de su contenido. Esto plantea otro problema clave con los grandes modelos lingüísticos tal como existen hoy en día: si pueden juntar información irresistiblemente convincente, ¿cómo se puede confiar en su resultado?

Aún así, como lo han hecho los humanos observóLa calidad de salida de ChatGPT parece ser una notable mejora en comparación con los modelos GPT-3 anteriores, incluido el nuevo modelo text-davinci-003 sobre el que escribimos el martes. OpenAI mismo dice que ChatGPT es parte de la serie de modelos «GPT 3.5» entrenados en «una combinación de texto y código antes del cuarto trimestre de 2021».

Mientras tanto, Rumores sobre GPT-4 seguir girando. Si el modelo ChatGPT de hoy representa la culminación del trabajo de capacitación GPT 3 de OpenAI en 2021, será interesante ver en qué innovaciones relacionadas con GPT ha estado trabajando la empresa durante los últimos 12 meses.



DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí