Una ilustración generada por IA de robots haciendo ciencia.
Agrandar / Una ilustración generada por IA de robots haciendo ciencia.

Ars Technica

El martes, Meta AI presentó una demostración de Galactica, un modelo de lenguaje a gran escala diseñado para «almacenar, combinar y justificar el conocimiento científico». Si bien se pretendía acelerar la escritura de literatura científica, los usuarios opuestos que realizaron pruebas descubrieron que esto también se podía hacer. producir tonterías realistas. Después de varios días de crítica éticaMeta desconectó la demostración, informa MIT Technology Review.

Los modelos de lenguaje grande (LLM) como GPT-3 de OpenAI aprenden a escribir texto estudiando millones de ejemplos y comprendiendo las relaciones estadísticas entre palabras. Como resultado, pueden producir documentos que suenan convincentes, pero estos trabajos también pueden estar llenos de falsedades y estereotipos potencialmente dañinos. Algunos críticos llaman a los LLM «loros estocásticos» por su capacidad para escupir texto de manera persuasiva sin comprender su significado.

Ingrese a Galactica, un LLM destinado a escribir literatura académica. Sus autores instruyeron a Galactica en «un corpus grande y curado del conocimiento científico de la humanidad», que incluye más de 48 millones de artículos, libros de texto y notas de conferencias, sitios web académicos y enciclopedias. Según el artículo de Galactica, los investigadores de meta-IA creían que estos datos supuestamente de alta calidad darían como resultado resultados de alta calidad.

Una captura de pantalla del sitio web Galactica de Meta AI antes del final de la demostración.
Agrandar / Una captura de pantalla del sitio web Galactica de Meta AI antes del final de la demostración.

meta IA

A partir del martes, los visitantes del sitio web de Galactica podrían ingresar indicaciones para crear documentos como revisiones de literatura, artículos wiki, notas de conferencias y respuestas a preguntas de acuerdo con los ejemplos proporcionados por el sitio. El sitio web presentó el modelo como «una nueva interfaz para acceder y manipular lo que sabemos sobre el universo».

Mientras que algunas personas encontraron la demostración prometedor y útilotros pronto descubrieron que cualquiera podía escribir racista o mensajes potencialmente ofensivospara crear con la misma facilidad contenido autorizado sobre estos temas. Por ejemplo, alguien lo usó. autor una entrada de wiki sobre un trabajo de investigación ficticio titulado «Los beneficios de comer vidrio triturado».

Incluso si la producción de Galactica no violara las normas sociales, el modelo podría atacar y escupir hechos científicos bien entendidos. inexactitudes B. fechas o nombres de animales incorrectos, que requieren un conocimiento profundo del tema a capturar.

como resultado meta dibujado la demostración de Galactica el jueves. Luego, el científico principal de IA de Meta, Yann LeCun tuiteó“La demostración de Galactica está fuera de línea por ahora. Ya no es posible divertirse abusando casualmente de ellos. ¿Contento?»

El episodio evoca un dilema ético compartido con la IA: cuando se trata de modelos generativos potencialmente dañinos, ¿depende del público usarlos de manera responsable o de los editores de los modelos para evitar el abuso?

Donde la práctica de la industria se encuentre entre estos dos extremos, probablemente variará según la cultura y la madurez de los modelos de aprendizaje profundo. En última instancia, la regulación gubernamental puede desempeñar un papel importante en la configuración de la respuesta.



DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí