Una imagen generada por IA de alguien saliendo de un edificio.
Agrandar / Una imagen generada por IA de una persona que sale de un edificio, rompiendo la convención de persianas verticales.

Ars Technica

El miércoles estabilidad AI Anunciado Permitiría a los artistas eliminar su trabajo del conjunto de datos de entrenamiento para un próximo lanzamiento de Stable Diffusion 3.0. El movimiento se presenta como una defensa de los artistas llamada Spawning tuiteó que Stability AI cumpliría con las solicitudes de exclusión voluntaria recopiladas en su sitio web Have I Been Trained. Sin embargo, los detalles de la implementación del plan siguen siendo incompletos y poco claros.

En resumen, Stable Diffusion, un modelo de síntesis de imágenes de IA, ganó su capacidad de generar imágenes «aprendiendo» de un gran conjunto de datos de imágenes extraídas de Internet sin pedir permiso a los titulares de derechos. Algunos artistas se molestan por esto porque la difusión estable crea imágenes que pueden competir con los artistas humanos en cantidades ilimitadas. Hemos estado siguiendo el debate ético desde el lanzamiento público de Stable Diffusion en agosto de 2022.

Para comprender cómo se supone que funciona el sistema de exclusión de Stable Diffusion 3, creamos una cuenta en Have I Been Trained y subimos una imagen de Atari. apestar Folleto de arcade (que no poseemos). Después de que el motor de búsqueda del sitio encontró coincidencias en la base de datos de imágenes de la red abierta de inteligencia artificial a gran escala (LAION), hicimos clic con el botón derecho en varias miniaturas individualmente y seleccionamos «Rechazar esta imagen» en un menú emergente.

Una vez marcadas, pudimos ver las imágenes en una lista de imágenes que marcamos como deshabilitadas. No hemos experimentado ningún intento de verificar nuestras identidades o tener ningún control legal sobre las imágenes que supuestamente «desaprobamos».

Una captura de pantalla de
Agrandar / Una captura de pantalla de las imágenes de «exclusión voluntaria» que no poseemos en el sitio web Have I Been Trained. Las imágenes con símbolos de banderas han sido «dadas de baja».

Ars Technica

Otros problemas: para eliminar una imagen del entrenamiento, ya debe estar en el conjunto de datos LAION y debe poder buscarse en Have I Been Trained. Y actualmente no hay forma de rechazar grandes grupos de imágenes o las muchas copias de la misma imagen que pueden estar en el conjunto de datos.

El sistema, tal como se implementa actualmente, plantea preguntas que se han recogido en los hilos de anuncios. Gorjeo y youtube Por ejemplo, si Stability AI, LAION o Spawning hicieran todo lo posible para verificar legalmente la propiedad para controlar quién rechaza las imágenes, ¿quién pagaría el trabajo involucrado? ¿Les confiaría la gente a estas organizaciones la información personal necesaria para verificar sus derechos e identidades? ¿Y por qué incluso tratar de verificarlos cuando el CEO de Stability dice que no se requiere permiso legalmente para usarlos?

Un video de Spawning anunciando la opción de exclusión.

Además, el artista está obligado a registrarse en un sitio web con un conexión no vinculante enviar a Stability AI o LAION y luego esperar que se conceda su solicitud parece impopular. En respuesta a las declaraciones sobre la aprobación de Spawning en su video de anuncio, algunas personas han escrito que el procedimiento de exclusión voluntaria no cumple con la definición de consentimiento del Reglamento General Europeo de Protección de Datos, que establece que el consentimiento debe darse activamente y no asumirse por defecto («El consentimiento debe darse libremente, específico, informado e inequívoco. Um to obtener el consentimiento otorgado libremente, debe darse de forma voluntaria»). Esta es la dirección en la que muchos se están moviendo pelearse que el proceso debe ser solo opcional y todas las ilustraciones deben excluirse de la capacitación de IA de forma predeterminada.

Actualmente, parece que Stability AI opera bajo las leyes de EE. UU. y Europa para entrenar Stable Diffusion utilizando imágenes recopiladas sin permiso (aunque este problema aún no se ha probado en los tribunales). Pero la compañía también está tomando medidas para reconocer el debate ético que ha provocado una gran protesta contra el arte generado por IA en línea.

¿Existe un equilibrio que pueda satisfacer a los artistas y permitir el avance en la tecnología de síntesis de imágenes de IA? Por ahora, Emad Mostaque, CEO de Stability, está abierto a sugerencias Pío«El equipo @laion_ai está muy abierto a recibir comentarios y quiere crear mejores conjuntos de datos para todos y está haciendo un gran trabajo. Por nuestra parte, creemos que esta es una tecnología transformadora y estamos entusiasmados de trabajar con todos los lados y tratar de ser lo más transparentes posible. Todo se mueve y madura rápidamente».



DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí