Article de Proyecto 451 (newsletter).
Estamos seguramente en uno de los momentos más apasionantes de la historia de la humanidad. O al menos en lo que a propiedad intelectual y derechos de autor se refiere, nos enfrentamos a un desafío mayúsculo por las posibilidades que brinda la inteligencia artificial de crear ¿nuevos? contenidos.
Como era de esperarse, y ante la popularización en el uso de estas herramientas, comenzaron ya los litigios de orden legal. Microsoft, GitHub y OpenAI están siendo demandados actualmente en una moción de demanda colectiva que los acusa de violar la ley de derechos de autor al permitir que Copilot, un sistema de IA generador de código de programación, reproduzca fragmentos con licencia sin proporcionar crédito. Dos compañías detrás de las populares herramientas de arte Midjourney y Stability AI, están en el punto de mira de un caso legal que alega que infringieron los derechos de millones de artistas al entrenar sus herramientas en imágenes extraídas de la web. Y la semana pasada, el proveedor de imágenes Getty Images llevó a Stability AI a los tribunales por usar supuestamente millones de imágenes de su sitio sin permiso para entrenar a Stable Diffusion, una IA generadora de arte.
Eliana Torres, una abogada norteamericana, especializada en propiedad intelectual, dice que las acusaciones de la demanda colectiva contra Stability AI, Midjourney y DeviantArt serán difíciles de probar en los tribunales. Cree que será difícil determinar qué imágenes se usaron para entrenar los sistemas de IA, porque el arte que generan los sistemas no necesariamente se verá exactamente como ninguna de las imágenes de entrenamiento. Esto a pesar que un estudio académico reciente, publicado en diciembre, encontró que los modelos de IA generadores de imágenes como DALL-E 2 y Stable Diffusion si replican aspectos de las imágenes a partir de sus datos de entrenamiento.
El punto es que sistemas de generación de imágenes como Stable Diffusion emplean modelos conocidos como “difusión”. Los modelos de difusión aprenden a crear imágenes a partir de indicaciones de texto (p. ej., “dibujar un libro en la playa con niños jugando alrededor”) y avanzan a través de enormes conjuntos de datos para “recrear” imágenes en lugar de dibujarlas desde cero.
Torres también cree que la demanda no debería dirigirse a los creadores de estos sistemas de IA, sino a la parte responsable de compilar las imágenes utilizadas para entrenarlos: la Red Abierta de Inteligencia Artificial a Gran Escala (LAION), una organización sin fines de lucro. Midjourney, DeviantArt y Stability AI usan datos de entrenamiento de los conjuntos de datos de LAION, que abarcan miles de millones de imágenes de toda la web. “Si LAION creó el conjunto de datos, entonces la supuesta infracción ocurrió en ese momento, no una vez que el conjunto de datos se usó para entrenar los modelos”, dijo Torres. “Es de la misma manera que un ser humano puede entrar a una galería y mirar pinturas, pero no se le permite tomar fotos”.
Algunas empresas, bajo presión, han dado algunos pasos en la dirección de permitir a los artistas optar por no participar en el conjunto de datos utilizado. Es el caso de Stable Diffusion que permite a través del sitio web HaveIBeenTrained.com solicitar a los titulares de derechos la exclusión voluntaria.
El debate y las noticias al respecto recién comienzan, y seguramente tendremos mucho de que hablar a lo largo del año, incluyendo, porque no, casos que afecten directamente a la industria editorial (TechCrunch).