¿Uso justo o violación de derechos?, este es el dilema que ha llevado a una demanda colectiva las AI 

demanda

La demanda busca una compensación por los «daños» causados

Se dio a conocer hace poco la noticia sobre una demanda colectiva por parte del bufete de abogados Joseph Saveri, LLP (un bufete de abogados líder en demandas colectivas con oficinas en California y Nueva York) en asociación con Matthew Butterick y Lockridge, Grindal, Nauen PLLP presentó una demanda en el Tribunal de Distrito de los Estados Unidos.

Los demandantes buscan compensación por los daños causados ​​por Stability AI, DeviantArt y Midjourney, y una orden judicial para evitar daños futuros, ya que se menciona que han creado productos que infringen los derechos de los artistas y otros creadores bajo la apariencia de la llamada «inteligencia artificial».

La demanda alega infracción directa de derechos de autor, infracción indirecta de derechos de autor relacionada con infracciones, violaciones de la Ley de derechos de autor del milenio digital (DMCA), violación de los derechos de publicidad de los miembros de la banda, incumplimiento de contrato relacionado con los Términos de servicio de DeviantArt y varias violaciones de la ley de competencia desleal de California.

Y es que con la creciente demanda de los sistemas de IA de texto a imagen que se están volviendo cada vez más populares y poderosos. Estas herramientas, que suelen ofrecer unos pocos créditos gratuitos antes de ser cobrados, pueden crear todo tipo de imágenes con unas pocas palabras, incluso aquellas que evocan claramente las obras de muchísimos artistas (si no parecen haber sido creadas por el mismo artista).

Los usuarios pueden referirse a estos artistas con palabras como «al estilo de» o «por», junto con un nombre específico. Y los usos actuales de estas herramientas pueden variar desde la diversión personal hasta casos más comerciales. Pero el descubrimiento por parte de los artistas de que su trabajo se está utilizando para entrenar la IA plantea una preocupación fundamental:

Cualquiera que genere imágenes con sistemas como Stable Diffusion o DALL-E puede venderlas, los términos específicos con respecto a los derechos de autor y la propiedad de estas imágenes varían. «No quiero participar en la máquina en absoluto, eso devaluará lo que hago», dijo Daniel Danger, un ilustrador y grabador que se enteró de que varias de sus obras se habían utilizado para entrenar Stable Diffusion.

Estos resultados están lejos de ser mágicos: para que uno de estos sistemas ingiera sus palabras y produzca una imagen, debe entrenarse con montañas de datos, que pueden incluir miles de millones de imágenes extraídas de Internet, combinadas con descripciones escritas.

Algunos servicios, incluido el sistema DALL-E de OpenAI, no divulgan los conjuntos de datos en los que se basan sus sistemas de IA. Pero con Stability Diffusion, Stability AI tiene claros sus orígenes. Su conjunto de datos base se entrenó en pares de imágenes y texto seleccionados para su apariencia a partir de un caché aún más masivo de imágenes y texto de Internet. El conjunto de datos completo, conocido como LAION-5B, fue creado por la asociación alemana de inteligencia artificial LAION (Red Abierta de Inteligencia Artificial a Gran Escala).

Esta práctica de extraer imágenes u otro contenido de Internet para formar conjuntos de datos no es nueva y tradicionalmente se enmarca en lo que se conoce como uso justo, un principio legal de la ley de derechos de autor de EE. UU. que autoriza el uso de obras protegidas por derechos de autor en determinadas situaciones. De hecho, estas imágenes, muchas de las cuales pueden tener derechos de autor, se utilizan de una manera muy diferente.

Si bien las preocupaciones son reales, los remedios no están claros. Incluso si las imágenes generadas por IA tienen un impacto generalizado (por ejemplo, cambiar los modelos comerciales), eso no significa necesariamente que violen los derechos de autor de los artistas.

Stable Diffusion es un producto de software de inteligencia artificial (IA), lanzado en agosto de 2022 por una empresa llamada Stability AI. Según Matthew Butterick, Stable Diffusion contiene copias no autorizadas de millones, si no miles de millones, de imágenes con derechos de autor. Estas copias se realizaron sin el conocimiento o consentimiento de los artistas.

Como se alega en la denuncia, Stable Diffusion es un producto de inteligencia artificial utilizado por Stability AI, DeviantArt y Midjourney en sus productos de imagen de IA. Se entrenó en miles de millones de imágenes con derechos de autor contenidas en el conjunto de datos LAION-5B, que se descargaron y usaron sin compensación ni consentimiento de los artistas.

«A medida que la tecnología en auge continúa cambiando todos los aspectos del mundo moderno, es fundamental que reconozcamos y protejamos los derechos de los artistas contra el robo y el fraude ilegales», dijo Joseph Saveri, fundador de la firma de abogados Joseph Saveri, LLP. Continuó: “Este caso representa una lucha más amplia para preservar los derechos de propiedad de todos los artistas y otros creadores”.

Además de obtener reparación por la conducta indebida, esta demanda busca evitar ese resultado y garantizar que estos productos sigan las mismas reglas que cualquier otra tecnología nueva que involucre el uso de cantidades masivas de propiedad intelectual. Si la transmisión de música se puede lograr dentro de la ley, también lo pueden hacer los productos de IA.

Fuente: https://stablediffusionlitigation.com/

from Linux Adictos https://ift.tt/H96Cjkx
via IFTTT