Artistas de todo el mundo aseguran que empresas como OpenAI, Google o Meta, entre otras, usan información con derechos de autor para entrenar a sus modelos. Así es como nace esta técnica.
31 de diciembre 2023, 05:43hs
Las inteligencia artificial generativa tanto de texto como de imágenes que millones de personas utilizan todos los días como ChatGPT, DALL-E o Midjourney están entrenadas con millones de datos que sus desarrolladores les dieron para que consumieran y analizaran. ¿Qué significa esto? Que estos algoritmos recibieron información de millones de sitios como Wikipedia, redes sociales, medios de comunicación, libros y una lista prácticamente interminable de contenidos que fueron creados por humanos. Hay un detalle: muchos de esos contenidos tienen derechos de autor y ahí es donde empieza el problema. Hay personas que consideran que esto se trata de una práctica ilegal.
Leé también: Inteligencia artificial generativa: ¿Por qué especialistas piensan que puede terminar con la raza humana?
Los problemas legales de las IA generativas
Escritores, como Mona Awad y Paul Tremblay, llevaron a juicio a la compañía fundada por Sam Altman por, según ellos, violar la ley de copyright. No son los únicos. Getty Images, una de las más grandes agencias de fotografía del mundo, denunció a Stability AI, creadores del modelo generativo de imágenes Stable Diffusion, por copiar más de 12 millones de fotografías protegidas con derechos de autor.
Esto fue lo que dijeron desde la empresa: “Aprovechándose de la propiedad intelectual de Getty Images, Stability AI creó el modelo de generación de imágenes Stable Diffusion, que usa IA para entregar imágenes sintetizadas por computadora. Ahora compite directamente con Getty Images al comercializar” el servicio. Y agregaron que la “infracción del contenido de Getty Images a gran escala fue fundamental para su éxito”.
Por este motivo es que hay cada vez más artistas que están en contra de que sus obras sean utilizadas para entrenar a estos algoritmos. Así es como un grupo de desarrolladores, ingenieros y científicos están trabajando duro para ayudar a que los artistas puedan pelear contra lo que consideran que es una violación a las obras que crean.
El nacimiento de Nightshade
Para ayudarlos, crearon un software que usa una técnica llamada data poisoning que tiene la intención de “envenenar” la información que los algoritmos consumen para “aprender”. La finalidad es que, manipulando los datos de entrenamiento de los modelos generativos de imágenes, logren que las respuestas que devuelvan sean incorrectas. El software se llama Nightshade.
¿Cómo funciona? El data poisoning le hace cambios minúsculos e imperceptibles al ojo humano a las obras de los artistas para que los algoritmos interpreten algo diferente a lo que en realidad son. El modelo de lenguaje, de esta manera, podría “pensar” que la imagen de una casa es una vaca o que la de un perro es un gato, por ejemplo. Así es como Nightshade, a gran escala, puede corromper los datos con los que son entrenados estos modelos.
Los investigadores, liderados por Ben Zhao, profesor de la Universidad de Chicago, testearon en su laboratorio la técnica con la última versión del modelo de Stable Diffusion en un entorno reducido. Con 50 imágenes contaminadas de perros notaron que el algoritmo empezaba a devolver imágenes extrañas. Con 300 ya habían logrado que, ante el pedido de un perro, la tecnología devolviera un gato. Esto es algo crítico para estas empresas porque deshacer los efectos del envenenamiento requiere de la eliminación manual de cada imagen “envenenada”.
“Demostramos que una cantidad moderada de ataques de Nightshade puede desestabilizar las características generales en un modelo generativo de imágenes”, explicaron los investigadores en su paper.
Zhao explica que lo que hará su software es intentar sacarle el monopolio del poder a las empresas de inteligencia artificial y volver a dárselo a los dueños de las obras: los artistas. Hay que ver si lo logra.