PathMBA Vault

Propiedad intelectual

La IA generativa tiene un problema de propiedad intelectual

por Gil Appel, Juliana Neelbauer, David A. Schweidel

La IA generativa tiene un problema de propiedad intelectual

La IA generativa puede parecer mágica. Los generadores de imágenes como Stable Diffusion, Midjourney o DALL·E 2 pueden producir imágenes notables en estilos que van desde fotografías envejecidas y acuarelas hasta dibujos a lápiz y puntillismo. Los productos resultantes pueden ser fascinantes: tanto la calidad como la velocidad de creación son elevadas en comparación con el rendimiento humano promedio. El Museo de Arte Moderno de Nueva York acogió una generación de IA instalación generado a partir de la propia colección del museo, y el Mauritshuis de La Haya colgó una variante de IA de la de Vermeer La chica con un pendiente de perla mientras el original estaba cedido.

Las capacidades de los generadores de texto son quizás aún más llamativas, ya que escriben ensayos, poemas y resúmenes, y están demostrando ser expertos en imitar el estilo y la forma (aunque pueden obtener una licencia creativa con los hechos).

Si bien puede parecer que estas nuevas herramientas de IA pueden evocar nuevo material del éter, no es exactamente así. Las plataformas de IA generativa se entrenan en lagos de datos y fragmentos de preguntas, miles de millones de parámetros que se crean mediante el software que procesa enormes archivos de imágenes y texto. Las plataformas de IA recuperan patrones y relaciones, que luego utilizan para crear reglas y, luego, emitir juicios y predicciones, al responder a un prompt.

Este proceso conlleva riesgos legales, incluida la infracción de la propiedad intelectual. En muchos casos, también plantea cuestiones legales que aún se están resolviendo. Por ejemplo, ¿la infracción de derechos de autor, patentes o marcas se aplica a las creaciones de IA? ¿Está claro quién es el propietario del contenido que las plataformas de IA generativa crean para usted o para sus clientes? Antes de que las empresas puedan aprovechar los beneficios de IA generativa, tienen que entender los riesgos y cómo protegerse.

Aunque la IA generativa puede ser nueva en el mercado, las leyes vigentes tienen importantes implicaciones para su uso. Ahora, los tribunales están determinando cómo deben aplicarse las leyes vigentes. Hay problemas de infracción y derechos de uso, incertidumbre sobre la propiedad de las obras generadas por la IA y preguntas sobre el contenido sin licencia en los datos de formación y sobre si los usuarios deberían poder hacer referencia directa a las obras de otros creadores con derechos de autor y marca registrada por su nombre sin su permiso.

Estas demandas ya están siendo litigadas. En un caso presentado a finales de 2022, Andersen contra Stability AI y otros., tres artistas formaron una clase utilizar varias plataformas de IA generativa sobre la base de que la IA utiliza sus obras originales sin licencia para entrenar su IA en sus estilos, lo que permite a los usuarios generar obras que pueden no ser lo suficientemente transformadoras a partir de sus obras existentes y protegidas y, como resultado, serían obras derivadas no autorizadas. Si un tribunal determina que las obras de la IA no están autorizadas y son derivadas, se pueden aplicar importantes sanciones por infracción.

Casos similares presentados en 2023 presentan denuncias de que empresas entrenaron herramientas de IA utilizando lagos de datos con miles (o incluso muchos millones) de obras sin licencia. Getty, un servicio de licencias de imágenes, presentó un demanda contra los creadores de Stable Diffusion por el uso indebido de sus fotos, y ambas violan los derechos de autor y de marca que tiene en su colección de fotografías con marcas de agua.

En cada uno de estos casos, se pide al sistema legal que aclare los límites de lo que es una «obra derivada» en virtud de las leyes de propiedad intelectual y, según la jurisdicción, los diferentes tribunales de circuito federales pueden responder con diferentes interpretaciones. Se espera que el resultado de estos casos dependa de la interpretación del doctrina del uso justo, que permite utilizar obras protegidas por derechos de autor sin el permiso del propietario «con fines como la crítica (incluida la sátira), los comentarios, las noticias, la enseñanza (incluidas varias copias para uso en el aula), las becas o la investigación» y para un uso transformador del material protegido por derechos de autor de una manera que no estaba previsto.

No es la primera vez que la tecnología y la ley de derechos de autor chocan. Google se defendió con éxito de un demanda argumentando que el uso transformador permitía raspar texto de los libros para crear su motor de búsqueda y, por el momento, esta decisión sigue siendo un precedente.

Pero hay otros casos no tecnológicos que podrían influir en la forma en que se tratan los productos de la IA generativa. Una demanda ante el Tribunal Supremo de los Estados Unidos contra la Fundación Andy Warhol, presentada por la fotógrafa Lynn Goldsmith, que había licenciado una imagen del fallecido músico, Príncipe — podría refinar la ley de derechos de autor de los EE. UU. sobre la cuestión de cuándo una obra de arte es lo suficientemente diferente de su material original como para convertirse inequívocamente en «transformadora» y si un tribunal puede tener en cuenta el significado de la obra derivada al evaluar esa transformación. Si el tribunal determina que la pieza de Warhol no es un uso justo, podría significar problemas para las obras generadas por la IA.

Toda esta incertidumbre presenta un montón de desafíos para las empresas que utilizan la IA generativa. Hay riesgos relacionados con la infracción —directa o involuntaria— de los contratos que no dicen nada sobre el uso de la IA generativa por parte de sus vendedores y clientes. Si un usuario empresarial sabe que los datos de formación pueden incluir obras sin licencia o que una IA puede generar obras derivadas no autorizadas que no están cubiertas por el uso legítimo, una empresa podría estar en apuros por infracción deliberada, lo que puede incluir una indemnización de hasta 150 000 dólares por cada caso de uso consciente. También existe el riesgo de compartir accidentalmente secretos comerciales o información empresarial confidenciales al introducir datos en herramientas de IA generativa.

Mitigar el riesgo y construir el camino a seguir

Este nuevo paradigma significa que las empresas tienen que tomar nuevas medidas para protegerse tanto a corto como a largo plazo.

Los desarrolladores de IA, por ejemplo, deben asegurarse de cumplir con la ley en lo que respecta a la adquisición de datos que utilizan para entrenar sus modelos. Esto debería implicar conceder licencias y compensar a las personas propietarias de la propiedad intelectual que los desarrolladores desean añadir a sus datos de entrenamiento, ya sea licenciándola o compartiendo los ingresos generados por la herramienta de IA. Los clientes de herramientas de IA deben preguntar a los proveedores si sus modelos se han formado con algún contenido protegido, revisar las condiciones del servicio y las políticas de privacidad y evitar las herramientas de IA generativa que no pueden confirmar que sus datos de entrenamiento tienen las licencias adecuadas de los creadores de contenido o están sujetos a las licencias de código abierto que cumplen las empresas de IA.

Desarrolladores

A largo plazo, los desarrolladores de IA tendrán que tomar la iniciativa sobre la forma en que obtienen sus datos y los inversores necesitan saber el origen de los datos. Stable Diffusion, Midjourney y otros han creado sus modelos basándose en el conjunto de datos LAION-5B, que contiene casi seis mil millones de imágenes etiquetadas recopiladas al raspar la web de forma indiscriminada, y se sabe que incluye un número importante de creaciones con derechos de autor.

Stability.AI, que desarrolló Stable Diffusion, tiene anunciado que los artistas podrán excluirse de la próxima generación del generador de imágenes. Pero esto hace que los creadores de contenido tengan la responsabilidad de proteger activamente su propiedad intelectual, en lugar de exigir a los desarrolladores de IA que aseguren la propiedad intelectual de la obra antes de usarla, e incluso cuando los artistas se excluyan, esa decisión solo se reflejará en la próxima versión de la plataforma. En cambio, las empresas deberían exigir que el creador dé su consentimiento en lugar de excluirse.

Los desarrolladores también deberían trabajar para mantener la procedencia del contenido generado por la IA, lo que aumentaría la transparencia sobre las obras incluidas en los datos de formación. Esto incluiría grabar la plataforma que se utilizó para desarrollar el contenido, los detalles de la configuración empleada, el seguimiento de los metadatos de los datos iniciales y las etiquetas para facilitar la presentación de informes de la IA, incluida la semilla generativa y el mensaje específico que se utilizó para crear el contenido. Esta información no solo permitiría reproducir la imagen, lo que permitiría comprobar fácilmente su veracidad, sino que también respondería a la intención del usuario, protegiendo así a los usuarios empresariales que podrían necesitar superar las demandas por infracción de la propiedad intelectual y demostrar que la salida no se debió a la intención deliberada de copiar o robar.

Desarrollar estos registros de auditoría garantizaría que las empresas estén preparadas si (o, más probablemente, cuando) los clientes comienzan a incluir sus demandas en los contratos como forma de seguro de que las obras del vendedor no son derivadas, deliberada o involuntariamente, sin autorización. De cara al futuro, las compañías de seguros pueden necesitar estos informes para extender las coberturas de seguro tradicionales a los usuarios empresariales cuyos activos incluyen obras generadas por la IA. Desglosar las contribuciones de los artistas individuales que se incluyeron en los datos de formación para producir una imagen apoyaría aún más los esfuerzos por compensar adecuadamente a los colaboradores e incluso incorporar los derechos de autor del artista original en la nueva creación.

Creadores

Tanto los creadores de contenido individuales como las marcas que crean contenido deberían tomar medidas para examinar el riesgo para sus carteras de propiedad intelectual y protegerlas. Esto implica buscar su trabajo de forma proactiva en conjuntos de datos compilados o lagos de datos a gran escala, incluidos elementos visuales como logotipos e ilustraciones y elementos textuales, como etiquetas de imágenes. Evidentemente, esto no podría hacerse manualmente con terabytes o petabytes de datos de contenido, pero las herramientas de búsqueda existentes deberían permitir la automatización rentable de esta tarea. Nuevo herramientas puede incluso prometer una ofuscación por parte de estos algoritmos.

Los creadores de contenido deberían supervisar activamente los canales digitales y sociales para ver la aparición de obras que puedan derivar de las suyas propias. Para las marcas con marcas valiosas que proteger, no se trata simplemente de buscar elementos específicos, como el Nike Swoosh o el azul Tiffany. Más bien, puede que sea necesario que el seguimiento de marcas e imágenes comerciales evolucione para examinar el estilo de las obras derivadas, que pueden haber surgido del entrenamiento en un conjunto específico de imágenes de una marca. A pesar de que los elementos críticos, como un logotipo o un color específico, pueden no estar presentes en una imagen generada por la IA, otros elementos estilísticos pueden sugerir que los elementos más destacados del contenido de una marca se utilizaron para producir una obra derivada. Estas similitudes pueden sugerir la intención de apropiarse de la buena voluntad del consumidor promedio hacia la marca mediante el uso de elementos visuales o auditivos reconocibles. La mímica puede verse como la forma más sincera de halago, pero también puede sugerir el uso indebido intencionado de una marca.

La buena noticia con respecto a la infracción de marcas para los propietarios de negocios es que los abogados de marcas tienen bien establecido cómo notificar y hacer cumplir los derechos de marca contra un infractor, por ejemplo, enviando una notificación de cese y desistimiento o una carta de solicitud de licencia redactada en términos contundentes, o pasando directamente a presentar una demanda por infracción de marca, independientemente de si una plataforma de IA generó la marca no autorizada o si lo hizo un humano.

Empresas

Las empresas deberían evaluar las condiciones de sus transacciones para incluir las protecciones en los contratos. Como punto de partida, deberían exigir condiciones de servicio a las plataformas de IA generativa que confirmen la debida licencia de los datos de entrenamiento que alimentan su IA. También deberían exigir una indemnización amplia por la posible infracción de la propiedad intelectual causada por el hecho de que las empresas de IA no licencien adecuadamente la entrada de datos o la autoinformación por parte de la propia IA sobre sus productos para señalar una posible infracción.

Como mínimo, las empresas deberían añadir información en sus acuerdos con proveedores y clientes (para la entrega de productos y servicios personalizados), si alguna de las partes utiliza la IA generativa para garantizar que los derechos de propiedad intelectual se entienden y protegen en ambos lados de la mesa, así como la forma en que cada parte apoyará el registro de la autoría y la propiedad de esas obras. Los contratos con proveedores y clientes pueden incluir lenguaje relacionado con la IA añadido a las disposiciones de confidencialidad para impedir que las partes receptoras introduzcan información confidencial de las partes que revelan la información en las instrucciones de texto de las herramientas de IA.

Algunas firmas líderes han creado listas de control de IA generativa para las modificaciones de los contratos de sus clientes que evalúan cada cláusula en cuanto a las implicaciones de la IA a fin de reducir los riesgos de uso no deseados. Las organizaciones que utilizan la IA generativa, o que trabajan con proveedores que la utilizan, deben mantener a sus asesores legales al tanto del alcance y la naturaleza de ese uso, ya que la ley seguirá evolucionando rápidamente.

• • •

De ahora en adelante, los creadores de contenido que tengan una biblioteca suficiente de su propia propiedad intelectual en la que basarse podrían considerar crear sus propios conjuntos de datos para entrenar y madurar las plataformas de IA. Los modelos de IA generativa resultantes no necesitan entrenarse desde cero, sino que pueden basarse en una IA generativa de código abierto que ha utilizado contenido de origen legal. Esto permitiría a los creadores de contenido producir contenido con el mismo estilo que su propia obra, con un registro de auditoría de su propio lago de datos, o licenciar el uso de esas herramientas a las partes interesadas con un título claro tanto en los datos de entrenamiento de la IA como en sus productos. Con este mismo espíritu, los creadores de contenido que hayan desarrollado un seguimiento en Internet pueden considerar la creación conjunta con seguidores como otro medio de obtener datos de formación, reconociendo que se les debe pedir permiso a estos cocreadores para utilizar su contenido en términos de políticas de servicio y privacidad que se actualizan a medida que cambia la ley.

La IA generativa cambiará la naturaleza de la creación de contenido y permitirá a muchos hacer lo que, hasta ahora, solo unos pocos tenían las habilidades o la tecnología avanzada para lograr a gran velocidad. A medida que esta floreciente tecnología se desarrolle, los usuarios deben respetar los derechos de quienes han permitido su creación, los mismos creadores de contenido que pueden verse desplazados por ella. Y aunque entendemos la verdadera amenaza de la IA generativa para parte del sustento de los miembros de la clase creativa, también representa un riesgo para las marcas que han utilizado las imágenes para crear meticulosamente su identidad. Al mismo tiempo, tanto los intereses creativos como los corporativos tienen una gran oportunidad de crear carteras con sus obras y materiales de marca, metaetiquetarlos y crear sus propias plataformas de IA generativa que puedan producir productos autorizados, patentados (pagados o con derechos de autor) como fuentes de ingresos instantáneos.