Google entrenó IA con música protegida por derechos de autor, dicen fuentes — Ahora, busca acuerdos
El primer encuentro de Lyor Cohen con la inteligencia artificial generativa de Google lo dejó atónito. “Demis [Hassabis, CEO de Google Deepmind] y su equipo presentaron un proyecto de investigación sobre genAI y música y quedé anonadado”, declaró Cohen, responsable global de música de Google y YouTube, a Billboard en noviembre. “Caminé por Londres durante dos días entusiasmado con las posibilidades, pensando en todos los asuntos y reconociendo que la IA generativa en la música está aquí, no a la vuelta de la esquina”.
Si bien algunos sellos multinacionales promocionan a YouTube como un socio importante en el cambiante mundo de la música y la inteligencia artificial, no todos en la industria musical se han mostrado tan entusiasmados con estos nuevos esfuerzos. Esto se debe a que Google entrenó su modelo con una gran cantidad de música — incluidas grabaciones de multinacionales con derechos de autor — y luego fue a mostrárselo a los titulares de los derechos, en lugar de pedir permiso primero, según cuatro fuentes con conocimiento del impulso del gigante de las búsquedas hacia la IA generativa y la música. Eso podría significar que los artistas que “opten por no participar” en este tipo de capacitación con IA — una condición clave para muchos titulares de derechos — no tengan opción.
YouTube se aseguró de firmar licencias puntuales con algunas partes antes de lanzar una versión beta de su nuevo “experimento” de IA generativa en noviembre. Dream Track, el único producto de IA que ha lanzado públicamente hasta ahora, permite a determinados creadores de YouTube musicalizar clips en Shorts con piezas musicales, basadas en indicaciones de texto, que pueden incluir réplicas de voces de artistas famosos. (Participaron un puñado de artistas de grandes disqueras, como Demi Lovato y Charli XCX). “Nuestro superpoder era nuestra profunda colaboración con la industria de la música”, dijo Cohen en su momento. Pero las negociaciones, que muchos en el sector ven como un precedente para acuerdos de licencia más amplios entre discográficas, se han prolongado durante meses.
Negociar con una empresa tan grande como YouTube se hizo más difícil porque ya había tomado lo que quería, según múltiples fuentes familiarizadas con las conversaciones con el sello de la compañía. Mientras tanto, otras empresas de IA siguen avanzando con sus propios productos musicales, lo que añade presión a YouTube para que siga desarrollando su tecnología.
En un comunicado, un representante de YouTube dijo: “Seguimos comprometidos a trabajar en colaboración con nuestros socios en toda la industria de la música para desarrollar IA de manera responsable y de una manera que recompense a los participantes con oportunidades a largo plazo para la monetización, controles y atribución de posibles herramientas genAI y contenido en el futuro”, negándose a ser específico acerca de las licencias.
Los modelos generativos de IA requieren entrenamiento antes de que puedan empezar a generarse correctamente. “El entrenamiento de la IA es un proceso computacional de deconstrucción de obras existentes con el propósito de modelar matemáticamente cómo [funcionan]”, explicó Google a la Oficina de Derechos de Autor de Estados Unidos en octubre. “Al deconstruir las obras existentes, el algoritmo desarrolla la capacidad de inferir cómo deben ensamblarse las nuevas”.
El hecho de si una empresa necesita permiso antes de emprender este proceso sobre obras protegidas por derechos de autor es ya objeto de varias demandas, incluyendo de Getty Images contra Stability AI y del Gremio de Autores contra OpenAI. En octubre, Universal Music Group (UMG) se encontraba entre las empresas que demandaron a la startup de IA Anthropic, alegando que “en el proceso de construcción y funcionamiento de modelos de IA, [la empresa] copia y difunde ilegalmente grandes cantidades de obras protegidas por derechos de autor”.
A medida que avancen estos casos, se espera que sienten un precedente para el entrenamiento de IA, pero eso podría llevar años. Mientras tanto, muchas empresas tecnológicas parecen decididas a seguir el lema de Silicon Valley: “Muévete rápido y rompe cosas”.
Mientras los titulares de los derechos denuncian lo que llaman infracción de derechos de autor, las empresas de tecnología argumentan que sus actividades entran dentro del “uso justo”, la doctrina jurídica estadounidense que permite el uso sin licencia de obras protegidas por derechos de autor en determinadas situaciones. La información periodística y la crítica son los ejemplos más comunes, pero también incluyen la grabación de un programa de televisión para verlo más tarde, la parodia y otros usos.
“Una amplia gama de casos respalda la propuesta de que la copia de una obra protegida por derechos de autor como paso intermedio para crear una producción que no infrinja puede constituir un uso legítimo”, escribió Anthropic en sus propios comentarios a la Oficina de Derechos de Autor de Estados Unidos. “La innovación en IA depende fundamentalmente de la capacidad de [los grandes modelos de lenguaje] para aprender en el sentido computacional de la variedad más amplia posible de material disponible públicamente”, afirmó Google en sus comentarios.
“Cuando se piensa en la IA generativa, se piensa sobre todo en las empresas que adoptan ese enfoque tan moderno — Google, OpenAI — con modelos de última generación que necesitan una gran cantidad de datos”, dice Ed Newton-Rex, quien renunció como vicepresidente de audio de Stability AI en noviembre porque la empresa estaba capacitándose sobre obras protegidas por derechos de autor. “En esa comunidad, donde se necesita una enorme cantidad de datos, no se ve a mucha gente hablando de las preocupaciones de los titulares de derechos”.
Cuando Dennis Kooker, presidente de negocios digitales globales y ventas en Estados Unidos de Sony Music Entertainment, habló en un foro del Senado sobre IA en noviembre, rechazó el argumento del uso justo. “Si un modelo de IA generativa se entrena en música con el fin de crear nuevas obras musicales que compitan en el mercado musical, entonces la capacitación no es un uso legítimo”, dijo Kooker. “El entrenamiento en ese caso, no puede realizarse sin el consentimiento, crédito y compensación a los artistas y titulares de derechos”.
UMG y otras compañías musicales adoptaron una postura similar en su demanda contra Anthropic, advirtiendo de que las empresas de IA no deben ser “excusadas de cumplir la ley de derechos de autor” simplemente porque afirmen que “facilitarán un inmenso valor a la sociedad”.
“Sin lugar a dudas, Anthropic será una empresa más valiosa si puede evitar pagar por el contenido del que ciertamente depende”, escribió UMG en su momento. “Pero eso no debería obligar al tribunal a darle una tarjeta para salir de la cárcel por su robo masivo de contenido protegido por derechos de autor”.
En este contexto, incorporar a las disqueras multinacionales como lo hicieron Google y YouTube el año pasado con Dream Track (después de entrenar el modelo, pero antes de lanzarlo) puede ser un paso adelante desde la perspectiva de la industria musical. Al menos es mejor que nada: Google empezó a escanear enormes cantidades de libros en 2004 sin pedir permiso a los titulares de los derechos de autor para crear lo que hoy se conoce como Google Books. El Sindicato de Autores presentó una demanda, acusando a Google de violar los derechos de autor, pero la demanda fue finalmente desestimada, casi una década después, en 2013.
Aunque ya se han presentado en el Congreso proyectos de ley relacionados con la inteligencia artificial que cuentan con el apoyo de la industria musical, por ahora las dos partes se gritan sin escucharse. Newton-Rex resumió de forma sucinta las diferentes mentalidades: “Lo que nosotros en el mundo de la IA consideramos ‘datos de entrenamiento’ es lo que el resto del mundo ha considerado durante mucho tiempo producción creativa”.
Con reportería adicional de Bill Donahue.