La vaina de los musicólogos 'ta bregando pa' lidiar con los abusos de la IA, pero 'ta difícil

Oye, oye, mira lo que se comenta por ahí: "Dicen que hay tecnología para detectar esas canciones hechas por inteligencia artificial sin que el artista se meta en eso". La gente de la música anda peleando en todos lados, desde las plataformas hasta los tribunales, y también con los políticos, pa' que no les roben sus cosas con la inteligencia artificial generativa (IA). Pero, por ahora, la cosa está floja.

La gente de Sony Music asegura que ya han pedido que quiten del Internet como 75,000 deepfakes, lo cual muestra lo grande que es el lío. Hay muchos que dicen que ya hay tecnología pa' detectar esas canciones fabricadas por software de IA, sin que el artista ponga su voz.

"Aunque parezcan reales, las canciones creadas con IA tienen pequeñas irregularidades de frecuencia, ritmo y firma digital que no se encuentran en la voz humana", dice Pindrop, una compañía que se especializa en identificar voces.

Solo toma unos minutos para encontrar en YouTube o Spotify, los dos principales sitios de streaming, un rap falso de 2Pac sobre pizzas o una versión de Ariana Grande cantando un éxito de K-pop que nunca hizo.

"Nos tomamos esto muy en serio y estamos desarrollando nuevas herramientas para mejorar" la detección de IA falsa, dijo esta semana Sam Duboff, que se encarga de la política regulatoria de Spotify, en el canal de YouTube Indie Music Academy.

YouTube también dijo que están "perfeccionando (su) tecnología con (sus) socios", y podrían hacer anuncios en las próximas semanas.

Jeremy Goldman, analista de Emarketer, comenta que "los actores maliciosos van un paso por delante" de la industria.

"YouTube tiene miles de millones de dólares en juego", añade, "así que uno pensaría que se las arreglarán para solucionar el problema (...) porque no quieren ver cómo su plataforma se convierte en una pesadilla de IA".

Pero más que con los deepfakes, la industria musical está preocupada por el uso no autorizado de sus cosas para desarrollar interfaces especializadas de IA generativa como Suno, Udio y Mubert.

En junio, varios grandes sellos discográficos llevaron a corte a la empresa matriz de Udio en Nueva York, acusándola de usar "grabaciones protegidas por la propiedad intelectual con el objetivo último de desviar a oyentes, fans y potenciales usuarios de pago".

Más de nueve meses después de la demanda, aún no hay fecha para un juicio. Tampoco la hay para un caso similar contra Suno en Massachusetts.

El debate en la corte gira en torno a la noción de "uso justo", que puede limitar la aplicación de los derechos de propiedad intelectual en ciertas condiciones.

"Estamos en una zona de auténtica incertidumbre" sobre cómo los tribunales interpretarán los criterios, dice Joseph Fishman, profesor de Derecho de la Universidad de Vanderbilt.

Pero, las primeras sentencias no serán la última palabra, porque "si los tribunales empiezan a discrepar" en sus decisiones, el Tribunal Supremo podría tener que meterse, advierte el académico.

Mientras tanto, los principales jugadores de la IA musical siguen desarrollando sus modelos con datos protegidos, lo que plantea la pregunta de si ya se perdió la batalla.

"No estoy seguro" de que sea demasiado tarde, dice Joseph Fishman. Muchas de estas interfaces se han desarrollado con material protegido, pero siguen saliendo nuevos modelos, y es posible que estos tengan que considerar una posible sentencia judicial vinculante.

Por ahora, sellos, artistas y productores tampoco han tenido mucho éxito en otro frente de esta batalla, el legislativo.

Se han presentado muchos proyectos de ley en el Congreso de Estados Unidos, pero hasta ahora todos han sido ignorados.

Algunos estados, como Tennessee, han aprobado leyes que se centran principalmente en los deepfakes.

Para empeorar las cosas, Donald Trump se ha convertido en defensor de la desregulación, especialmente de la IA.

Varios gigantes de la IA se han subido al tren, como Meta, para quien "el gobierno debería dejar claro que el uso de datos públicos para desarrollar modelos es inequívocamente un uso justo".

Si la administración Trump sigue este consejo, inclinaría la balanza en contra de los profesionales de la música, aunque es probable que los tribunales tengan la última palabra.

La situación no es mucho mejor en el Reino Unido, donde el gobierno laborista ha lanzado una consulta para flexibilizar la ley de propiedad intelectual y facilitar el acceso a los desarrolladores de IA.

En señal de protesta, más de 1,000 artistas se unieron para lanzar a finales de febrero un álbum silencioso titulado "¿Es esto lo que queremos?"

Según Jeremy Goldman, los abusos de la IA siguen afectando a la industria musical porque "está muy fragmentada, lo que la pone en desventaja a la hora de resolver el problema".

Ver todo