¿Debería AI dar vida a las voces muertas?

Deepa Gopal's picture

Este mes, la voz de la superestrella surcoreana Kim Kwang-seok regresará a la televisión nacional.

La actuación, que contará con material completamente nuevo, desafía literalmente a la muerte ya que el icónico cantante folk falleció hace 25 años en 1996. No hubiera sido posible sin el uso de la tecnología de inteligencia artificial (IA).

Los fanáticos del fallecido cantante, quien continúa siendo honrado en su ciudad natal de Daegu, estaban encantados con el anuncio. Un clip promocional de diciembre de la actuación de AI Kim ha obtenido más de 145.000 visitas en YouTube, mientras que un video entre bastidores lanzado en enero reunió más de 750.000 visitas.

Esta no es la primera vez que Corea del Sur resucita las voces de los cantantes fallecidos: han aparecido hologramas de cantantes populares en los conciertos de Año Nuevo e incluso han actuado virtualmente junto a artistas vivos.

¿Cómo se usó la IA para recrear la voz de Kim Kwang-seok? Vamos a ver.

La ciencia detrás de la voz

Todos hemos escuchado las voces digitales de Alexa de Amazon o Siri de Apple, o asistentes de voz en los autos que nos dan indicaciones para llegar a nuestro destino.

Estas aplicaciones de la IA en nuestra vida diaria han tardado décadas en perfeccionarse. Las máquinas se entrenaron para imitar voces humanas, se alimentaron con una gran cantidad de datos y se les enseñó a autocorregirse si daban respuestas incorrectas.

El procesamiento del lenguaje natural (PNL, por sus siglas en inglés) es la capacidad de la máquina para leer contenido creado por humanos. La generación de lenguaje natural (o NLG) es la capacidad de las máquinas para crear contenido original que los humanos puedan entender. Tanto NLP como NLG son parte de la tecnología de IA. ¡Y con el tiempo, a máquinas como Alexa se les ha enseñado la capacidad de mantener una conversación con un humano!

Para recrear la voz icónica de Kim, el programa de inteligencia artificial escuchó 20 de sus canciones, después de lo cual pudo replicar la voz del cantante con una precisión y un sentimiento casi perfectos. AI Kim no solo cantará sus originales, sino que también interpretará canciones de otros artistas. De hecho, su holograma interpretará "I Miss You", una balada de 2002 de otro ícono del K-pop que falleció seis años antes.

Preocupaciones éticas

Los espectadores pueden estar emocionados de ver cobrar vida a sus cantantes anteriores favoritos. Pero la creciente influencia de la IA en la industria de la música ha generado preocupaciones sobre la originalidad y la propiedad. ¿Quién es el propietario legal? ¿La IA o su programador?

Aún más alarmante es el uso de la tecnología de inteligencia artificial para fines mucho más maliciosos. Los videos deepfake utilizan tecnología de inteligencia artificial llamada aprendizaje profundo para generar gráficos convincentes, pero falsos, de eventos irreales. Los deepfakes pueden ser entretenidos, como el video de 2019 del personaje de Game of Thrones, Jon Snow, disculpándose por el decepcionante final de la serie.

Pero tampoco deben confundirse con completamente inofensivos. En marzo de 2019, un alto ejecutivo de una empresa alemana fue engañado para que transfiriera £ 200,000 a una cuenta bancaria húngara por estafadores que usaban software de audio para simular la voz del CEO. En una era en la que cada vez es más difícil separar lo que es real de lo que no lo es, los deepfakes complican la situación.

Los países y las organizaciones internacionales están en el proceso de crear pautas para los estándares éticos y de propiedad intelectual en IA. ¿Qué piensas? ¿Cómo podemos disfrutar de la IA y mantenerla segura y ética?

Fuentes: Reuters, CNN, Guardian, Britannica