IA recrea un clip de la canción de Pink Floyd a partir de grabaciones de actividad cerebral

Blog

HogarHogar / Blog / IA recrea un clip de la canción de Pink Floyd a partir de grabaciones de actividad cerebral

Apr 05, 2024

IA recrea un clip de la canción de Pink Floyd a partir de grabaciones de actividad cerebral

Una inteligencia artificial puede adivinar cómo suena una canción basándose en patrones de actividad cerebral registrados mientras las personas la escuchaban Por Carissa Wong 15 de agosto de 2023 Una IA recreó un clip de

Una inteligencia artificial puede adivinar cómo suena una canción basándose en patrones de actividad cerebral registrados mientras las personas la escuchaban

Por Carissa Wong

15 agosto 2023

Una IA recreó un clip de la canción de Pink Floyd, Another Brick in the Wall, Part 1, a partir de grabaciones cerebrales.

Colección Smith/Gado/Alamy

Una inteligencia artificial ha creado una versión aceptable de una canción de Pink Floyd analizando la actividad cerebral grabada mientras la gente escuchaba la original. Los hallazgos amplían nuestra comprensión de cómo percibimos el sonido y, con el tiempo, podrían mejorar los dispositivos para personas con dificultades del habla.

Robert Knight de la Universidad de California, Berkeley, y sus colegas estudiaron grabaciones de electrodos que habían sido implantados quirúrgicamente en la superficie del cerebro de 29 personas para tratar la epilepsia.

La actividad cerebral de los participantes fue grabada mientras escuchaban Another Brick in the Wall, Part 1 de Pink Floyd. Al comparar las señales cerebrales con la canción, los investigadores identificaron grabaciones de un subconjunto de electrodos que estaban fuertemente vinculados al tono, la melodía, la armonía y el ritmo de la canción.

Anuncio

Luego entrenaron una IA para aprender los vínculos entre la actividad cerebral y estos componentes musicales, excluyendo un segmento de 15 segundos de la canción de los datos del entrenamiento. La IA entrenada generó una predicción del fragmento de canción invisible basándose en las señales cerebrales de los participantes. El espectrograma (una visualización de las ondas de audio) del clip generado por IA era un 43 por ciento similar al clip de la canción real.

Aquí está el clip de la canción original después de un procesamiento simple para permitir una comparación justa con el clip generado por IA, que sufre cierta degradación cuando se convierte de un espectrograma a audio:

https://images.newscientist.com/wp-content/uploads/2023/08/14171701/audio-file-1.wav

Suscríbete a nuestro boletín El Diario

Las últimas noticias científicas enviadas a su bandeja de entrada, todos los días.

Y aquí está el clip generado por la IA:

https://images.newscientist.com/wp-content/uploads/2023/08/14171709/audio-file-2.wav

Los investigadores identificaron un área del cerebro dentro de una región llamada circunvolución temporal superior que procesaba el ritmo de la guitarra en la canción. También descubrieron que las señales del hemisferio derecho del cerebro eran más importantes para procesar la música que las del hemisferio izquierdo, lo que confirma resultados de estudios anteriores.

Al profundizar nuestra comprensión de cómo el cerebro percibe la música, el trabajo podría ayudar a mejorar los dispositivos que hablan en nombre de las personas con dificultades del habla, afirma Knight.

"Para aquellos con esclerosis lateral amiotrófica [una condición del sistema nervioso] o afasia [una condición del lenguaje], que tienen dificultades para hablar, nos gustaría un dispositivo que realmente sonara como si se estuvieran comunicando con alguien de manera humana", dijo. dice. "Comprender cómo el cerebro representa los elementos musicales del habla, incluidos el tono y la emoción, podría hacer que estos dispositivos suenen menos robóticos".

La naturaleza invasiva de los implantes cerebrales hace que sea poco probable que este procedimiento se utilice para aplicaciones no clínicas, afirma Knight. Sin embargo, otros investigadores han utilizado recientemente la IA para generar clips de canciones a partir de señales cerebrales grabadas mediante exploraciones por resonancia magnética (MRI).

Si las IA pueden usar señales cerebrales para reconstruir la música que las personas imaginan, no solo escuchan, este enfoque podría usarse incluso para componer música, dice Ludovic Bellier de la Universidad de California, Berkeley, miembro del equipo de estudio.

Leer más:

La IA crea imágenes de lo que ven las personas mediante el análisis de escáneres cerebrales

A medida que avanza la tecnología, las recreaciones de canciones basadas en inteligencia artificial que utilizan la actividad cerebral podrían plantear dudas sobre la infracción de derechos de autor, dependiendo de qué tan similar sea la reconstrucción a la música original, dice Jennifer Maisel del bufete de abogados Rothwell Figg en Washington DC.

"La cuestión de la autoría es realmente fascinante", afirma. “¿La persona que registra la actividad cerebral sería el autor? ¿Podría ser el propio programa de IA el autor? Lo interesante es que el autor puede no ser la persona que escucha la canción”.

Que la persona que escucha la música sea dueña de la recreación podría depender incluso de las regiones cerebrales involucradas, dice Ceyhun Pehlivan del bufete de abogados Linklaters en Madrid.

“¿Habría alguna diferencia si el sonido se origina en la parte no creativa del cerebro, como la corteza auditiva, en lugar de la corteza frontal que es responsable del pensamiento creativo? Es probable que los tribunales tengan que evaluar cuestiones tan complejas caso por caso”, afirma.

Referencia de la revista:

PLOS Biología DOI: 10.1371/journal.pbio.3002176

Temas:

Anuncio