Este es el nombre del icónico doble álbum que el grupo de rock progresivo y sinfónico Pink Floyd publicó en 1979. Hubo mucho alboroto mediático por una de las canciones, podríamos decir que la más conocida y reproducida de este grupo británico, "Another brick in the wall", en la que claramente se posicionan en contra de la educación estricta y controladora de las mentes, tanto en la letra como en la película musical que se hizo posteriormente. Sin embargo, aun habiéndola escuchado y cantado muchísimas veces (es un icono de mi época), desconocía que aquel doble álbum contenía tres partes con versiones y matices muy diferentes al motivo musical principal de esta canción. Los cortes 5, 7 y 13 del primer disco LP corresponden a las partes 1, 2 y 3 de "Another brick in the wall", siendo la segunda parte, la canción emblemática conocida por todo el mundo. Cada una de las tres partes nos cuenta historias lírica y musicalmente distintas. He tenido que recurrir a internet para escuchar cada pieza por separado. Os recomiendo escucharlas por orden y en la versión grabada de estudio (adjunto enlaces). Encended los altavoces y disfrutaréis como hace tiempo que no lo hacíais. La primera parte es un preludio de música psicodélica progresiva que me ha dejado "alucinando", literalmente, con una letra desgarradora sobre un hijo que ha perdido a su padre, y que lamenta que ahora su padre ya no es más que una foto en el álbum de recuerdos. La segunda parte ya la conocemos todos, sería la reacción rebelde a la educación de una persona adolescente. La tercera parte es un epílogo corto, un poco más violento y reivindicativo, es la expresión de un joven adulto que no necesita armas ni drogas, ni quiere necesitar nada, porque todo acaba convirtiéndose en un nuevo ladrillo en la pared de aislamiento que lo rodea. El conjunto musical de las tres piezas es impactante, pero sobre todo la que me ha gustado más ha sido la primera (y desconocida por mí) parte.

¿Por qué os cuento todo esto? Pues por un artículo publicado por unos neurocientíficos de Berkeley sobre la reconstrucción de música a partir de la actividad cerebral en personas cuando escuchan música. Es decir, los científicos han conseguido "recrear" la música que las personas estaban escuchando, mediante la codificación, primero, y descodificación, después, de las ondas cerebrales de las diversas regiones de los lóbulos temporales y frontales activadas al escuchar una canción, usando algoritmos de inteligencia artificial. Y como los científicos eran fans de Pink Floyd, les pasaron varias canciones del grupo, entre las cuales, la famosa parte 2, pero también la parte 1 de "Another brick in the wall", y es esta última la que dio mejores resultados, probablemente porque era la menos conocida por los oyentes. Eso que os explico es un gran avance técnico, estamos hablando de "leer" la mente, en este caso reconstruyendo la melodía y la musicalidad lírica de las palabras de una canción.

Los científicos han conseguido "recrear" la música que las personas estaban escuchando, mediante la codificación, primero, y descodificación, después, de las ondas cerebrales de las diversas regiones de los lóbulos temporales y frontales

¿Cómo se ha hecho este experimento? De hecho, en primer lugar, hay que decir que no corresponde a un experimento como tal, sino que las grabaciones de la actividad cerebral se realizaron, entre 2008 y 2015, usando 2.688 electrodos intracraneales en 29 personas, pacientes psiquiátricos que sufrían crisis epilépticas que no respondían a medicación, y tenían que ser tratados mediante neurocirugía. Antes de la intervención, hay que hacer un seguimiento adecuado y cuidadoso para determinar cuáles son las zonas del cerebro donde se origina la crisis epiléptica. Deben realizarse grabaciones durante periodos largos —a veces semanas— con una estancia en el hospital donde la mayor parte del tiempo no hay ninguna crisis, pero los electrodos siguen puestos. Se pidió el consentimiento informado a los pacientes sobre si querían participar —de forma totalmente voluntaria— en una investigación sobre el procesamiento de la audición (tanto por el reconocimiento de palabras en una conversación como con respecto a la percepción de la música), y 15 mujeres y 14 hombres aceptaron participar. Es importante subrayar que la colocación de los electrodos estaba determinada exclusivamente por la recomendación clínica, y que las pruebas solo requerían escuchar determinadas palabras o canciones, sin ningún otro tipo de intervención ni actividad por parte de la persona implicada (así las ondas cerebrales originadas por la música no se mezclan con otras actividades del cerebro que pudieran hacerse concomitantemente). La canción de Pink Floyd que finalmente ha sido escogida es rica y compleja, musicalmente hablando, con diferentes acuerdos, armonías y ritmos, además de la voz humana. Y lo que los neurocientíficos han investigado es cómo estos distintos elementos musicales son percibidos y codificados en distintas regiones del cerebro. Estudiando la dinámica espaciotemporal de la activación neuronal y entrenando algoritmos de inteligencia artificial, los neurocientíficos pueden descodificar las ondas cerebrales y reconstruir qué y cómo se escucha, de forma análoga a cómo una pianista puede saber cómo suena una pieza musical con solo mirar los movimientos de las manos de otro pianista. Uno de los resultados más interesantes que han descubierto es que los distintos estímulos auditivos se codifican en distintas regiones; es decir, han podido localizar la distribución anatómica de la percepción de distintos elementos musicales. Por ejemplo, la percepción de la voz recae principalmente en el lóbulo temporal izquierdo, mientras que la percepción musical se codifica de forma más amplia: por ejemplo, el ritmo y los acordes musicales se codifican en regiones próximas pero distintas, con cierto predominio del lóbulo temporal derecho.

Evidentemente, la reconstrucción de la música se puede hacer porque se sabe de qué canción se trata, y aunque suena distorsionada, con la voz del cantante borrosa, podemos reconocer la melodía y la famosa frase "All in all, it was just a brick in the wall". Aquí os paso los enlaces, con un fragmento corto de la canción y su reconstrucción a partir de las ondas cerebrales, para que podáis comparar.

FRAGMENTO MUSICAL ORIGINAL PINK FLOYD, Another brick in the wall (Parte 1)
Audio S1 del artículo de Bellier et al. https://doi.org/10.1371/journal.pbio.3002176

FRAGMENTO MUSICAL RECONSTRUIDO mediante olas|ondas cerebrales de 29 personas
Audio S5 del artículo de Bellier et al. https://doi.org/10.1371/journal.pbio.3002176

 

Este tipo de investigación puede ser muy importante para ayudar a recuperar el habla a personas que, por traumatismo o enfermedad, han perdido la capacidad de hablar, ya que permite realizar mejores interfaces entre cerebro-ordenador para interpretar tanto lo que escuchamos como lo que queremos decir. Tengamos en cuenta que, en el habla, el tono, la entonación, el acento y el ritmo son muy relevantes para el significado, más allá de las palabras. Por otra parte, este mismo grupo de investigación y muchos otros llevan tiempo trabajando en la descodificación del habla, es decir, en saber interpretar cómo se activan distintas partes del cerebro cuando hablamos, es decir, cuando pronunciamos fonemas que se unen en sílabas para formar palabras y frases que tienen significado. Justamente, se acaban de publicar dos artículos en Nature sobre implantes cerebrales (interfaz cerebro-ordenador) que ayudan a expresarse a personas que, por parálisis muscular, ictus o traumatismo, no pueden hablar o su habla no es inteligible. En este caso, dichos implantes están en la región del córtex sensoriomotor facial (la que controla el movimiento de la lengua, los labios y los músculos orofaciales cuando hablamos), y han logrado —mediante sistemas de redes neuronales recurrentes y modelos de lenguaje, y tras un periodo de entrenamiento de la persona con el implante para que el ordenador este consiga interpretar correctamente las señales emitidas por las distintas zonas neuronales del cerebro— que la persona pueda ser comprensible, a una velocidad de emisión/interpretación de 78 palabras por minuto. Si el vocabulario es limitado, la tasa de error es pequeña, pero si el vocabulario es más complejo, hay un 25% de porcentaje de error. Es un grandísimo avance, que ha conseguido hacer hablar a personas que llevaban años sin poderse expresar oralmente. Sin embargo, todavía necesita mucho perfeccionamiento porque, además, cada persona tiene conexiones sutilmente distintas (dentro de la misma región) para controlar la emisión de los mismos fonemas y sílabas, de ahí la necesidad de entrenamiento previo entre cada individuo y el ordenador. Encontraréis más información en este interesante artículo periodístico.

¿Nos podrán leer la mente? ¿Sabrán qué tema musical estamos escuchando? Podemos escuchar el mismo tema musical y participar en la misma conversación, pero la percepción de las sensaciones y la reacción e interpretación personales a los mismos estímulos puede ser muy diversa. Tanto la música como el habla son experiencias íntimas, emocionales e individuales, que aunque estén codificadas y percibidas en ciertas regiones del cerebro, las neuronas —individuales y en red— pueden ser diferentemente activadas. Al final, la sutileza nos hace diferentes como individuos.