El habla y la música son dos de los usos humanos del sonido más singulares. Pero a pesar de su excepcionalidad, su decodificación depende de las áreas cerebrales que procesan los demás sonidos, las cuales responden a ambos estímulos de manera diferente en función del hemisferio.

Una nueva investigación trata de esclarecer el porqué de esta especialización hemisférica. Según el estudio, publicado hoy en la revista
Science
, las personas hemos desarrollado sistemas neuronales complementarios en cada hemisferio para procesar los sonidos, lo que lleva a una especialización para el habla y la música en cada mitad del cerebro. Tal hecho puede ser la forma que tiene el sistema nervioso de optimizar la decodificación de ambos métodos de comunicación.





La música y el habla a menudo se encuentran a menudo entrelazadas y la capacidad de los humanos para reconocer y separar las palabras de las melodías en una canción representa un gran desafío cognitivo.

La música se procesa en el hemisferio derecho del cerebro
La música se procesa en el hemisferio derecho del cerebro
(Szilard Koszticsak / EFE)

A pesar de que se sabe desde hace décadas que cada hemisferio hace un papel diferente en ambos propósitos, la base fisiológica de tal diferencia sigue siendo un misterio. Estudios previos han propuesto una especialización de las neuronas del hemisferio izquierdo para manejar la información del discurso y del derecho para las melodías.

A ello se suma el hecho de que parece que la percepción del habla depende en gran medida de la capacidad de procesar modulaciones temporales muy cortas. En el caso de la música, la importancia recaería en la distinta composición del espectro del sonido, como pueden ser las fluctuaciones en la frecuencia, es decir, si suena más agudo o más grave.

“Las señales acústicas temporales están de hecho más presentes en el habla que las señales de música, mientras que las señales acústicas espectrales están más presentes en la música que las señales del habla”, explica Benjamin Morillon, neurocientífico en la Universidad de Aix-Marsella (Francia) y uno de los autores del estudio.






En el cerebro

Cada hemisferio no se ha especializado en procesar el discurso o la melodía, sino en las características del sonido





Así que el equipo de investigadores, liderado por Philippe Albouy, del Instituto y Hospital Neurológico de Montreal (Canadá) se formuló la siguiente pregunta: ¿La diferente manera de procesar el habla y la música en cada hemisferio depende de las características de las distintas señales acústicas o de redes neuronales específicas para procesar cada uno de estos dos estímulos sonoros?

Para encontrar una respuesta, los investigadores combinaron diez oraciones con diez melodías diseñadas para el experimento y así poder crear 100 grabaciones a cappella similares a esta. A continuación, los autores distorsionaron las grabaciones a lo largo del dominio temporal y del espectral -importantes para procesar el habla o la melodía respectivamente- y fueron escuchadas por 49 participantes a los que se indicó que distinguieran las palabras o las melodías de cada canción.

Según especifica Morillon, no transformaron los sonidos sino que los degradaron al suprimir algunas partes de la señal. “Básicamente eliminamos algunas regularidades espectrales o temporales, es decir, algunos armónicos (información espectral) o algunos ritmos (información temporal) presentes en la señal”.

El experimento se realizó en dos grupos de personas que hablaban inglés y francés con el fin de mejorar la generalización de los resultados.





Esquema del experimento
Esquema del experimento
(Adaptado de Benjamin Morillon)

El equipo descubrió que, cuando la información temporal estaba distorsionada, los participantes tenían problemas para distinguir el contenido del discurso pero no la melodía. Por el contrario, cuando la información espectral se distorsionaba, tenían problemas para distinguir la melodía pero no el discurso. Esto ocurrió en ambos idiomas.

Escáneres cerebrales realizados de manera simultánea revelaron que el procesamiento del habla se produjo en las regiones auditivas del hemisferio izquierdo, mientras que el procesamiento melódico se produjo en el derecho.

Por tanto, ambos resultados tomados de forma conjunta indican que, efectivamente, cada hemisferio de encarga de procesar el habla o la música aunque tal asimetría no se debe a que se hayan especializado en uno de estos dos estímulos auditivos. En cambio, la especialización se ha producido en características acústicas básicas relevantes para ambas señales comunicativas.





Dejá tu comentario