A beszéd és a zene két alapvetően emberi tevékenység, amelyeket az agyfélteke különböző részeiben dekódolunk. Egy új tanulmány egyedülálló megközelítést alkalmazott annak feltárására, hogy miért létezik ez a specializáció.
[wp_ad_camp_1]
A McGill Egyetem Neuro kutatói 100 acapella felvételt készítettek, mindegyik szoprán egy mondatot énekel. Ezután két alapvető hallási dimenzió mentén eltorzították a felvételeket: spektrális és időbeli dinamikával, és 49 résztvevővel különböztették meg az egyes dalok szavait vagy dallamát. A kísérletet két angol és francia nyelvű csoportban végezték el a reprodukálhatóság és az általánosíthatóság javítása érdekében. Megállapították, hogy mindkét nyelv esetében, amikor az időbeli információ torzult, a résztvevők nehezen tudtak megkülönböztetni a beszéd tartalmát, a dallamot pedig egyáltalán nem. Ezzel szemben, amikor a spektrális információk torzultak, nehezen tudták megkülönböztetni a dallamot, és ebben az esetben a beszédet egyáltalán nem. Ez azt mutatja, hogy a beszéd és a dallam különféle akusztikai jellemzőktől függ.
Annak tesztelésére, hogy az agy hogyan reagál ezekre a különféle hangjellemzőkre, a résztvevőket funkcionális mágneses rezonancia képalkotással letapogatták, miközben megkülönböztették a hangokat. A kutatók azt találták, hogy a beszédfeldolgozás a bal hallókéregben, míg a dallamos feldolgozás a jobb hallókéregben zajlott le. Ezután megpróbálták kipróbálni, hogy az egyes akusztikus dimenziók lebomlása hogyan befolyásolja az agyi aktivitást. Megállapították, hogy a spektrális dimenzió romlása csak a jobb hallókéregben befolyásolja az aktivitást, és csak a dallamérzékelés során, míg az időbeli dimenzió romlása csak a bal hallókéregben, és csak a beszédérzékelés során fordul elő.