Tak mózg interpretuje dźwięki. Muzyka kontra mowa

Czy można pomylić rozmowę i śpiew? Odpowiedź wydaje się oczywista. Wiemy, kiedy ktoś mówi, a kiedy nuci melodię – i to niezależnie od tego, czy znamy dany język lub piosenkę. Nasz mózg rozróżnia je w imponująco szybkim tempie. Jak to robi?

Sprawność ludzkiego mózgu jest imponująca

Przez nasze zmysły dociera do mózgu niezliczona ilość informacji, które są przetwarzane i interpretowane w zawrotnym tempie. Naukowcy odkryli, że analiza mowy pozwala zrozumieć, jak mózg interpretuje dźwięki mowy i śpiewu, które poruszają nasze emocje. Na przykład fale dźwiękowe docierające do ucha uruchamiają nerw słuchowy, zwany ślimakiem. Następnie wysyła on sygnały do mózgu, a konkretnie do obszaru odpowiedzialnego za przetwarzanie wszystkich dźwięków. Potem te sygnały wędrują do regionu, który zajmuje się przetwarzaniem muzyki lub mowy. To, dokąd trafi sygnał, decyduje, czy odbierzemy dany dźwięk jako śpiew, czy jako mowę.

Tak pokrótce wygląda sposób, w jaki nasze mózgi interpretują „usłyszane” dźwięki. Tajemnicą jednak pozostaje, jak rozróżniamy te dźwięki, zanim zostaną skierowane do konkretnego obszaru mózgu. Jedną z możliwych wskazówek jest wysokość dźwięku. Muzyka i mowa różnią się pod względem wysokości, barwy, melodii i fonemów.

Fonemy to najmniejsze jednostki dźwiękowe języka, które odróżniają znaczenie wyrazów. Można je porównać do klocków w językowym Lego – same w sobie nie mają znaczenia, ale ich układ decyduje o tym, co mówimy i jak to rozumiemy. Na przykład w polskich słowach „kot” i „kod” różnica między „t” a „d” to właśnie różnica fonemów – jeden malutki dźwięk, który zmienia cały sens. Dzięki fonemom nasze mowy przypominają symfonię, a nie chaotyczny hałas.

Polecamy: Czubówna pójdzie w odstawkę? YouTube dubbinguje filmy głosami generowanymi przez sztuczną inteligencję

Analiza mowy według naszego mózgu

Wróćmy jednak do mózgu i jego analizy mowy. Wiadomo, że nie przetwarza on wszystkich sygnałów dźwiękowych jednocześnie. Zarówno mowa, jak i muzyka są pełne bogatych dźwięków, ale mózg potrzebuje prostych wskazówek, by szybko zdecydować, które „instrumenty” w swojej orkiestrze uruchomić. Pytanie brzmi: jak mózg rozstrzyga, czy skierować dźwięk do „sekcji językowej”, czy może do „sekcji muzycznej”, aby go dokładniej przeanalizować?

Naukowcy z Uniwersytetów Nowojorskiego, Hongkońskiego i Meksykańskiego postanowili rozwikłać tę zagadkę. Portal Scientific American napisał, że wykazali w nich, że mózg wykorzystuje prostą cechę dźwięku – modulację amplitudy. Opisuje ona, jak szybko zmienia się głośność dźwięków w czasie. To właśnie ta właściwość pozwala na szybkie rozpoznawanie dźwięków. Ich odkrycia sugerują, że muzyka i mowa pełniły różne ewolucyjne role w rozwoju człowieka.

Analiza mowy, pusta sala wykładowa
Fot. jarmoluk/Pixabay

Poprzednie badania wykazały, że częstotliwość modulacji mowy jest podobna we wszystkich językach – wynosi od 4 do 5 Hz. W przypadku muzyki jest to 1 do 2 Hz. Oznacza to, że głośność naszego głosu podczas mówienia zmienia się szybciej w określonym czasie niż podczas śpiewania.

Uczeni postanowili zbadać, czy mózg posiada jakąś specyficzną „sygnaturę biologiczną” dla odróżniania mowy od muzyki. Aby to sprawdzić, nagrali specjalne pliki audio z białym szumem. W tych nagraniach dostosowali tempo zmiany głośności dźwięku oraz regularność rytmu – czyli to, czy dźwięk miał regularny rytm, czy był bardziej chaotyczny.

Wyniki eksperymentów: co różni mowę od muzyki?

Naukowcy przeprowadzili cztery eksperymenty z udziałem ponad 300 osób. Uczestnicy słuchali nagrań i odpowiadali, czy brzmią one bardziej jak mowa, czy jak muzyka. Wyniki ujawniły prostą zasadę: dźwięki z wolniejszymi i bardziej regularnymi rytmami częściej były oceniane jako muzyka. Natomiast szybsze i mniej regularne zmiany kojarzono z mową.

Odkrycie to sugeruje, że nasz mózg przypisuje spokojniejsze, płynniejsze rytmy muzyce, a dynamiczne, chaotyczne zmiany – mowie.

Te wyniki prowadzą do kolejnych pytań. Dlaczego mowa i muzyka różnią się pod względem modulacji amplitudy? Jednym z wyjaśnień może być ich rola w komunikacji. Mówimy, aby się porozumieć. Kiedy wypowiadamy słowa, angażujemy mięśnie przewodu głosowego – szczękę, język i usta – które najlepiej działają przy częstotliwości od 4 do 5 Hz. Co więcej, nasz system słuchowy również najlepiej odbiera dźwięki w tym zakresie częstotliwości.

To idealne dopasowanie między nadawcą a odbiorcą nie może być przypadkowe. Być może ewolucja wyposażyła nas w system maksymalizujący skuteczność wymiany informacji.

Mechanizm, dzięki któremu mózg oddziela muzykę od mowy, wciąż kryje wiele tajemnic. Analiza mowy pokazuje, że modulacja amplitudy to prawdopodobnie tylko jeden z elementów tego procesu – jak pojedyncza linia na adresowanej kopercie, która wskazuje kierunek, ale nie wyjaśnia całości. Odkrywanie tych sekretów pozostaje fascynującym wyzwaniem dla naukowców.

Polecamy: ChatGPT nie sprawdza się w roli lekarza. „Kuracje” pełne błędów

Opublikowano przez

Mateusz Tomanek

Autor


Krakus z urodzenia, wyboru i zamiłowania. Uprawiał dziennikarstwo radiowe, telewizyjne, by ostatecznie oddać się pisaniu dla Holistic.news. W dzień dziennikarz naukowy, w nocy zaprawiony muzyk, tekściarz i kompozytor. Jeśli nie siedzi przed komputerem, to zapewne ma koncert. W jego kręgu zainteresowań znajduje się technologia, ekologia i historia. Nie boi się podejmować nowych tematów, ponieważ uważa, że trzeba uczyć się przez całe życie.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.