Podobnie jak w przypadku innych pierwotnych obszarów kory czuciowej, wrażenia słuchowe osiągają percepcję tylko wtedy, gdy są odbierane i przetwarzane przez obszar kory. Dowody na to pochodzą z badań nad zmianami chorobowymi u ludzi, którzy doznali uszkodzeń obszarów korowych w wyniku guzów lub udarów, lub z doświadczeń na zwierzętach, w których obszary korowe zostały zdezaktywowane przez zmiany chirurgiczne lub inne metody. Uszkodzenie kory słuchowej u ludzi prowadzi do utraty świadomości dźwięków, ale zdolność do odruchowej reakcji na dźwięki pozostaje, ponieważ w pniu mózgu i śródmózgowiu zachodzi wiele podkorowych procesów przetwarzania.
Neurony w korze słuchowej są zorganizowane zgodnie z częstotliwością dźwięku, na którą najlepiej reagują. Neurony na jednym końcu kory słuchowej najlepiej reagują na niskie częstotliwości; neurony z drugiej strony najlepiej reagują na wysokie częstotliwości. Istnieje wiele obszarów słuchowych (podobnie jak liczne obszary kory wzrokowej), które można rozróżnić anatomicznie i na podstawie tego, że zawierają one pełną „mapę częstotliwości”. Cel tej mapy częstotliwości (znanej jako mapa tonotopowa) prawdopodobnie odzwierciedla fakt, że ślimak jest ułożony zgodnie z częstotliwością dźwięku. Kora słuchowa jest zaangażowana w takie zadania, jak identyfikacja i segregacja „obiektów słuchowych” oraz identyfikacja lokalizacji dźwięku w przestrzeni. Na przykład wykazano, że A1 koduje złożone i abstrakcyjne aspekty bodźców słuchowych bez kodowania ich „surowych” aspektów, takich jak zawartość częstotliwości, obecność wyraźnego dźwięku lub jego echa.
Skany ludzkiego mózgu wykazały, że peryferyjna część tego regionu mózgu jest aktywna podczas próby identyfikacji tonu muzycznego. Poszczególne komórki są stale podniecane dźwiękami o określonych częstotliwościach lub wielokrotnościach tej częstotliwości.
Kora słuchowa odgrywa ważną, ale niejednoznaczną rolę w słyszeniu. Kiedy informacje słuchowe docierają do kory, szczegóły tego, co dokładnie się dzieje, są niejasne. Istnieje duży stopień indywidualnej zmienności w korze słuchowej, jak zauważył angielski biolog James Beament, który napisał: „Kora jest tak złożona, że możemy mieć tylko nadzieję, że ją zrozumiemy w zasadzie, ponieważ dowody, które już mamy sugeruje, że żadne dwie kory mózgowe nie działają dokładnie w ten sam sposób. ”
W procesie słyszenia transdukowanych jest wiele dźwięków jednocześnie. Rolą układu słuchowego jest decydowanie, które komponenty tworzą łącze dźwiękowe. Wielu przypuszczało, że to powiązanie opiera się na lokalizacji dźwięków. Jednak istnieje wiele zniekształceń dźwięku podczas odbijania się od różnych mediów, co sprawia, że takie myślenie jest mało prawdopodobne. Kora słuchowa tworzy grupy oparte na podstawach; w muzyce obejmowałoby to na przykład harmonię, synchronizację i tonację.
Pierwotna kora słuchowa znajduje się w górnym zakręcie skroniowym płata skroniowego i rozciąga się do bocznej bruzdy i poprzecznego zakrętu skroniowego (również zwane żyrami Heschla). Końcowe przetwarzanie dźwięku jest następnie wykonywane przez płat ciemieniowy i czołowy ludzkiej kory mózgowej. Badania na zwierzętach wskazują, że pola słuchowe kory mózgowej otrzymują wejście wznoszące ze wzgórza słuchowego i są ze sobą połączone na tym samym i na przeciwnych półkulach mózgowych.
Kora słuchowa składa się z pól różniących się od siebie strukturą i funkcją. Liczba pól jest różna u różnych gatunków, od zaledwie 2 u gryzoni do u rezusów aż 15. Liczba, lokalizacja i organizacja pól w ludzkiej korze słuchowej nie są obecnie znane. To, co wiemy o ludzkiej korze słuchowej, pochodzi z bazy wiedzy zdobytej na podstawie badań u ssaków, w tym naczelnych, używane do interpretacji testów elektrofizjologicznych i badań funkcjonalnego obrazowania mózgu u ludzi.
Kiedy każdy instrument orkiestry symfonicznej lub zespołu jazzowego gra ten sam dźwięk, jakość każdego dźwięku jest inna , ale muzyk postrzega każdą nutę jako mającą ten sam ton. Neurony kory słuchowej mózgu są w stanie reagować na dźwięk. Badania na małpach marmozet wykazały, że neurony selektywne względem tonu są zlokalizowane w obszarze korowym w pobliżu przednio-bocznej granicy pierwotnej kory słuchowej. Ta lokalizacja obszaru selektywnego tonu została również zidentyfikowana w ostatnich badaniach obrazowania funkcjonalnego u ludzi.
Pierwotna kora słuchowa podlega modulacji przez liczne neuroprzekaźniki, w tym norepinefrynę, która, jak wykazano, zmniejsza pobudliwość komórkową we wszystkich warstwach kory skroniowej. Aktywacja receptora alfa-1 adrenergicznego przez norepinefrynę zmniejsza pobudzające potencjały postsynaptyczne glutaminergiczne na receptorach AMPA.
Związek z układem słuchowymEdytuj
Obszary lokalizacji na bocznej powierzchni półkuli. Obszar silnika na czerwono. Obszar wrażeń ogólnych zaznaczony na niebiesko. Obszar dźwiękowy na zielono.Pole widzenia w kolorze żółtym.
Kora słuchowa jest najbardziej zorganizowaną jednostką przetwarzającą dźwięk w mózgu. Ten obszar kory jest neuronalnym rdzeniem słuchu oraz – u ludzi – języka i muzyki. Kora słuchowa jest podzielona na trzy oddzielne części: pierwszorzędową, drugorzędną i trzeciorzędową korę słuchową. Struktury te są uformowane koncentrycznie wokół siebie, z główną korą pośrodku i trzeciorzędową korą na zewnątrz.
Pierwotna kora słuchowa jest zorganizowana tonotopowo, co oznacza, że sąsiednie komórki w korze odpowiadają na sąsiednie częstotliwości. Mapowanie tonotopowe jest zachowane przez większość obwodu odsłuchowego. Pierwotna kora słuchowa otrzymuje bezpośredni sygnał ze środkowego jądra kolankowatego wzgórza i dlatego uważa się, że identyfikuje podstawowe elementy muzyki, takie jak wysokość i głośność.
potencjały pola do pomiaru plastyczności kory słuchowej. Kocięta te były stymulowane i mierzone względem kontroli (nie stymulowany kot z wrodzoną głuchotą (CDC)) i kotów normalnie słyszących. Potencjały pola zmierzone dla sztucznie stymulowanego CDC były ostatecznie znacznie silniejsze niż u normalnie słyszącego kota. To odkrycie jest zgodne z badaniami Eckarta Altenmullera, w których zaobserwowano, że uczniowie, którzy otrzymali instrukcje muzyczne, mieli większą aktywację korową niż ci, którzy tego nie otrzymali.
Kora słuchowa ma wyraźne reakcje na dźwięki w paśmie gamma . Kiedy osobnicy są wystawieni na trzy lub cztery cykle kliknięcia 40 Hz, w danych EEG pojawia się nienormalny skok, który nie występuje w przypadku innych bodźców. Wzrost aktywności neuronalnej odpowiadający tej częstotliwości nie jest ograniczony do tonotopowej organizacji kory słuchowej. Wysunięto teorię, że częstotliwości gamma są częstotliwościami rezonansowymi pewnych obszarów mózgu i wydają się mieć również wpływ na korę wzrokową. Wykazano, że aktywacja pasma gamma (od 25 do 100 Hz) występuje podczas percepcji zdarzeń sensorycznych i procesu rozpoznawania. W badaniu przeprowadzonym w 2000 roku przez Kneif i współpracowników badanym przedstawiono osiem nut do znanych melodii, takich jak Yankee Doodle i Frère Jacques. Losowo, szósta i siódma nuta zostały pominięte, a do pomiaru wyników neuronowych zastosowano elektroencefalogram, a także magnetoencefalogram. Dokładniej, obecność fal gamma, wywołanych wykonywanym zadaniem słuchowym, mierzono w skroniach badanych. Pominięta odpowiedź na bodziec (OSR) znajdowała się w nieco innym położeniu; 7 mm bardziej do przodu, 13 mm bardziej przyśrodkowo i 13 mm lepiej w stosunku do całych zestawów. Nagrania OSR były również charakterystycznie niższe pod względem fal gamma w porównaniu z pełnym zestawem muzycznym. Zakłada się, że wywołane odpowiedzi podczas szóstej i siódmej pominiętej nuty są wyobrażone i były charakterystycznie różne, zwłaszcza na prawej półkuli. Od dawna wykazano, że prawa kora słuchowa jest bardziej wrażliwa na tonalność (wysoka rozdzielczość widmowa), podczas gdy lewa kora słuchowa jest bardziej wrażliwa na drobne sekwencyjne różnice (szybkie zmiany czasowe) w dźwięku, na przykład w mowie.
Tonalność jest reprezentowana nie tylko w korze słuchowej; jeszcze jednym szczególnym obszarem jest przedczołowa kora przedczołowa (RMPFC). W badaniu zbadano obszary mózgu, które były aktywne podczas przetwarzania tonacji, przy użyciu fMRI. Wyniki tego eksperymentu wykazały preferencyjną aktywację określonych wokseli w zależności od poziomu tlenu we krwi w RMPFC dla określonych aranżacji tonalnych. Chociaż te zbiory wokseli nie reprezentują tych samych układów tonalnych między badanymi lub w ramach wielu prób, jest interesujące i pouczające, że RMPFC, obszar zwykle niezwiązany z odsłuchami, wydaje się kodować dla natychmiastowych uzgodnień tonalnych w tym zakresie. RMPFC to podsekcja przyśrodkowej kory przedczołowej, która rzutuje na wiele różnych obszarów, w tym na ciało migdałowate, i uważa się, że pomaga w hamowaniu negatywnych emocji.
Inne badanie sugeruje, że osoby, które doświadczają „dreszczy” podczas słuchania muzyki mają większą objętość włókien łączących ich korę słuchową z obszarami związanymi z przetwarzaniem emocjonalnym.
W badaniu dotyczącym dychotycznego słuchania mowy, w którym jedna wiadomość jest przekazywana do prawego ucha, a druga do po lewej stwierdzono, że uczestnicy znacznie częściej wybierali litery z przystankami (np. „p”, „t”, „k”, „b”), gdy były one prezentowane do prawego ucha niż do lewego. Jednak w przypadku dźwięków fonemicznych o dłuższym czasie trwania, takich jak samogłoski, uczestnicy nie faworyzowali żadnego konkretnego ucha. Ze względu na kontralateralny charakter narządu słuchu, ucho prawe połączone jest z obszarem Wernickego, znajdującym się w tylnej części zakrętu skroniowego górnego lewej półkuli mózgowej.
Dźwięki docierające do kory słuchowej są traktowane różnie w zależności od tego, czy zarejestrują się jako mowa. Kiedy ludzie słuchają mowy, zgodnie z hipotezami silnego i słabego trybu mowy, odpowiednio angażują mechanizmy percepcyjne charakterystyczne dla mowy lub angażują swoją wiedzę o języku jako całości.