Sistemi sensoriali/Sistema uditivo

Introduzione modifica

Il sistema sensoriale per la percezione di suoni è il sistema uditivo. Questo wikibook copre la fisiologia del sistema uditivo e le sue applicazioni alle protesi neurosensoriali di maggior successo, gli impianti cocleari. Il lato fisico e ingegneristico dell'udito sono trattate in un wikibook separato, Acustica (pagina in inglese). Un'eccellente fonte di immagini e animazioni è "Journey into the world of hearing"[1].

La capacità di sentire non si trova in modo così ampio nel regno animale come, ad esempio, il senso del tatto, gusto o olfatto. È ristretta principalmente a vertebrati e insetti; nello specifico i mammiferi e gli uccelli hanno il senso dell'udito più sviluppato. La tabella seguente mostra le gamme di frequenze che gli esseri umani e alcuni animali possono udire:

Uomo 20-20'000 Hz
Balena 20-100'000 Hz
Pipistrello 1'500-100'000 Hz
Pesce 20-3'000 Hz

L'organo che rileva il suono è l'orecchio. Funge da ricevitore nel processo di raccolta delle informazioni acustiche e di passaggio delle stesse al cervello attraverso il sistema nervoso. L'orecchio include strutture sia per il senso dell'udito che per il senso dell'equilibrio. Non gioca solo un ruolo importante come parte del sistema uditivo per ricevere il suono, ma anche nel senso dell'equilibrio e della posizione del corpo.

L'uomo ha due orecchie posizionate simmetricamente su entrambi i lati della testa, il che rende possibile localizzare le fonti sonore. Il cervello estrae ed elabora diversi dati per localizzare il suono, come ad esempio:

  • la forma dello spettro sonoro nel timpano
  • la differenza di intensità sonora tra l'orecchio destro e quello sinistro
  • la differenza di tempo tra l'orecchio destro e quello sinistro
  • la differenza di tempo tra le riflessioni dell'orecchio stesso, in altre parole la forma del padiglione auricolare (pieghe e creste) riflette il suono in modo differente e questo aiuta a localizzare la sorgente, soprattutto verticalmente.

Esseri umani giovani e sani sono in grado di sentire i suoni su una gamma di frequenza da 20 Hz a 20 kHz. Siamo più sensibili alle frequenze tra 2000 e 4000 Hz che è la gamma di frequenza delle parole parlate. La risoluzione di frequenza è dello 0,2%, il che significa che l'orecchio é in grado di percepire la differenza tra un tono di 1000 Hz e uno di 1002 Hz. Un suono a 1 kHz può essere rilevato se devia la membrana timpanica (timpano) di meno di 1 Angstrom, che è meno del diametro di un atomo di idrogeno. Questa estrema sensibilità dell'orecchio può spiegare perché contiene l'osso più piccolo che esiste all'interno del corpo umano: la staffa. La quale é lunga da 0,25 a 0,33 cm e pesa tra 1,9 e 4,3 mg.

Il video seguente fornisce una panoramica dei concetti che saranno presentati più in dettaglio nelle prossime sezioni.

Questo video animato illustra come i suoni viaggiano fino all'orecchio interno e poi al cervello, dove vengono interpretati e compresi. La coclea nell'orecchio interno è un organo a forma di spirale che contiene cellule ciliate, che percepiscono le vibrazioni del suono. Le cellule ciliate convertono le vibrazioni sonore in segnali chimici che il nervo acustico può comprendere.

L'anatomia del sistema uditivo modifica

Orecchio (esterno) umano

Lo scopo di questa sezione è spiegare l'anatomia del sistema uditivo degli esseri umani. Questo capitolo presenta la composizione dell'organo uditivo seguendo l'ordine in cui viene elaborata un'informazione acustica.

Si prega di notare che le informazioni fondamentali per "Sensory Organ Components" possono essere trovate anche nella pagina di Wikipedia "Auditory system", escludendo alcune modifiche come estensioni e specifiche fatte in questo articolo. (vedi anche: Wikipedia Auditory system)

Il sistema uditivo percepisce le onde sonore, le quali sono cambiamenti nella pressione dell'aria, e converte questi cambiamenti in segnali elettrici. Questi segnali possono poi essere elaborati, analizzati e interpretati dal cervello. Per il momento, concentriamoci sulla struttura e sui componenti del sistema uditivo. Il sistema uditivo è composto principalmente da due parti:

  • l'orecchio
  • il sistema nervoso dell'udito

L'orecchio modifica

L'orecchio è l'organo dove avviene la prima elaborazione del suono e dove si trovano i recettori sensoriali. È composto da tre parti:

  • l'orecchio esterno
  • l'orecchio medio
  • l'orecchio interno
Anatomia dell'orecchio umano (verde: orecchio esterno / rosso: orecchio medio / viola: orecchio interno)

L'orecchio esterno modifica

Funzione: Convogliare di onde sonore e amplificazione della pressione sonora.

La struttura cartilaginea che circonda il condotto uditivo (meato uditivo esterno, meato acustico esterno) è chiamato padiglione auricolare, ed è la parte visibile dell'orecchio. Le onde sonore vengono riflesse e attenuate quando colpiscono il padiglione auricolare. Questi cambiamenti forniscono informazioni aggiuntive che aiutano il cervello a determinare la direzione da cui provengono i suoni.

Le onde sonore entrano nel canale uditivo, un tubo apparentemente semplice. Il canale uditivo amplifica i suoni compresi tra 3 e 12 kHz. All'estremità del canale uditivo si trova la membrana timpanica (timpano), che segna l'inizio dell'orecchio medio.

L'orecchio medio modifica

Immagine microtomografica della struttura ossea che mostra la posizione relativa di ogni ossicino

Funzione: Trasferimento delle onde acustiche dall'aria alla coclea.

Le onde sonore che viaggiano attraverso il canale uditivo colpiscono la membrana timpanica (timpano). Questa vibrazione attraversa la cavità timpanica piena d'aria (cavità dell'orecchio medio) tramite una serie di ossa: il malleus (martello), l'incus (incudine) e la stapes (staffa). Questi ossicini convertono le vibrazioni sonore a bassa pressione del timpano in vibrazioni sonore a pressione più alta in un'altra membrana più piccola chiamata finestra ovale (o ellittica), che è una delle due aperture nella coclea dell'orecchio interno. La seconda apertura è chiamata finestra rotonda, la quale permette al fluido nella coclea di muoversi.

Il martello interagisce con la membrana timpanica attraverso il manubrio, mentre la staffa interagisce con la finestra ovale attraverso la sua base. Una pressione più alta è necessaria perché l'orecchio interno, dall'altro lato della finestra ovale, contiene liquido invece che aria. Il suono non è amplificato uniformemente attraverso la catena ossiculare. Il riflesso stapediale nel muscolo dell'orecchio medio aiuta a proteggere l'orecchio interno dai danni.

Nell'orecchio medio l'informazione rimane sotto forma d'onde di pressione; è convertita in impulsi nervosi nella coclea.

L'orecchio interno modifica

Diagramma strutturale della coclea Sezione della coclea Coclea e sistema vestibolare da una risonanza magnetica

Funzione: Trasformazione di onde acustiche (suono) in segnali elettrici (segnali neurali).

L'orecchio interno è composto dalla coclea e da diverse strutture non uditive. La coclea è una parte a forma di lumaca dell'orecchio interno. Ha tre sezioni piene di fluido: scala timpanica, scala media (condotto cocleare) e scala vestibolare. All'interno della coclea le vibrazioni ricevute dalla finestra ovale generano onde di pressione che si ripercuotono, quasi contemporaneamente in tutte le parti della chiocciola. Si genera quindi lo spostamento di una piccola quantità di liquido che si ripercuote in una sollecitazione della membrana basilare, la quale separa due delle sezioni (scala timpanica e scala media). La membrana basilare è lunga circa 3 cm e larga da 0,5 a 0,04 mm. La membrana di Reissner (membrana vestibolare) separa la scala media e la scala vestibolare.

Sorprendentemente, una sezione, la scala media, contiene un fluido extracellulare simile per composizione all'endolinfa, che si trova solitamente all'interno delle cellule. L'organo di Corti si trova in questa scala e trasforma le onde meccaniche in segnali elettrici nei neuroni. Le altre due sezioni, scala timpanica e scala vestibolare, sono situate all'interno del labirinto osseo che è pieno di fluido chiamato perilinfa. La differenza chimica tra i due fluidi endolinfa (in scala media) e perilinfa (in scala timpanica e scala vestibolare) è importante per la funzione dell'orecchio interno.

L'organo di Corti modifica

L'organo di Corti forma un nastro di epitelio sensoriale che corre lungo tutta la coclea. Le cellule ciliate dell'organo del Corti trasformano le onde di pressione in segnali nervosi. Il viaggio di un miliardo di nervi inizia con questo primo passo; la successiva elaborazione porta a una serie di reazioni e sensazioni uditive.

Transizione dall'orecchio al sistema nervoso uditivo modifica

Sezione dell'organo di Corti

Cellule ciliate modifica

Le cellule ciliate sono cellule disposte in colonna, ciascuna con un gruppo di 100-200 ciglia specializzate nella parte superiore, da cui prendono il nome. Queste ciglia sono i meccanosensori dell'udito. Quelle più corte sono chiamate stereocilia, e la più lunga alla fine di ogni gruppo di ciglia è il kinocilio. La posizione del kinocilio determina l'on-direction, cioè la direzione di deflessione che induce la massima eccitazione delle cellule ciliate. Appoggiato leggermente sopra le ciglia più lunghe è la membrana tettoria, che si muove avanti e indietro con ogni ciclo del suono, inclinando le ciglia e permettendo alla corrente elettrica di passare nelle cellule ciliate.

La funzione delle cellule ciliate non è attualmente completamente conosciuta. Attualmente, la conoscenza della funzione delle cellule ciliate permette di sostituire le cellule con impianti cocleari in caso di perdita dell'udito. Tuttavia, ulteriori ricerche sulla funzione delle cellule ciliate potrebbero un giorno rendere possibile anche la riparazione delle cellule. Il modello attuale è che le ciglia sono attaccate l'una all'altra da "tip links", strutture che collegano le punte di una cilia all'altra. Allungandosi e comprimendosi, i tip links aprono un canale ionico e modificano il potenziale recettoriale nella cellula ciliare. Si noti che una deflessione di 100 nanometri suscita già il 90% del potenziale recettoriale completo.

Neuroni modifica

Il sistema nervoso si distingue tra fibre nervose che portano informazioni verso il sistema nervoso centrale e fibre nervose che portano le informazioni lontano da esso:

  • Neuroni afferenti (neuroni sensoriali o recettori) portano gli impulsi nervosi dai recettori (organi di senso) verso il sistema nervoso centrale
  • Neuroni effettori (neuroni motori) portano gli impulsi nervosi dal sistema nervoso centrale agli effettori come i muscoli o le ghiandole (e anche le cellule ciliate dell'orecchio interno)

I neuroni afferenti innervano le cellule ciliate interne cocleari, in sinapsi dove il neurotrasmettitore glutammato comunica i segnali dalle cellule ciliate ai dendriti dei neuroni uditivi primari.

Ci sono molte meno cellule ciliate interne nella coclea che fibre nervose afferenti. I dendriti neurali appartengono ai neuroni del nervo uditivo, che a sua volta si unisce al nervo vestibolare per formare il nervo vestibolo-cocleare, o nervo cranico numero VIII.

Anche le proiezioni efferenti dal cervello alla coclea hanno un ruolo nella percezione del suono. Le sinapsi efferenti terminano sulle cellule ciliate esterne e sui dendriti afferenti (verso il cervello) sotto le cellule ciliate interne.

Sistema nervoso dell'apparato uditivo modifica

L'informazione sonora, ora ricodificata sotto forma di segnali elettrici, viaggia lungo il nervo uditivo (nervo acustico, nervo vestibolo-cocleare, VIII nervo cranico), attraverso stazioni intermedie come i nuclei cocleari e il complesso olivario superiore del tronco encefalico e il collicolo inferiore del mesencefalo, venendo ulteriormente elaborata ad ogni tappa. Le informazioni raggiungono infine il talamo, e da lì vengono trasmesse alla corteccia. Nel cervello umano, la corteccia uditiva primaria si trova nel lobo temporale.

Corteccia uditiva primaria modifica

La corteccia uditiva primaria è la prima regione della corteccia cerebrale a ricevere input uditivi.

La percezione del suono è associata alla circonvoluzione temporale superiore destra. La circonvoluzione temporale superiore contiene diverse strutture importanti del cervello, tra cui le aree 41 e 42 di Brodmann, che indicano la posizione della corteccia uditiva primaria. Quest'ultima è responsabile della sensazione delle caratteristiche fondamentali del suono come l'intonazione e il ritmo.

L'area di associazione uditiva si trova nel lobo temporale del cervello, in un'area chiamata area di Wernicke, o area 22. Quest'area, vicino al solco cerebrale laterale, è una regione importante per l'elaborazione dei segnali acustici in modo che possano essere distinti come discorso, musica o rumore.

Elaborazione del segnale uditivo modifica

Ora che l'anatomia del sistema uditivo è stata abbozzata, questo argomento approfondisce i processi fisiologici che hanno luogo durante la percezione delle informazioni acustiche e la conversione di queste informazioni in dati che possono essere gestiti dal cervello. L'udito inizia con le onde di pressione che colpiscono il canale uditivo e viene infine percepito dal cervello. Questa sezione approfondisce il processo che trasforma le vibrazioni in percezione.

Effetto della testa modifica

Le onde sonore con una lunghezza d'onda più corta della testa producono un'ombra sonora sull'orecchio più lontano dalla sorgente sonora. Quando la lunghezza d'onda è più lunga della testa, la diffrazione del suono porta a intensità sonore approssimativamente uguali su entrambe le orecchie.

La differenza di intensità e di tempo ci aiuta a localizzare la fonte di un segnale sonoro.

Ricezione del suono modifica

Il padiglione auricolare raccoglie le onde sonore nell'aria modificando il suono proveniente da dietro e dalla parte anteriore in modo diverso con la sua forma ondulata. Le onde sonore sono riflesse e attenuate o amplificate. Questi cambiamenti aiuteranno in seguito la localizzazione del suono.

Nel canale uditivo esterno, i suoni tra 3 e 12 kHz - una gamma cruciale per la comunicazione umana - sono amplificati. Agisce come un risonatore che amplifica le frequenze in entrata.

Conduzione del suono nella coclea modifica

Il suono entrato nel padiglione sotto forma di onde viaggia lungo il canale uditivo fino a raggiungere l'inizio dell'orecchio medio segnato dalla membrana timpanica (timpano). Poiché l'orecchio interno è riempito di fluido, l'orecchio medio è una specie di dispositivo di adattamento dell'impedenza per risolvere il problema della riflessione dell'energia sonora nel passaggio dall'aria al fluido. Per esempio, nel passaggio dall'aria all'acqua il 99,9% dell'energia sonora in entrata viene riflessa. Questo può essere calcolato utilizzando:


dove Ir é l'intensità del suono riflesso, Ii é l'intensità del suono entrante e Zk la resistenza delle onde nei due mezzi ( Zaria = 414 kg m-2 s-1 e Zacqua = 1.48*106 kg m-2 s-1). I tre fattori che contribuiscono all'adattamento dell'impedenza sono:

  • la differenza di dimensione relativa tra timpano e finestra ovale
  • l'effetto leva degli ossicini dell'orecchio medio e
  • la forma del timpano.
Meccanica dell'effetto di amplificazione dell'orecchio medio.

Le variazioni longitudinali della pressione dell'aria nell'onda sonora fanno vibrare la membrana timpanica che, a sua volta, fa oscillare sincronicamente i tre ossicini concatenati martello, incudine e staffa. Queste ossa vibrano come un'unità, muovendo l'energia dalla membrana timpanica alla finestra ovale. Inoltre, l'energia del suono è ulteriormente potenziata dalla differenza d'area tra la membrana e la pedana della staffa. L'orecchio medio agisce come un trasformatore di impedenza trasformando l'energia sonora raccolta dalla membrana timpanica in una maggiore forza e minore escursione. Questo meccanismo facilita la trasmissione delle onde sonore dall'aria alle vibrazioni del fluido nella coclea. La trasformazione avviene grazie al movimento oscillatorio a pistone della pedana della staffa che si trova nella finestra ovale. Questo movimento eseguito dalla pedana mette in movimento il fluido nella coclea.

Attraverso il muscolo stapedio, il più piccolo muscolo del corpo umano, l'orecchio medio ha una funzione simile a quella di un interruttore: contraendo questo muscolo cambia l'impedenza dell'orecchio medio, proteggendo così l'orecchio interno dai danni causati dai suoni forti.

Analisi della frequenza nella coclea modifica

I tre compartimenti pieni di fluido della coclea (scala vestibolare, scala media, scala timpanica) sono separati dalla membrana basilare e dalla membrana di Reissner. La funzione della coclea è quella di separare i suoni secondo il loro spettro e trasformarlo in impulsi neurali.

Quando la pedana della staffa spinge nella perilinfa della scala vestibolare, come conseguenza la membrana di Reissner si inarca nella scala media. Questa flessione della membrana di Reissner causa lo spostamento dell'endolinfa all'interno della scala media e induce un inarcamento della membrana basilare.

La separazione delle frequenze sonore nella coclea è dovuta alle proprietà speciali della membrana basilare. Il fluido nella coclea vibra (a causa del movimento oscillatorio della pedana della staffa) mettendo in movimento la membrana come un'onda. L'onda inizia alla base e progredisce verso l'apice della coclea. Le onde trasversali nella membrana basilare si propagano con


dove μ é il modulo di taglio e ρ la densità del materiale. Poiché la larghezza e la tensione della membrana basilare cambiano, la velocità delle onde che si propagano lungo la membrana cambia da circa 100 m/s vicino alla finestra ovale a 10 m/s vicino all'apice.

C'è un punto lungo la membrana basilare dove l'ampiezza dell'onda diminuisce bruscamente. In questo punto, l'onda sonora nel liquido cocleare produce lo spostamento massimo (ampiezza di picco) della membrana basilare. La distanza che l'onda percorre prima di arrivare a quel punto caratteristico dipende dalla frequenza del suono in entrata. Quindi ogni punto della membrana basilare corrisponde a un valore specifico della frequenza di stimolazione. Un suono a bassa frequenza percorre una distanza maggiore di un suono ad alta frequenza prima di raggiungere il suo punto caratteristico. Le frequenze sono scalate lungo la membrana basilare con alte frequenze alla base e basse frequenze all'apice della coclea.

La posizione x dell'ampiezza massima dell'onda viaggiante corrisponde in modo 1 a 1 alla frequenza dello stimolo.

Trasduzione sensoriale nella coclea modifica

La maggior parte dei suoni quotidiani sono composti da più frequenze. Il cervello elabora le frequenze distinte, non i suoni completi. A causa delle sue proprietà disomogenee, la membrana basilare esegue un'approssimazione della trasformata di Fourier. Il suono viene così suddiviso nelle sue diverse frequenze, e ogni cellula ciliata sulla membrana corrisponde a una certa frequenza. L'intensità delle frequenze è codificata dal tasso di accensione della fibra afferente corrispondente. Ciò è dovuto all'ampiezza dell'onda viaggiante sulla membrana basilare, che dipende dall'intensità del suono in arrivo.

Meccanismo di trasduzione nella cellula ciliare uditiva o vestibolare. Inclinando la cellula ciliare verso il kinocilio si aprono i canali ionici del potassio. Questo cambia il potenziale del recettore nella cellula ciliata. La risultante emissione di neurotrasmettitori può provocare un potenziale d'azione (AP) nella cellula postsinaptica.
Le cellule ciliate uditive sono molto simili a quelle del sistema vestibolare. Qui un'immagine al microscopio elettronico di una cellula ciliata del sacculo di una rana.
Ulteriore esempio delle cellule ciliate di una rana.

Le cellule sensoriali del sistema uditivo, note come cellule ciliate, sono situate lungo la membrana basilare all'interno dell'organo del Corti. Ogni organo del Corti contiene circa 16.000 di queste cellule, innervate da circa 30.000 fibre nervose afferenti. Ci sono due tipi anatomicamente e funzionalmente distinti di cellule ciliate: quelle interne e quelle esterne. Lungo la membrana basilare questi due tipi sono disposti in una fila di cellule interne e da tre a cinque file di cellule esterne. La maggior parte dell'innervazione afferente proviene dalle cellule ciliate interne, mentre la maggior parte dell'innervazione efferente va alle cellule ciliate esterne. Le cellule ciliate interne influenzano il tasso di scarica delle singole fibre nervose uditive che si collegano a queste cellule ciliate. Quindi le cellule ciliate interne trasferiscono le informazioni sonore ai centri nervosi uditivi superiori. Le cellule ciliate esterne, al contrario, amplificano il movimento della membrana basilare aggiungendo energia nel movimento della membrana e riducendo le perdite per attrito, ma non contribuiscono alla trasmissione delle informazioni sonore.

Il movimento della membrana basilare deflette le stereociglia (peli sulle cellule ciliate) e provoca una diminuzione (depolarizzazione) o un aumento (iperpolarizzazione) dei potenziali intracellulari delle cellule ciliate, a seconda della direzione della deflessione. Quando le stereociglia sono in posizione di riposo, c'è una corrente costante che scorre attraverso i canali delle cellule. Il movimento delle stereociglia modula il flusso di corrente.

Guardiamo separatamente i modi d'azione dei due diversi tipi di cellule ciliate:

  • Cellule ciliate interne:

La deflessione delle stereociglia della cellula ciliata apre canali ionici meccanicamente legati che permettono a piccoli ioni di potassio caricati positivamente (K+) di entrare nella cellula, causandone la depolarizzazione. A differenza di molte altre cellule elettricamente attive, la cellula ciliata stessa non genera un potenziale d'azione. Invece, l'afflusso di ioni positivi dall'endolinfa nella scala media depolarizza la cellula, provocando un potenziale recettoriale. Questo potenziale recettoriale apre i canali del calcio, gli ioni di calcio (Ca2+) entrano nella cellula e innescano il rilascio di neurotrasmettitori all'estremità basale della cellula. I neurotrasmettitori si diffondono attraverso lo stretto spazio tra la cellula ciliata e un terminale nervoso, dove poi si legano ai recettori e quindi innescano potenziali d'azione nel nervo. In questo modo, il neurotrasmettitore aumenta il tasso di accensione nell'VIII nervo cranico e il segnale sonoro meccanico viene convertito in un segnale nervoso elettrico.

La ripolarizzazione nella cellula ciliata avviene in modo speciale. La perilinfa nella scala timpanica ha una concentrazione molto bassa di ioni positivi. Il gradiente elettrochimico fa fluire gli ioni positivi attraverso canali verso la perilinfa (vedi anche: Wikipedia Hair cell).

  • Cellule ciliate esterne:

Nelle cellule ciliate esterne degli esseri umani, il potenziale recettoriale innesca vibrazioni attive del corpo cellulare. Questa risposta meccanica ai segnali elettrici è chiamata elettromotilità somatica e fa oscillare la cellula longitudinalmente alla frequenza del suono in arrivo. Queste oscillazioni forniscono un'amplificazione meccanica di ritorno. Le cellule ciliate esterne si sono evolute solo nei mammiferi. Senza cellule ciliate esterne funzionanti la sensibilità diminuisce di circa 50 dB (a causa di maggiori perdite di attrito nella membrana basilare che smorzerebbe il movimento della membrana). Migliorano anche la selettività di frequenza (discriminazione di frequenza), che è di particolare beneficio per gli esseri umani, perché permettono discorsi e musica sofisticati (vedi anche: Wikipedia Hair cell).

Senza stimolazione esterna, le fibre nervose uditive scaricano potenziali d'azione in una sequenza temporale casuale. Questa scarica temporale casuale è chiamata attività spontanea. I tassi di scarica spontanea delle fibre variano da tassi molto lenti a tassi fino a 100 al secondo. Le fibre sono collocate in tre gruppi a seconda del tasso di accensione spontaneo: tasso alto, medo o basso. Le fibre con tassi spontanei alti (> 18 al secondo) tendono ad essere più sensibili alla stimolazione sonora rispetto alle altre fibre.

Via uditiva degli impulsi nervosi modifica

Lemnisco laterale in rosso, che collega il nucleo cocleare, il nucleo olivario superiore e il collicolo inferiore. Visto da dietro.

Nelle cellule ciliate interne il segnale sonoro meccanico viene finalmente convertito in segnali nervosi elettrici. Le cellule ciliate interne sono collegate a fibre nervose uditive i cui nuclei formano il ganglio spirale. Nel ganglio spirale i segnali elettrici (picchi elettrici, potenziali d'azione) sono generati e trasmessi lungo il ramo cocleare del nervo uditivo (VIII nervo cranico) al nucleo cocleare nel tronco encefalico.

Da lì, l'informazione uditiva si divide in almeno due flussi:

  • Nucleo cocleare ventrale:

Un flusso è il nucleo cocleare ventrale che si divide ulteriormente nel nucleo cocleare posteroventrale e nel nucleo cocleare anteroventrale.

Le cellule del nucleo cocleare ventrale proiettano a un insieme di nuclei chiamati nucleo olivare superiore.

Nucleo olivare superiore: localizzazione sonora modifica

Si ritiene che il complesso olivare superiore - una piccola massa di sostanza grigia - sia coinvolto nella localizzazione dei suoni nel piano orizzontale (cioè l'inclinazione a sinistra o a destra). Ci sono due dati principali per la localizzazione dei suoni: Le differenze di livello interaurale (ILD) e le differenze di tempo interaurale (ITD). L'ILD misura le differenze di intensità del suono tra le orecchie. Questo funziona per le alte frequenze (oltre 1,6 kHz), dove la lunghezza d'onda è più corta della distanza tra le orecchie, causando un'ombra della testa - il che significa che i suoni ad alta frequenza colpiscono l'orecchio distante con minore intensità. I suoni a bassa frequenza non proiettano un'ombra, poiché avvolgono la testa. Tuttavia, poiché la lunghezza d'onda è maggiore della distanza tra le orecchie, c'è una differenza di fase tra le onde sonore che entrano nelle orecchie - la differenza di tempo misurata dall'ITD. Questo funziona in modo molto preciso per le frequenze inferiori a 800 Hz, dove la distanza tra le orecchie è inferiore alla metà della lunghezza d'onda.

La localizzazione del suono nel piano mediano (davanti, sopra, dietro, sotto) è aiutata dall'orecchio esterno, che forma dei filtri selettivi della direzione.

Le differenze di tempo e di intensità delle informazioni sonore in ciascun orecchio sono confrontate. Le differenze di intensità del suono sono elaborate nelle cellule del complesso olivare superiore laterale e le differenze di tempo (ritardi di esecuzione) nel complesso olivare superiore medio. Gli esseri umani possono rilevare differenze di tempo tra l'orecchio destro e sinistro fino a 10 μs, corrispondenti a una differenza nella localizzazione del suono di circa 1 grado. Questo confronto di informazioni sonore da entrambe le orecchie permette di determinare la direzione di provenienza del suono. Il nucleo olivare superiore è il primo nodo in cui i segnali di entrambe le orecchie si incontrano e possono essere confrontati.

Come passo successivo, il complesso olivare superiore invia informazioni al collicolo inferiore attraverso un tratto di assoni chiamato lemnisco laterale. La funzione del collicolo inferiore è di elaborare le informazioni prima di inviarle al talamo e alla corteccia uditiva.

  • Nucleo cocleare dorsale:

Il nucleo cocleare dorsale (DCN) analizza la qualità del suono e lo proietta direttamente attraverso il lemnisco laterale al collicolo inferiore.

Dal collicolo inferiore le informazioni uditive dal nucleo cocleare ventrale e dorsale procedono verso il nucleo uditivo del talamo che è il nucleo genicolato mediale. Il nucleo genicolato mediale trasferisce ulteriormente le informazioni alla corteccia uditiva primaria, la regione del cervello umano che è responsabile dell'elaborazione delle informazioni uditive, situata nel lobo temporale. La corteccia uditiva primaria è il primo passaggio coinvolto nella percezione cosciente del suono.

Corteccia uditiva primaria e aree uditive di ordine superiore modifica

Informazioni sonore che raggiungono la corteccia uditiva primaria (aree 41 e 42 di Brodmann). La corteccia uditiva primaria è il primo passaggio coinvolto nella percezione cosciente del suono. È nota per essere organizzata tonotopicamente ed esegue le basi dell'udito: altezza e volume. A seconda della natura del suono (discorso, musica, rumore), viene ulteriormente passato alle aree uditive di ordine superiore. I suoni che sono parole vengono elaborati dall'area di Wernicke (area 22 di Brodmann). Quest'area è coinvolta nella comprensione del linguaggio scritto e parlato (comprensione verbale). La produzione di suoni (espressione verbale) è legata all'area di Broca (aree 44 e 45 di Brodmann). I muscoli per produrre il suono richiesto quando si parla sono contratti dall'area facciale della corteccia motoria, una regione della corteccia cerebrale che è coinvolta nella pianificazione, controllo ed esecuzione delle funzioni motorie volontarie.

Superficie laterale del cervello con le aree di Brodmann numerate.

Percezione dell'altezza (tono) modifica

Questa sezione esamina un argomento chiave nelle neuroscienze uditive: la percezione dell'altezza (o percezione del tono). Si presuppone una certa comprensione di base del sistema uditivo, quindi i lettori sono incoraggiati a leggere prima le sezioni precedenti su "Anatomia del sistema uditivo" e "Elaborazione del segnale uditivo".

Introduzione modifica

L'altezza è una percezione soggettiva, evocata da suoni che hanno una natura approssimativamente periodica. Per molti suoni presenti in natura, la periodicità di un suono è il principale determinante dell'altezza. Eppure, la relazione tra uno stimolo acustico e l'altezza è abbastanza astratta: in particolare, l'altezza è abbastanza robusta ai cambiamenti di altri parametri acustici come l'intensità o il timbro, entrambi dei quali possono alterare significativamente le proprietà fisiche di una forma d'onda acustica. Questo è particolarmente evidente nei casi in cui suoni senza componenti comuni possono avere la stessa altezza. Di conseguenza, le informazioni relative all'altezza devono essere estratte dallo spettro e/o indicazioni temporali rappresentati su più canali di frequenza.

Le indagini sull'elaborazione della tonalità nel sistema uditivo si sono in gran parte concentrate sull'identificazione dei processi neurali che riflettono questi processi di estrazione, o sulla ricerca del "punto finale" di tale processo: una rappresentazione esplicita e robusta della tonalità come percepita dall'ascoltatore. Entrambi gli sforzi hanno avuto un certo successo, con prove che si sono accumulate per "neuroni selettivi della tonalità" in "aree di tonalità" presunte. Tuttavia, rimane discutibile se l'attività di queste aree sia veramente legata alla tonalità, o se semplicemente esibiscano una rappresentazione selettiva dei parametri legati alla tonalità. Da un lato, la dimostrazione di un'attivazione di specifici neuroni o aree neurali in risposta a numerosi suoni che evocano l'altezza, spesso con una sostanziale variazione nelle loro caratteristiche fisiche, fornisce una prova correlativa convincente che queste regioni stanno effettivamente codificando l'altezza. D'altra parte, dimostrare la prova causale che questi neuroni rappresentano la tonalità è difficile, richiedendo probabilmente una combinazione di approcci di registrazione dal vivo per dimostrare una corrispondenza di queste risposte ai giudizi di tonalità (cioè, risposte psicofisiche, piuttosto che solo la periodicità dello stimolo), e la manipolazione diretta dell'attività in queste cellule per dimostrare bias prevedibili o menomazioni nella percezione della tonalità.

A causa della natura piuttosto astratta dell'altezza, non ci addentreremo immediatamente in questo campo ancora irrisolto della ricerca attiva. Piuttosto, inizieremo la nostra discussione con le controparti fisiche più dirette della percezione dell'altezza - cioè la frequenza del suono (per i toni puri) e, più in generale, la periodicità dello stimolo. In particolare, distingueremo e definiremo più concretamente le nozioni di periodicità e di altezza. In seguito, delineeremo brevemente i principali meccanismi computazionali che possono essere implementati dal sistema uditivo per estrarre tali informazioni relative all'altezza dagli stimoli sonori. Successivamente, delineeremo la rappresentazione e l'elaborazione dei parametri dell'altezza nella coclea, la via uditiva sottocorticale ascendente, i risultati più controversi nella corteccia uditiva primaria e oltre, infine valuteremo l'evidenza di "neuroni dell'altezza" o "aree dell'altezza" in queste regioni corticali.

Periodicità e tono modifica

L'altezza è una proprietà psicofisica emergente. La salienza e l'altezza del tono dipendono da diversi fattori, ma all'interno di una gamma specifica di frequenze armoniche e fondamentali chiamata "regione di esistenza", la salienza dell'altezza è in gran parte determinata dalla regolarità della ripetizione del segmento sonoro, chiamata anche frequenza modulante. L'insieme dei suoni capaci di evocare la percezione dell'altezza è vario e spettralmente eterogeneo. Molti stimoli diversi - tra cui toni puri, rumori di ondulazione iterati, suoni modulati in ampiezza, e così via - possono evocare una percezione dell'altezza, mentre altri segnali acustici, anche con caratteristiche fisiche molto simili a tali stimoli possono non evocare l'altezza. La maggior parte dei suoni che evocano l'altezza in natura sono complessi armonici - suoni che contengono uno spettro di frequenze che sono multipli interi della frequenza fondamentale, F0. Una scoperta importante nella ricerca sull'altezza è il fenomeno della "fondamentale mancante" (vedi sotto): entro una certa gamma di frequenze, tutta l'energia spettrale a F0 può essere rimossa da un complesso armonico, e ancora evocare un'altezza correlata a F0 in un ascoltatore umano[2]. Questo risultato sembra generalizzarsi a molti sistemi uditivi non umani[3][4].

 
Fondamentale mancante. Spettrografie audio per la melodia di 'Mary had a little lamb'. (A sinistra) melodia suonata con toni puri (fondamentale), (al centro) melodia suonata con fondamentale e primi sei armonici sovratoni, (a destra) melodia suonata solo con armonici sovratoni, con l'energia spettrale alla frequenza fondamentale rimossa. Come dimostrato nelle corrispondenti clip audio a sinistra, queste tre melodie differiscono nel timbro, ma l'altezza è invariata, nonostante la fondamentale mancante e le melodie a toni puri non abbiano componenti spettrali in comune.
Toni puri (info file)
start=
Melodia riprodotta in toni puri.

Armoniche complete (info file)
start=
Melodia riprodotta con le frequenze fondamentali e i primi 6 sovratoni armonici.

Fondamentale mancante (info file)
start=
Melodia suonata con solo i sovratoni armonici, con l'energia spettrale alle frequenze fondamentali rimossa.

Il fenomeno della "fondamentale mancante" è importante per due motivi. In primo luogo, è un importante punto di riferimento per valutare se particolari neuroni o regioni cerebrali sono specializzati per l'elaborazione dell'altezza, poiché ci si aspetta che tali unità mostrino un'attività che rifletta la F0 (e quindi l'altezza), indipendentemente dalla sua presenza nel suono e da altri parametri acustici. Più in generale, un "neurone del tono" o "centro del tono" dovrebbe mostrare un'attività coerente in risposta a tutti gli stimoli che evocano una particolare percezione dell'altezza del tono. Come verrà discusso, questo è stato fonte di qualche disaccordo nell'identificazione di neuroni o aree putative dell'altezza. In secondo luogo, il fatto che possiamo percepire un'altezza corrispondente a F0 anche in sua assenza nello stimolo uditivo fornisce forti prove contro l'implementazione da parte del cervello di un meccanismo di "selezione" di F0 per dedurre direttamente l'altezza. Piuttosto, l'altezza deve essere estratta da indizi temporali o spettrali (o entrambi)[5].

Meccanismi per l'estrazione del tono: indizi spettrali e temporali modifica

 
Armoniche risolte e non risolte. Uno spettro schematico, il modello di eccitazione e la vibrazione simulata della membrana basilare (BM) per un tono complesso con una F0 di 100 Hz e armoniche di uguale ampiezza. Come si può vedere nel modello di eccitazione e le vibrazioni BM, le armoniche di ordine superiore sono 'irrisolto' - cioè, non vi è alcuna separazione effettiva delle singole armoniche. (Descrizione adattata dall'autore originale. Disponibile a: http://www.europeanmedical.info/auditory-nerves/resolved-and-unresolved-harmonics-341-defining-resolvability.html)

Questi due indizi (spettrale e temporale) sono le basi di queste due grandi classi di modelli di estrazione del tono[5]. Il primo di questi sono i metodi nel dominio del tempo, che usano spunti temporali per valutare se un suono consiste in un segmento ripetitivo e, in tal caso, il tasso di ripetizione. Un metodo comunemente proposto per farlo è l'autocorrelazione. Una funzione di autocorrelazione consiste essenzialmente nel trovare i ritardi temporali tra due punti di campionamento che daranno la massima correlazione: per esempio, un'onda sonora con una frequenza di 100Hz (o periodo, T=10 millisecondi) avrebbe una correlazione massima se i campioni sono presi a 10 millisecondi di distanza. Per un'onda di 200Hz, il ritardo che produce la massima correlazione sarebbe di 5 millisecondi - ma anche a 10 millisecondi, 15 millisecondi e così via. Così, se una tale funzione viene eseguita su tutte le componenti delle frequenze di un complesso armonico con F0=100Hz (e quindi con sovratoni armonici a 200Hz, 300Hz, 400Hz, e così via) e gli intervalli di tempo risultanti che danno la massima correlazione vengono sommati, essi "voterebbero" collettivamente per 10 millisecondi - la periodicità del suono. La seconda classe di strategie di estrazione dell'altezza sono i metodi di dominio della frequenza, dove l'altezza viene estratta analizzando gli spettri di frequenza di un suono per calcolare F0. Per esempio, i processi di 'template matching' - come il 'setaccio armonico' - propongono che lo spettro di frequenza di un suono sia semplicemente abbinato a modelli armonici - la migliore corrispondenza produce la corretta F0[6].

Ci sono limitazioni per entrambe spiegazioni. I metodi del dominio della frequenza richiedono che le frequenze armoniche siano risolte - cioè che ogni armonica sia rappresentata come una banda di frequenza distinta (vedi figura, a destra). Tuttavia, le armoniche di ordine superiore, che non sono risolte a causa della larghezza di banda più ampia nella rappresentazione fisiologica per le frequenze più alte (una conseguenza dell'organizzazione tonotopica logaritmica della membrana basilare), possono ancora evocare l'altezza corrispondente a F0. I modelli temporali non hanno questo problema, poiché una funzione di autocorrelazione dovrebbe ancora produrre la stessa periodicità, indipendentemente dal fatto che la funzione sia eseguita in uno o più canali di frequenza. Tuttavia, è difficile attribuire i limiti inferiori delle frequenze che evocano l'intonazione all'autocorrelazione: studi psicofisici dimostrano che possiamo percepire l'intonazione da complessi armonici con fondamentali mancanti fino a 30Hz; questo corrisponde a un ritardo di campionamento di oltre 33 millisecondi - molto più lungo del ritardo di ~10 millisecondi comunemente osservato nella segnalazione neurale[5].

Una strategia per determinare quale di queste due strategie viene adottata dal sistema uditivo è l'uso di armoniche a fase alternata: presentare le armoniche dispari in fase sinusoidale e le armoniche pari in fase cosinica. Poiché ciò non influisce sul contenuto spettrale dello stimolo, non dovrebbe verificarsi alcun cambiamento nella percezione dell'altezza se l'ascoltatore si basa principalmente sulle indicazioni spettrali. D'altra parte, il tasso di ripetizione dell'inviluppo temporale raddoppierà. Quindi, se si adottano le indicazioni dell'inviluppo temporale, l'altezza percepita dagli ascoltatori per le armoniche a fase alternata sarà un'ottava sopra (cioè, il doppio della frequenza) rispetto all'altezza percepita per l'armonica tutto-coseno con la stessa composizione spettrale. Studi psicofisici hanno indagato la sensibilità della percezione dell'altezza a tali spostamenti di fase attraverso diversi intervalli di F0 e armoniche, fornendo la prova che sia gli esseri umani[7] che altri primati[8] adottano una doppia strategia: le indicazioni spettrali sono utilizzate per le armoniche di ordine inferiore (armoniche risolte), mentre le indicazioni dell'inviluppo temporale sono utilizzate per le armoniche di ordine superiore (armoniche non risolte).

 
Armoniche a fase sinusoidale (sinistra) e a fase alternata (destra). Questi complessi hanno lo stesso F0 (125 Hz) e gli stessi numeri armonici, ma il tono del complesso di destra è un'ottava più alto del tono del complesso di sinistra. Entrambi i complessi sono stati filtrati tra 3900 e 5400 Hz. (Descrizione dall'autore originale. Disponibile presso:http://www.europeanmedical.info/auditory-nerves/resolved-and-unresolved-harmonics-341-defining-resolvability.html)

Estrazione del tono nella via uditiva ascendente modifica

Le frazioni di Weber per la discriminazione dell'intonazione negli esseri umani sono state riportate a meno dell'1%[9]. Alla luce di questa elevata sensibilità ai cambiamenti di tono, e la dimostrazione che sia gli spunti spettrali che quelli temporali sono utilizzati per l'estrazione del tono, possiamo prevedere che il sistema uditivo rappresenti sia la composizione spettrale che la struttura fine temporale degli stimoli acustici in modo altamente preciso.

Esperimenti elettrofisiologici hanno identificato risposte neuronali nel sistema uditivo ascendente che sono coerenti con questa nozione. A livello della coclea, i movimenti della membrana basilare (BM) mappati tonalmente in risposta agli stimoli uditivi stabiliscono un luogo selezionato per la composizione della frequenza lungo l'asse BM. Queste rappresentazioni sono ulteriormente rafforzate da un allineamento di fase delle fibre nervose uditive (ANF) alle componenti di frequenza a cui risponde. Questo meccanismo di rappresentazione temporale della composizione della frequenza è ulteriormente migliorato in numerosi modi, come l'inibizione laterale alla sinapsi delle cellule ciliate/cellule gangliari spirali[10], sostenendo la nozione che questa rappresentazione precisa è critica per la codifica del tono.

In questa tappa gli schemi di picchi temporali con fase bloccata degli ANF probabilmente portano una rappresentazione implicita della periodicità. Questo è stato testato direttamente da Cariani e Delgutte[11]. Analizzando la distribuzione degli intervalli interpicchi di tutti gli ordini (ISI) nelle ANF dei gatti, hanno dimostrato che l'ISI più comune era la periodicità dello stimolo, e il rapporto picco-media di queste distribuzioni aumentava per stimoli complessi che evocavano percezioni di tono più salienti. Sulla base di questi risultati, questi autori hanno proposto l'"ipotesi dell'intervallo predominante", in cui un codice raggruppato di tutti gli ISI di ordine "vota" per la periodicità - anche se, naturalmente, questo risultato è una conseguenza inevitabile delle risposte in fase delle ANF. Inoltre, c'è la prova che il codice del luogo per le componenti di frequenza è anche critico. Incrociando uno stimolo a bassa frequenza con una portante ad alta frequenza, Oxenham e altri hanno trasposto la struttura temporale fine della sinusoide a bassa frequenza in regioni a frequenza più alta lungo il BM.[12] Questo ha portato ad una significativa compromissione delle capacità di discriminazione della tonalità. Quindi, sia il luogo che la codifica temporale rappresentano le informazioni relative alla tonalità nelle ANF.

Il nervo uditivo porta informazioni al nucleo cocleare (CN). Qui, molti tipi di cellule rappresentano le informazioni relative all'altezza in modi diversi. Per esempio, molte cellule ciliate sembrano avere poca differenza nelle proprietà di invio nelle fibre del nervo uditivo - le informazioni possono essere trasportate a regioni cerebrali di ordine superiore senza modifiche significative[5]. Di particolare interesse sono le cellule stellate sostenute nel nucleo cocleare ventrale. Secondo Winter e altri, gli intervalli di picco di primo ordine in queste cellule corrispondono alla periodicità in risposta a stimoli di rumore increspato iterato (IRN), così come a complessi armonici a fase coseno e fase casuale[13]. Mentre è necessaria un'ulteriore caratterizzazione delle risposte di queste cellule a diversi stimoli che evocano l'altezza, c'è quindi qualche indicazione che l'estrazione dell'altezza può iniziare già a livello del CN.

Nel collicolo inferiore (IC), ci sono alcune prove che il tasso di risposta medio dei neuroni è uguale alla periodicità dello stimolo[14]. Studi successivi che confrontano le risposte dei neuroni IC ai complessi armonici a fase uguale e alternata suggeriscono che queste cellule possono rispondere alla periodicità del livello di energia complessivo (l'inviluppo), piuttosto che alla vera frequenza modulante, ma non è chiaro se questo si applica solo per le armoniche non risolte (come sarebbe previsto dagli esperimenti psicofisici) o anche per le armoniche risolte[5]. Rimane molta incertezza sulla rappresentazione della periodicità nell'IC.

Elaborazione del tono nella corteccia uditiva modifica

Sembra che le rappresentazioni delle F0 venga migliorato nel sistema uditivo ascendente, anche se la natura precisa rimane poco chiara. In queste fasi sottocorticali della via uditiva ascendente, tuttavia, non vi è alcuna prova di una rappresentazione esplicita che codifica in modo coerente le informazioni corrispondenti all'altezza percepita. Tali rappresentazioni si verificano probabilmente nelle regioni uditive "superiori", dalla corteccia uditiva primaria in poi.

Infatti, gli studi di lesione hanno dimostrato la necessità della corteccia uditiva nella percezione del tono. Naturalmente, una compromissione della percezione dell'altezza a seguito di lesioni alla corteccia uditiva può semplicemente riflettere un ruolo di trasmissione passiva per la corteccia: dove le informazioni sottocorticali devono "passare attraverso" per influenzare il comportamento. Eppure, studi come quello di Whitfield hanno dimostrato che probabilmente non è così: mentre i gatti decorticati potrebbero essere riaddestrati (dopo un'ablazione della loro corteccia uditiva) a riconoscere toni complessi composti da tre componenti di frequenza, gli animali hanno selettivamente perso la capacità di generalizzare questi toni ad altri complessi con lo stesso tono[15]. In altre parole, mentre la composizione armonica poteva influenzare il comportamento, le relazioni armoniche (cioè un'indicazione dell'altezza) non potevano. Per esempio, l'animale lesionato poteva rispondere correttamente a un tono puro a 100Hz, ma non avrebbe risposto a un complesso armonico costituito dai suoi armonici sovratoni (a 200Hz, 300Hz, e così via). Questo suggerisce fortemente un ruolo per la corteccia uditiva nell'ulteriore estrazione di informazioni relative all'altezza.

I primi studi MEG della corteccia uditiva primaria avevano suggerito che A1 contenesse una mappa del tono. Questo si basava sui risultati che un tono puro e il suo complesso armonico fondamentale mancante (MF) evocavano l'eccitazione stimolo-evocata (chiamato N100m) nella stessa posizione, mentre le frequenze componenti del MF presentato in isolamento evocavano eccitazioni in luoghi diversi[16]. Tuttavia, tali nozioni sono state messe in ombra dai risultati di esperimenti che hanno utilizzato tecniche a più alta risoluzione spaziale: il potenziale di campo locale (LFP) e la registrazione di più unità (MUA) hanno dimostrato che la mappatura A1 era tonotopica - cioè basata sulla migliore frequenza (BF) dei neuroni, piuttosto che sulla migliore "altezza"[17]. Queste tecniche dimostrano comunque l'emergere di meccanismi di codifica distinti che riflettono l'estrazione di informazioni temporali e spettrali: la rappresentazione in fase bloccata della frequenza di ripetizione dell'inviluppo temporale è stata registrata nelle regioni BF più alte della mappa tonotopica, mentre la struttura armonica è stata rappresentata nelle regioni BF più basse[18]. Quindi, le informazioni per l'estrazione dell'altezza possono essere ulteriormente migliorate da questa fase.

 
Illustrazione schematica dei neuroni 'a più picchi'. La linea blu tratteggiata mostra una curva di sintonizzazione classica per un neurone selettivo a frequenza "a picco singolo" con una frequenza migliore (BF) a circa 500Hz, come illustrato dalla risposta massima di questo neurone a frequenze intorno a questa BF. La linea solida rossa mostra una risposta schematica di un neurone 'a più picchi' identificato da Kadia e Wang (2003). Oltre a una BF a 300Hz, questo neurone è anche eccitato da toni a 600Hz e 900Hz - cioè, frequenze in relazione armonica alla BF principale. Anche se non illustrato qui, le risposte di tali neuroni a complessi armonici (in questo caso, costituito da 300, 600, e 900 Hz per esempio) spesso aveva un effetto additivo, elicitando risposte maggiore di quella di un tono puro al BF (cioè, 300Hz) da solo. Vedi riferimento [18]

Un esempio di un substrato neuronale che può facilitare tale miglioramento è stato descritto da Kadia e Wang nella corteccia uditiva primaria degli uistitì[19]. Circa il 20% dei neuroni potrebbe essere classificato come unità 'a più picchi': neuroni che hanno aree di risposta a frequenze multiple, spesso in relazione armonica (vedi figura, a destra). Inoltre, l'eccitazione di due di questi picchi spettrali ha dimostrato di avere un effetto sinergico sulle risposte dei neuroni. Questo faciliterebbe quindi l'estrazione di toni armonicamente correlati nello stimolo acustico, permettendo a questi neuroni di agire come un "modello armonico" per l'estrazione di spunti spettrali. Inoltre, questi autori hanno osservato che nella maggior parte dei neuroni a 'picco singol'' (cioè i neuroni con un singolo picco di sintonia spettrale alla sua BF), un tono secondario potrebbe avere un effetto modulatorio (facilitando o inibendo) sulla risposta del neurone alla sua BF. Anche in questo caso, queste frequenze modulanti erano spesso legate armonicamente alla BF. Questi meccanismi facilitatori possono quindi ospitare l'estrazione di alcune componenti armoniche, mentre il rifiuto di altre combinazioni spettrali attraverso la modulazione inibitoria può facilitare la disambiguazione con altri complessi armonici o non armonici come il rumore a banda larga.

 
'Regioni del tono' putative nel piano sopratemporale umano. (A) Vista laterale dell'emisfero sinistro, con STG indicato in rosso. (B-D) Vista dall'alto del piano sopratemporale sinistro, dopo la rimozione di una gran parte della corteccia parietale. PP, HG e PT sono indicati in blu, giallo e verde, rispettivamente. I principali solchi sono delineati in nero (FTS, primo solco trasversale; SI, solco intermedio; HS, solco di Heschl; HS1, primo solco di Heschl; HS2, secondo solco di Heschl). Le illustrazioni includono emisferi con un HG, una separazione incompleta di HG, e due HG in (B-D), rispettivamente.

Tuttavia, dato che la tendenza a valorizzare F0 è stata dimostrata in tutto il sistema uditivo sottocorticale, potremmo aspettarci di doverci avvicinare a una rappresentazione più esplicita del tono nella corteccia. Gli esperimenti di neuroimaging hanno esplorato questa idea, sfruttando la qualità emergente del tono: un metodo sottrattivo può identificare le aree del cervello che mostrano risposte BOLD in risposta a uno stimolo che evoca il tono, ma non a un altro suono con proprietà spettrali molto simili che invece non evoca la percezione del tono. Tali strategie sono state utilizzate da Patterson, Griffiths e altri: sottraendo il segnale BOLD acquisito durante la presentazione di rumore a banda larga dal segnale acquisito durante la presentazione di IRN, hanno identificato un'attivazione selettiva del giro di Heschl (HG) laterale (e in una certa misura, mediale) in risposta a quest'ultima classe di suoni che evocano l'altezza[20].

Inoltre, variando il tasso di ripetizione di IRN nel tempo per creare una melodia ha portato a un'attivazione aggiuntiva nel giro temporale superiore (STG) e nel planum polare (PP), suggerendo un'elaborazione gerarchica del passo attraverso la corteccia uditiva. In linea con questo, le registrazioni MEG di Krumbholz e altri hanno mostrato che, come il tasso di ripetizione degli stimoli IRN è aumentato, un nuovo N100m è rilevato intorno alla HG quando il tasso di ripetizione attraversa la soglia inferiore per la percezione del tono, e la grandezza di questa "risposta pitch-onset" aumentato con la salienza del passo[21].

C'è tuttavia un certo dibattito sulla localizzazione precisa dell'area selettiva del tono. Come sottolineano Hall e Plack, l'uso dei soli stimoli IRN per identificare le aree corticali sensibili al tono è insufficiente per catturare l'ampia gamma di stimoli che possono indurre la percezione del tono: l'attivazione della HG può essere specifica per stimoli ripetitivi a banda larga[22]. Infatti, sulla base dei segnali BOLD osservati in risposta a più stimoli che evocano la tonalità, Hall e Plack suggeriscono che il planum temporale (PT) è più rilevante per l'elaborazione della tonalità.

Nonostante il continuo disaccordo sull'esatta area neurale specializzata per la codifica del tono, tali prove suggeriscono che le regioni anterolaterali di A1 possono essere specializzate per la percezione del tono. Un ulteriore supporto a questa nozione è fornito dall'identificazione di neuroni "selettivi per la tonalità" al confine anterolaterale di A1 nella corteccia uditiva dell'uistitì. Questi neuroni erano selettivamente reattivi sia ai toni puri che alle armoniche F0 mancanti con le simili periodicità[23]. Molti di questi neuroni erano anche sensibili alla periodicità di altri stimoli che provocano l'altezza, come il rumore IRN. Ciò fornisce una forte prova che questi neuroni non rispondono semplicemente a qualsiasi componente particolare del segnale acustico, ma rappresentano specificamente informazioni relative al tono.

Codifica della periodicità o codifica del tono? modifica

Le prove che si accumulano suggeriscono quindi che ci sono neuroni e aree neurali specializzate nell'estrazione di F0, probabilmente in regioni appena anterolaterali alle regioni a bassa BF di A1. Tuttavia, ci sono ancora difficoltà nel chiamare questi neuroni o aree "selettivi per il tono". Mentre la F0 dello stimolo è certamente un determinante chiave dell'altezza, non è necessariamente equivalente all'altezza percepita dall'ascoltatore.

Ci sono tuttavia diverse linee di prova che suggeriscono che queste regioni codificano effettivamente il tono, piuttosto che solo F0. Per esempio, ulteriori indagini sulle unità selettive per la tonalità degli uistitì da parte di Bendor e altri hanno dimostrato che l'attività di questi neuroni corrisponde bene alle risposte psicofisiche degli animali[8]. Questi autori hanno testato le capacità degli animali di rilevare un complesso armonico a fase alternata in mezzo a un suono di armoniche della stessa fase alla stessa F0, al fine di distinguere quanto gli animali si basano su spunti di inviluppo temporale per la percezione del tono, piuttosto che spunti spettrali. Coerentemente con gli esperimenti psicofisici negli esseri umani, gli uistitì hanno usato principalmente spunti di inviluppo temporale per l'ordine superiore, armoniche irrisolte di bassa F0, mentre gli spunti spettrali sono stati utilizzati per estrarre il tono dalle armoniche di ordine inferiore dei complessi di alta F0. La registrazione di questi neuroni selettivi per il tono ha mostrato che la sintonizzazione F0 si spostava verso il basso di un'ottava per le armoniche a fase alternata, rispetto alle armoniche della stessa fase per i neuroni sintonizzati su F0 basse. Questi modelli di risposte neuronali sono quindi coerenti con i risultati psicofisici, e suggeriscono che entrambi gli spunti temporali e spettrali sono presenti in questi neuroni per influenzare la percezione del tono.

Tuttavia, ancora una volta, questo studio non può distinguere definitivamente se questi neuroni selettivi per la tonalità rappresentano esplicitamente la tonalità, o semplicemente un'integrazione delle informazioni F0 che saranno poi successivamente decodificate per percepire la tonalità. Un approccio più diretto per affrontare questo problema è stato adottato da Bizley e altri, che hanno analizzato come le misurazioni LFP e MUA della corteccia uditiva nei furetti potrebbero essere utilizzate indipendentemente per stimare la percezione della F0 e del tono dello stimolo[24]. Mentre i furetti erano impegnati in un compito di discriminazione dell'altezza (per indicare se un suono vocale artificiale era più alto o più basso di un riferimento in una scelta forzata a 2 alternative), l'analisi delle caratteristiche operative del ricevitore (ROC) è stata utilizzata per stimare la discriminabilità dell'attività neurale nel prevedere il cambiamento in F0 o la scelta comportamentale effettiva (cioè un surrogato dell'altezza percepita). Hanno trovato che le risposte neurali attraverso la corteccia uditiva erano informative per quanto riguarda entrambi. Inizialmente, l'attività discriminava meglio la F0 rispetto alla scelta dell'animale, ma le informazioni relative alla scelta degli animali crescevano costantemente nel corso dell'intervallo post-stimolo, diventando alla fine più discriminabili della direzione del cambiamento F0[24].

Confrontando le differenze di ROC tra le aree corticali studiate, è emerso che l'attività dei campi posteriori discriminava meglio la scelta dei furetti. Questo può essere interpretato in due modi. Dal momento che l'attività legata alla scelta era più alta nei campi posteriori (che si trovano vicino al confine BF basso di A1), rispetto ai campi primari, questo può essere visto come un'ulteriore prova della selettività del tono vicino al confine BF basso di A1. D'altra parte, il fatto che le informazioni relative all'altezza siano state osservate anche nei campi uditivi primari può suggerire che una quantità sufficiente di informazioni relative all'altezza possa essere già stabilita in questa fase, o che un'informazione distribuita in più aree uditive codifichi l'altezza. Infatti, mentre i singoli neuroni distribuiti nella corteccia uditiva sono in generale sensibili a più parametri acustici (e quindi non "tonoselettive"), le analisi teoriche dell'informazione o neurometriche (che utilizzano i dati neurali per dedurre le informazioni relative allo stimolo) indicano che le informazioni sul tono possono comunque essere rappresentate in modo robusto attraverso lo studio di un gruppo di neuroni, o anche da singoli neuroni attraverso il multiplexing temporale (cioè, rappresentando più caratteristiche del suono in finestre temporali distinte)[25][26]. L' assenza di stimolazione o disattivazione di questi neuroni dimostrano che tali interventi inducono bias prevedibili o menomazioni nel tono, può essere che il tono è rappresentato in zone spazialmente e temporalmente distribuite attraverso la corteccia uditiva, piuttosto che fare affidamento su rappresentazioni locali specializzate.

Sia le registrazioni elettrofisiologiche che gli studi di neuroimaging suggeriscono che ci può essere una zona neurale esplicita per il tono che si trova vicino al confine basso BF di A1. Certamente, le risposte coerenti e selettive a una vasta gamma di stimoli che evocano la tonalità suggeriscono che questi neuroni e aree putative selettive per la tonalità non riflettono semplicemente qualsiasi caratteristica fisica immediatamente disponibile del segnale acustico. Inoltre, c'è la prova che questi neuroni putativi selettivi della tonalità estraggono informazioni da spunti spettrali e temporali in modo molto simile all'animale. Tuttavia, in virtù della relazione astratta tra l'altezza e un segnale acustico, tale evidenza correlativa tra uno stimolo e la risposta neurale può essere interpretata solo come prova che il sistema uditivo ha la capacità di formare rappresentazioni potenziate dei parametri relativi all'altezza. Senza prove causali più dirette per questi neuroni selettivi dell'altezza e per le aree neurali che determinano la percezione dell'altezza, non possiamo concludere se gli animali si affidano effettivamente a questi codici espliciti localizzati per l'altezza, o se le robuste rappresentazioni distribuite dell'altezza nella corteccia uditiva segnano la codifica finale dell'altezza nel sistema uditivo.

Note modifica

  1. NeurOreille and authors, Journey into the world of hearing, su cochlea.org, 2010.
  2. Schouten, J. F. (1938). The perception of subjective tones. Proceedings of the Koninklijke Nederlandse Akademie van Wetenschappen, 41, 1086-1093.
  3. Cynx, J. & Shapiro, M. Perception of missing fundamental by a species of songbird (Sturnus vulgaris). J Comp Psychol 100, 356–360 (1986).
  4. Heffner, H., & Whitfield, I. C. (1976). Perception of the missing fundamental by cats. The Journal of the Acoustical Society of America, 59(4), 915-919.
  5. 5,0 5,1 5,2 5,3 5,4 Schnupp, J., Nelken, I. & King, A. Auditory neuroscience: Making sense of sound. (MIT press, 2011).
  6. Gerlach, S., Bitzer, J., Goetze, S. & Doclo, S. Joint estimation of pitch and direction of arrival: improving robustness and accuracy for multi-speaker scenarios. EURASIP Journal on Audio, Speech, and Music Processing 2014, 1 (2014).
  7. Carlyon RP, Shackleton TM (1994). "Comparing the fundamental frequencies of resolved and unresolved harmonics: Evidence for two pitch mechanisms?" Journal of the Acoustical Society of America 95:3541-3554
  8. 8,0 8,1 Bendor D, Osmanski MS, Wang X (2012). "Dual-pitch processing mechanisms in primate auditory cortex," Journal of Neuroscience 32:16149-61.
  9. Tramo, M. J., Shah, G. D., & Braida, L. D. (2002). Functional role of auditory cortex in frequency processing and pitch perception. Journal of Neurophysiology, 87(1), 122-139.
  10. Rask-Andersen, H., Tylstedt, S., Kinnefors, A., & Illing, R. B. (2000). Synapses on human spiral ganglion cells: a transmission electron microscopy and immunohistochemical study. Hearing research, 141(1), 1-11.
  11. Cariani, P. A., & Delgutte, B. (1996). Neural correlates of the pitch of complex tones. I. Pitch and pitch salience. Journal of Neurophysiology, 76(3), 1698-1716.
  12. Oxenham, A. J., Bernstein, J. G., & Penagos, H. (2004). Correct tonotopic representation is necessary for complex pitch perception. Proceedings of the National Academy of Sciences of the United States of America, 101(5), 1421-1425.
  13. Winter, I. M., Wiegrebe, L., & Patterson, R. D. (2001). The temporal representation of the delay of iterated rippled noise in the ventral cochlear nucleus of the guinea-pig. The Journal of physiology, 537(2), 553-566.
  14. Schreiner, C. E. & Langner, G. Periodicity coding in the inferior colliculus of the cat. II. Topographical organization. Journal of neurophysiology 60, 1823–1840 (1988).
  15. Whitfield IC (1980). "Auditory cortex and the pitch of complex tones." J Acoust Soc Am. 67(2):644-7.
  16. Pantev, C., Hoke, M., Lutkenhoner, B., & Lehnertz, K. (1989). Tonotopic organization of the auditory cortex: pitch versus frequency representation.Science, 246(4929), 486-488.
  17. Fishman YI, Reser DH, Arezzo JC, Steinschneider M (1998). "Pitch vs. spectral encoding of harmonic complex tones in primary auditory cortex of the awake monkey," Brain Res 786:18-30.
  18. Steinschneider M, Reser DH, Fishman YI, Schroeder CE, Arezzo JC (1998) Click train encoding in primary auditory cortex of the awake monkey: evidence for two mechanisms subserving pitch perception. J Acoust Soc Am 104:2935–2955.
  19. Kadia, S. C., & Wang, X. (2003). Spectral integration in A1 of awake primates: neurons with single-and multipeaked tuning characteristics. Journal of neurophysiology, 89(3), 1603-1622.
  20. Patterson RD, Uppenkamp S, Johnsrude IS, Griffiths TD. (2002) "The processing of temporal pitch and melody information in auditory cortex," Neuron 36:767-776.
  21. Krumbholz, K., Patterson, R. D., Seither-Preisler, A., Lammertmann, C., & Lütkenhöner, B. (2003). Neuromagnetic evidence for a pitch processing center in Heschl’s gyrus. Cerebral Cortex, 13(7), 765-772.
  22. Hall DA, Plack CJ (2009). "Pitch processing sites in the human auditory brain," Cereb Cortex 19(3):576-85.
  23. Bendor D, Wang X (2005). "The neuronal representation of pitch in primate auditory cortex," Nature 436(7054):1161-5.
  24. 24,0 24,1 Bizley JK, Walker KMM, Nodal FR, King AJ, Schnupp JWH (2012). "Auditory Cortex Represents Both Pitch Judgments and the Corresponding Acoustic Cues," Current Biology 23:620-625.
  25. Walker KMM, Bizley JK, King AJ, and Schnupp JWH. (2011). Multiplexed and robust representations of sound features in auditory cortex. Journal of Neurosci 31(41): 14565-76
  26. Bizley JK, Walker KM, King AJ, and Schnupp JW. (2010). "Neural ensemble codes for stimulus periodicity in auditory cortex." J Neurosci 30(14): 5078-91.