Come funziona l'udito selettivo nel nostro cervello

Ricercatori dell'UCSF Research spiegano l'effetto "Cocktail Party": la capacità di ascoltare una voce singola in una sala affollata.

Per comprendere come l’ascolto selettivo funzioni nel nostro cervello, Edward Chung, professore di Neurochirurgia e Fisiologia alla UCSF (Università California, San Francisco) ha analizzato tre pazienti durante un intervento chirurgico per un’epilessia grave.

L’intervento prevede che si individuino con estrema precisione le porzioni di cervello responsabili delle crisi. Il team dell’UCSF trova quei punti mappando le attività cerebrali per un periodo idi una settimana, utilizzando 256 elettrodi posizionati a livello della corteccia cerebrale che registrano le attività nel lobo temporale, dove si trova la corteccia uditiva.

 

UCSF è uno dei centri di eccellenza per l’epilessia nel quale vengono effettuate registrazioni intracraniche, e la capacità di registrare in modo sicuro le attività cerebrali fornisce opportunità uniche per approfondire la nostra conoscenza sul funzionamento del cervello.

“La combinazione di registrazioni cerebrali ad alta definizione e potenti algoritmi di decodifica apre una finestra nelle esperienze soggettive della mente mai immaginata prima.

Durante gli esperimenti I pazienti hanno ascoltato due brani audio riprodotti simultaneamente nei quali frasi diverse erano pronunciate da voci diverse. Gli è stato chiesto di identificare le parole pronunciate da una delle due voci.

Gli autori hanno quindi applicato nuovi metodi di decodifica per “ricostruire” cos’ha ascoltato il paziente analizzando i pattern dell’attività cerebrale. Ne è emerso che le risposte neurali nella corteccia uditiva sono riferibili solo all’audio della voce cui dovevano prestare attenzione. Hanno quindi scoperto che gli algoritmi di decodifica erano in grado di predire quale voce e quali parole il soggetto stava ascoltando sulla base dei pattern neurali. In alter parole, potevano dire quando il paziente trasferiva la sua attenzione ad un’altra voce.

Il riconoscimento vocale effettuato dal cervello umano e dalle macchine

Le ultime ricerche hanno dimostrato che la rappresentazione del parlato a livello della corteccia non riflette l’acustica dell’intero ambiente, ma solamente ciò che il soggetto vuole o ha bisogno di ascoltare.

La scoperta rappresenta un enorme passo avanti verso la comprensione di come il nostro cervello processa il linguaggio, con implicazioni immediate per lo studio dell’indebolimento con l’età, in caso di deficit attentivo, autismo e disturbi dell’apprendimento.

Aggiunge Chang (co-direttore del Centro di Neural Engineering and Prostheses alla UC Berkeley e UCSF), che un giorno saremo in grado di utilizzare questa tecnologia per dispositive neuroprotesici per decodificare le intenzioni e I pensieri di pazienti paralizzati non in grado di comunicare.

Comprendere come sono connessi i nostri cervelli per favorire alcuni spunti uditivi piuttosto che altri potrebbe ispirare nuovi approcci per l’automatizzazione e il miglioramento dei filtri audio dei dispositivi controllati a voce per determinare con precisione il comando impartito. Come il cervello riesca in modo così efficace a focalizzarsi su una singola voce è un problema di grande interesse per tutte le società che si occupano di riconoscimento vocale e di interfacciamento uomo-macchina.

Mentre le tecnologie di riconoscimento vocale che forniscono tali funzionalità stanno diventando pervasive (si pensi a Siri di Apple) sono molto distanti dall’essere sofisticati quanto l’orecchio umano.

Una persona normodotata è in grado di entrare in un ambiente molto rumoroso e tenere una conversazione privata con estrema facilità — come se le altre voci nell’ambiente fossero mute. Infatti, dice Mesgarani, un ingegnere con un solido background nel campo della ricerca sul riconoscimento vocale, la capacità di separare una voce singola da una cacofonia di voci e rumori di fondo, per la tecnologia è tuttora un problema di difficoltà sorprendente.

Il riconoscimento vocale, dice “è qualcosa a cui gli umani sono soprendentemente bravi, ma l’emulazione da parte di una macchina di questa abilità umana è estremamente difficile.”

L’articolo "Selective cortical representation of attended speaker in multi-talker speech perception" di Nima Mesgarani e Edward F. Chang è pubblicato sulla rivista Nature del 19 Aprile 2012.

La ricerca è stata finanziata dal National Institutes of Health e dalla Fondazione Ester A. e Joseph Klingenstein.

UCSF è una delle primarie università dedicate a promuovere la salute in tutto il mondo attraverso ricerche biometriche avanzate, istruzione universitaria in scienze umane e medicina, e l’eccellenza nell’assistenza al paziente.


© 2018 Reconice. All Rights Reserved. Powered by reconice