I Neurofisiologi Statunitensi Hanno Imparato A "origliare" I Pensieri Umani - Visualizzazione Alternativa

I Neurofisiologi Statunitensi Hanno Imparato A "origliare" I Pensieri Umani - Visualizzazione Alternativa
I Neurofisiologi Statunitensi Hanno Imparato A "origliare" I Pensieri Umani - Visualizzazione Alternativa

Video: I Neurofisiologi Statunitensi Hanno Imparato A "origliare" I Pensieri Umani - Visualizzazione Alternativa

Video: I Neurofisiologi Statunitensi Hanno Imparato A
Video: Riuscire - Potere - Sapere - Conoscere (come e quale usare italiano) when / how to use Italian verbs 2024, Potrebbe
Anonim

I biologi americani hanno creato un neurochip in grado di leggere i segnali dal centro dell'udito del cervello in tempo reale e di decifrare ciò che il suo proprietario sente o dice. Questa tecnologia restituirà il potere della parola a persone paralizzate e stupide, scrivono gli scienziati sulla rivista Nature Communications.

Negli ultimi 10 anni, i neurofisiologi sono riusciti a fare un vero passo avanti nel campo della creazione di neurointerfacce: una serie di microchip, elettrodi speciali e programmi per computer che consentono di collegare arti cibernetici, occhi artificiali e persino quegli organi di senso che non hanno analoghi in natura - termocamere e Imager a raggi X.

Ad esempio, nel marzo 2013, scienziati brasiliani e americani sono stati in grado di combinare il cervello di due ratti che vivono a migliaia di chilometri l'uno dall'altro, in una sorta di "rete locale", o, come gli stessi scienziati hanno chiamato questa costruzione, "computer organico", e insegnare loro a scambiare informazione.

Successivamente hanno creato una "mente collettiva" simile combinando il cervello di tre scimmie e due anni fa altri ricercatori sono stati in grado di sostituire la parte danneggiata dell'ippocampo, il centro della memoria nel cervello dei topi, e liberarli dalla "sindrome della marmotta", l'incapacità di ricordare nuove informazioni.

Tali successi, come osserva Chartier, hanno indotto molti scienziati a pensare se fosse possibile leggere direttamente i pensieri dai centri della parola del cervello e articolarli. La pratica ha dimostrato che risolvere questo problema si è rivelato un'impresa molto più difficile che collegare nuove braccia e gambe al corpo di un paziente paralizzato.

Nella primavera di quest'anno, Chartier ei suoi colleghi sono stati in grado di risolverlo perché non hanno cercato di decifrare i segnali cerebrali e di "leggere" direttamente parole e lettere, ma hanno suggerito che i nostri centri del linguaggio non codificano suoni specifici, ma serie di istruzioni per i muscoli della bocca, laringe della lingua e corde vocali. Ciò ha permesso loro per la prima volta di leggere "onestamente" i pensieri dal cervello di diversi epilettici.

Avendo ottenuto successi simili, i neurofisiologi della California hanno cercato di applicare la stessa tecnica per leggere non solo i pensieri dal centro del linguaggio dei volontari, ma anche da quelle regioni del cervello che sono responsabili dell'elaborazione delle informazioni dagli organi uditivi.

Con il supporto di tre pazienti nel cui centro uditivo erano stati impiantati gli elettrodi, gli scienziati hanno iniziato a monitorare l'attività di quella parte della corteccia cerebrale mentre i volontari ascoltavano o rispondevano alle domande di Chartier e dei suoi colleghi.

Video promozionale:

Registrando questi segnali e confrontandoli tra loro, i neurofisiologi hanno creato un algoritmo che "decifra" i comandi del cervello in un linguaggio comprensibile per un computer. A differenza della versione precedente di questo programma, il nuovo frutto dell'ingegno dei neurofisiologi californiani non solo può esprimere i pensieri "ascoltati" dei volontari, ma anche convertirli in testo confrontando domande e risposte.

Anche se questo sistema ha un "vocabolario" abbastanza piccolo, ma allo stesso tempo può funzionare in tempo reale e commette errori molto meno spesso rispetto ad altri sistemi simili. In media, legge correttamente circa tre su quattro parole, sillabe e suoni in una frase, il che è sufficiente per la comunicazione.

Un ulteriore "addestramento" dell'algoritmo, come spera Chartier, consentirà di utilizzare questa neurointerfaccia per la libera comunicazione con paralitici, vittime di ictus o persone stupide che hanno perso la capacità di parlare a causa di traumi al cranio o alle corde vocali.

Raccomandato: