Le neurointerfacce - tecnologie che collegano cervello e computer - stanno gradualmente diventando una routine: abbiamo già visto come, con l'aiuto di ordini mentali, una persona possa controllare una protesi o digitare un testo su un computer. Questo significa che le promesse degli scrittori di fantascienza che hanno scritto sulla lettura a pieno titolo dei pensieri usando un computer o persino sul trasferimento della coscienza umana in un computer diventeranno presto una realtà? Lo stesso argomento - "Personalità aumentata" - nel 2019 è dedicato al concorso di racconti di fantascienza "Future Time", organizzato dalla fondazione di beneficenza Sistema. Insieme agli organizzatori del concorso, gli editori di N + 1 hanno capito di cosa sono capaci le moderne interfacce neurali e se possiamo davvero creare una connessione cervello-computer a tutti gli effetti. E Alexander Kaplan ci ha aiutato in questo,fondatore del primo laboratorio di interfaccia russo presso l'Università statale di Mosca Lomonosov.
Hack il corpo
Neil Harbisson ha acromatopsia congenita, che lo ha privato della visione dei colori. L'inglese, decidendo di ingannare la natura, ha impiantato una speciale telecamera che converte il colore in informazioni sonore e le invia all'orecchio interno. Neil si considera il primo cyborg ufficialmente riconosciuto dallo stato.
Nel 2012, negli Stati Uniti, Andrew Schwartz dell'Università di Pittsburgh ha dimostrato una paziente paralizzata di 53 anni che, utilizzando elettrodi impiantati nel suo cervello, inviava segnali a un robot. Ha imparato a controllare il robot così tanto che è stata in grado di servirsi una tavoletta di cioccolato.
Nel 2016, nello stesso laboratorio, un paziente di 28 anni con una grave lesione spinale ha esteso una mano artificiale controllata dal cervello a Barack Obama che lo ha visitato. I sensori sulla mano hanno permesso al paziente di sentire la stretta di mano del 44 ° presidente degli Stati Uniti.
La moderna biotecnologia consente alle persone di "rompere" i limiti del proprio corpo, creando una simbiosi tra il cervello umano e il computer. Sembra che tutto stia andando verso il fatto che la bioingegneria entrerà presto a far parte della vita di tutti i giorni.
Video promozionale:
Cosa succederà dopo? Il filosofo e futurista Max More, seguace dell'idea del transumanesimo, dalla fine del secolo scorso, ha sviluppato l'idea della transizione dell'uomo verso una nuova fase evolutiva utilizzando, tra le altre cose, la tecnologia informatica. Nella letteratura e nel cinema degli ultimi due secoli, un gioco simile dell'immaginario futuristico è andato scivolando.
Nel mondo del romanzo di fantascienza Neuromancer di William Gibbson, pubblicato nel 1984, sono stati sviluppati impianti che consentono a chi li indossa di connettersi a Internet, espandere le proprie capacità intellettuali e rivivere i ricordi. Masamune Shiro, l'autore del manga cult di fantascienza giapponese "Ghost in the Shell" recentemente girato negli USA, descrive un futuro in cui qualsiasi organo può essere sostituito con la bionica, fino al completo trasferimento della coscienza nel corpo di un robot.
Fino a che punto possono spingersi le interfacce neurali in un mondo in cui, da un lato, l'ignoranza moltiplica le fantasie e, dall'altro, le fantasie si rivelano spesso provvidenza?
Differenza di potenziale
Il sistema nervoso centrale (SNC) è una complessa rete di comunicazione. Ci sono più di 80 miliardi di neuroni nel solo cervello e ci sono trilioni di connessioni tra di loro. Ogni millisecondo all'interno e all'esterno di qualsiasi cellula nervosa cambia la distribuzione degli ioni positivi e negativi, determinando come e quando reagirà a un nuovo segnale. A riposo, il neurone ha un potenziale negativo rispetto all'ambiente (in media -70 millivolt), o "potenziale a riposo". In altre parole, è polarizzato. Se un neurone riceve un segnale elettrico da un altro neurone, affinché possa essere trasmesso ulteriormente, gli ioni positivi devono entrare nella cellula nervosa. Si verifica la depolarizzazione. Quando la depolarizzazione raggiunge un valore di soglia (circa -55 millivolt, ma questo valore può variare),la cellula si eccita e lascia entrare sempre più ioni caricati positivamente, che crea un potenziale positivo, o "potenziale d'azione".
Potenziale d'azione.
Inoltre, il potenziale d'azione lungo l'assone (canale di comunicazione cellulare) viene trasmesso al dendrite, il canale ricevente della cellula successiva. Tuttavia, l'assone e il dendrite non sono collegati direttamente e l'impulso elettrico non può semplicemente passare dall'uno all'altro. Il luogo di contatto tra di loro è chiamato sinapsi. Le sinapsi producono, trasmettono e ricevono neurotrasmettitori - composti chimici che "inoltrano" direttamente un segnale dall'assone di una cellula al dendrite di un'altra.
Quando l'impulso raggiunge la fine dell'assone, rilascia neurotrasmettitori nella fessura sinaptica, attraversando lo spazio tra le cellule e attaccandosi all'estremità del dendrite. Forzano il dendrite a far entrare ioni caricati positivamente, passare dal potenziale di riposo al potenziale d'azione e trasmettono un segnale al corpo cellulare.
Il tipo di neurotrasmettitore determina anche quale segnale verrà inviato ulteriormente. Ad esempio, il glutammato porta all'attivazione neuronale, l'acido gamma-aminobutirrico (GABA) è un importante mediatore inibitorio e l'acetilcolina può fare entrambe le cose a seconda della situazione.
Ecco come appare schematicamente un neurone:
Diagramma del neurone.
Ed è così che appare nella realtà:
Neurone al microscopio.
Inoltre, la risposta della cellula ricevente dipende dal numero e dal ritmo degli impulsi in arrivo, dalle informazioni provenienti da altre cellule, nonché dall'area del cervello da cui è stato inviato il segnale. Varie cellule ausiliarie, il sistema endocrino e immunitario, l'ambiente esterno e l'esperienza precedente: tutto ciò determina lo stato del sistema nervoso centrale al momento e quindi influisce sul comportamento umano.
E sebbene, per come lo intendiamo noi, il sistema nervoso centrale non sia un insieme di "fili", il lavoro delle neurointerfacce si basa proprio sull'attività elettrica del sistema nervoso.
Salto positivo
Il compito principale della neurointerfaccia è decodificare il segnale elettrico proveniente dal cervello. Il programma ha una serie di "modelli" o "eventi" costituiti da varie caratteristiche del segnale: frequenze di vibrazione, picchi (picchi di attività), posizioni sulla corteccia e così via. Il programma analizza i dati in arrivo e cerca di rilevare questi eventi in essi.
I comandi inviati inoltre dipendono dal risultato ottenuto, oltre che dalla funzionalità del sistema nel suo complesso.
Un esempio di tale modello è il potenziale evocato P300 (Positive 300), spesso utilizzato per i cosiddetti speller - meccanismi per digitare il testo utilizzando segnali cerebrali.
Quando una persona vede il simbolo di cui ha bisogno sullo schermo, dopo 300 millisecondi, è possibile rilevare un salto positivo del potenziale elettrico nella registrazione dell'attività cerebrale. Dopo aver rilevato il P300, il sistema invia un comando per stampare il carattere corrispondente.
In questo caso, l'algoritmo non è in grado di rilevare il potenziale da una volta a causa del livello di rumore del segnale causato da un'attività elettrica casuale. Pertanto, il simbolo deve essere presentato più volte e i dati ottenuti devono essere mediati.
Oltre a un cambiamento di un passo nel potenziale, la neurointerfaccia può cercare cambiamenti nell'attività ritmica (cioè oscillatoria) del cervello causati da un determinato evento. Quando un gruppo sufficientemente ampio di neuroni entra in un ritmo sincrono di fluttuazioni di attività, questo può essere rilevato sullo spettrogramma del segnale sotto forma di ERS (sincronizzazione correlata all'evento). Se, al contrario, c'è una desincronizzazione delle oscillazioni, lo spettrogramma contiene ERD (desincronizzazione correlata all'evento).
Nel momento in cui una persona fa o semplicemente immagina un movimento della mano, l'ERD viene osservata nella corteccia motoria dell'emisfero opposto a una frequenza di oscillazione di circa 10-20 hertz.
Questo e altri modelli possono essere assegnati manualmente al programma, ma spesso vengono creati nel processo di lavoro con ogni individuo specifico. Il nostro cervello, come le caratteristiche della sua attività, è individuale e richiede l'adattamento del sistema ad esso.
Elettrodi di registrazione
La maggior parte delle neurointerfacce utilizza l'elettroencefalografia (EEG) per registrare l'attività, ovvero un metodo non invasivo di neuroimaging, grazie alla sua relativa semplicità e sicurezza. Gli elettrodi attaccati alla superficie della testa registrano il cambiamento nel campo elettrico causato dal cambiamento nel potenziale dei dendriti dopo che il potenziale d'azione ha “attraversato” la sinapsi.
Nel momento in cui gli ioni positivi penetrano nel dendrite, si forma un potenziale negativo nell'ambiente circostante. All'altra estremità del neurone, gli ioni con la stessa carica iniziano a lasciare la cellula, creando un potenziale positivo all'esterno e lo spazio che circonda il neurone si trasforma in un dipolo. Il campo elettrico che si propaga dal dipolo viene registrato da un elettrodo.
Sfortunatamente, il metodo ha diverse limitazioni. Il cranio, la pelle e gli altri strati che separano le cellule nervose dagli elettrodi, sebbene siano conduttori, non sono così buoni da non distorcere le informazioni sul segnale.
Gli elettrodi sono in grado di registrare solo l'attività totale di molti neuroni vicini. Il contributo principale al risultato della misurazione viene dai neuroni situati negli strati superiori della corteccia, i cui processi sono perpendicolari alla sua superficie, perché sono loro che creano il dipolo, il campo elettrico di cui il sensore può catturare meglio.
Tutto ciò porta alla perdita di informazioni da strutture profonde e una diminuzione della precisione, quindi il sistema è costretto a lavorare con dati incompleti.
Gli elettrodi invasivi, impiantati sulla superficie o direttamente all'interno del cervello, consentono una precisione molto maggiore.
Se la funzione desiderata è associata agli strati superficiali del cervello (ad esempio, attività motoria o sensoriale), l'impianto è limitato alla trapanazione e al fissaggio degli elettrodi alla superficie della corteccia. I sensori leggono l'attività elettrica totale di molte cellule, ma questo segnale non è distorto come nell'EEG.
Se l'attività situata più in profondità è importante, gli elettrodi vengono inseriti nella corteccia. È anche possibile registrare l'attività dei singoli neuroni utilizzando speciali microelettrodi. Sfortunatamente, la tecnica invasiva rappresenta un potenziale pericolo per l'uomo e viene utilizzata nella pratica medica solo in casi estremi.
Tuttavia, c'è la speranza che la tecnica diventi meno traumatica in futuro. L'azienda americana Neuralink intende implementare l'idea di introdurre in sicurezza migliaia di sottili elettrodi flessibili senza perforare il cranio, utilizzando un raggio laser.
Diversi altri laboratori stanno lavorando su sensori biodegradabili che rimuoveranno gli elettrodi dal cervello.
Banana o arancia?
La registrazione del segnale è solo il primo passo. Successivamente, è necessario "leggerlo" per determinare le intenzioni dietro di esso. Esistono due modi possibili per decodificare l'attività cerebrale: lasciare che l'algoritmo scelga le caratteristiche rilevanti dal set di dati stesso o fornire al sistema una descrizione dei parametri da cercare.
Nel primo caso, l'algoritmo, non limitato da parametri di ricerca, classifica il segnale "grezzo" stesso e trova elementi che prevedono le intenzioni con la massima probabilità. Se, ad esempio, un soggetto pensa alternativamente al movimento con la mano destra e con la sinistra, il programma è in grado di trovare i parametri del segnale che distinguono al massimo un'opzione dall'altra.
Il problema con questo approccio è che i parametri che descrivono l'attività elettrica del cervello sono troppo multidimensionali e i dati sono troppo rumorosi con vari rumori.
Con il secondo algoritmo di decodifica è necessario sapere in anticipo dove e cosa cercare. Ad esempio, nell'esempio dello speller P300 descritto sopra, sappiamo che quando una persona vede un simbolo, il potenziale elettrico cambia in un certo modo. Insegniamo al sistema a cercare questi cambiamenti.
In una situazione del genere, la capacità di decifrare le intenzioni di una persona è legata alla nostra conoscenza di come le funzioni cerebrali sono codificate nell'attività neurale. Come si manifesta questa o quella intenzione o stato nel segnale? Sfortunatamente, nella maggior parte dei casi non abbiamo una risposta a questa domanda.
Sono in corso ricerche neurobiologiche sulla funzione cognitiva, ma nonostante ciò possiamo decifrare una piccolissima frazione dei segnali. Il cervello e la coscienza rimangono per noi una "scatola nera" per ora.
Alexander Kaplan, neurofisiologo, dottore in scienze biologiche e fondatore del Laboratorio di Neurofisiologia e Neurointerfacce presso l'Università statale di Mosca Lomonosov, che ha ricevuto la prima borsa di studio in Russia per lo sviluppo di una neurointerfaccia per la comunicazione tra il cervello e un computer, afferma che i ricercatori sono in grado di decifrare automaticamente alcune intenzioni umane o immagini da loro immaginate sulla base dell'EEG …
Tuttavia, al momento, non ci sono più di una dozzina di tali intenzioni e immagini. Questi sono, di regola, stati associati al rilassamento e alla tensione mentale o alla rappresentazione dei movimenti di parti del corpo. E anche il loro riconoscimento avviene con errori: ad esempio, per stabilire dall'EEG che una persona intende stringere la mano destra in un pugno, anche nei migliori laboratori è possibile in non più dell'80-85 percento del numero totale di tentativi.
E se provi a capire dall'EEG se una persona immagina una banana o un'arancia, il numero di risposte corrette supererà solo leggermente il livello di ipotesi casuale.
La cosa più triste è che non è stato possibile migliorare l'affidabilità dei sistemi di neurointerfaccia nel riconoscere le intenzioni umane tramite EEG e ampliare l'elenco di tali intenzioni per più di 15 anni, nonostante i significativi progressi nello sviluppo di algoritmi e tecnologia informatica raggiunti nello stesso periodo.
Apparentemente, l'EEG riflette solo una piccola parte dell'attività mentale di una persona. Pertanto, i sistemi di neurointerfaccia dovrebbero essere affrontati con aspettative moderate e delineati chiaramente le aree della loro reale applicazione.
Perso nella traduzione
Perché non possiamo creare un sistema che faccia ciò che il cervello può fare facilmente? In breve, il modo in cui funziona il cervello è troppo complesso per le nostre capacità analitiche e computazionali.
Primo, non conosciamo la "lingua" in cui comunica il sistema nervoso. Oltre alle serie di impulsi, è caratterizzato da molte variabili: caratteristiche dei percorsi e delle cellule stesse, reazioni chimiche che si verificano al momento del trasferimento delle informazioni, il lavoro delle reti neurali vicine e di altri sistemi corporei.
Oltre al fatto che la "grammatica" di questa "lingua" è complessa in sé, può differire in diverse coppie di cellule nervose. La situazione è aggravata dal fatto che le regole di comunicazione, così come le funzioni delle cellule e le relazioni tra loro, sono tutte molto dinamiche e in continua evoluzione sotto l'influenza di nuovi eventi e condizioni. Ciò aumenta in modo esponenziale la quantità di informazioni che devono essere prese in considerazione.
I dati che descrivono completamente l'attività cerebrale annegheranno semplicemente qualsiasi algoritmo che si impegna ad analizzarla. Decodificare intenzioni, ricordi, movimenti è quindi un compito praticamente insolubile.
Il secondo ostacolo è che non sappiamo molto sulle funzioni cerebrali che stiamo cercando di rilevare. Cos'è la memoria o l'immagine visiva, di cosa sono fatte? La neurofisiologia e la psicologia hanno cercato di rispondere a queste domande per molto tempo, ma finora i progressi nella ricerca sono scarsi.
Le funzioni più semplici come le funzioni motorie e sensoriali hanno il vantaggio in questo senso, in quanto sono meglio comprese. Pertanto, le interfacce neurali attualmente disponibili interagiscono principalmente con esse.
Sono in grado di riconoscere sensazioni tattili, movimento immaginario di un arto, risposta alla stimolazione visiva e semplici reazioni a eventi ambientali come una risposta a un errore o una mancata corrispondenza tra lo stimolo atteso e quello reale. Ma l'attività nervosa più elevata rimane un grande segreto per noi oggi.
Comunicazione a due vie
Finora abbiamo discusso solo della situazione della lettura unidirezionale delle informazioni senza alcuna influenza a ritroso. Tuttavia, oggi esiste già una tecnologia per trasmettere segnali da un computer al cervello: CBI (interfaccia computer-cervello). Rende bidirezionale il canale di comunicazione della neurointerfaccia.
Le informazioni (ad esempio suoni, sensazioni tattili e persino dati sul funzionamento del cervello) entrano nel computer, vengono analizzate e, attraverso la stimolazione delle cellule del sistema nervoso centrale o periferico, vengono trasmesse al cervello. Tutto ciò può avvenire bypassando completamente gli organi naturali di percezione e viene utilizzato con successo per sostituirli.
Secondo Alexander Kaplan, attualmente non ci sono più restrizioni teoriche per dotare una persona di "organi" sensoriali artificiali collegati direttamente alle strutture cerebrali. Inoltre, vengono attivamente introdotti nella vita quotidiana di una persona, ad esempio, per sostituire gli organi di senso naturali disturbati.
Per le persone con problemi di udito sono già disponibili i cosiddetti impianti cocleari: microchip che combinano un microfono con recettori uditivi. È iniziato il test degli impianti retinici per il restauro della vista.
Secondo Kaplan, non ci sono restrizioni tecniche per il collegamento di altri sensori al cervello che rispondono agli ultrasuoni, ai cambiamenti di radioattività, velocità o pressione.
Il problema è che queste tecnologie devono essere completamente basate sulla nostra conoscenza di come funziona il cervello. Che, come abbiamo già scoperto, sono piuttosto limitati.
L'unico modo per aggirare questo problema, secondo Kaplan, è creare un canale di comunicazione fondamentalmente nuovo, con un proprio linguaggio di comunicazione, e insegnare non solo al computer, ma anche al cervello a riconoscere nuovi segnali.
Tali sviluppi sono già iniziati. Ad esempio, nel laboratorio di fisica applicata della Johns Hopkins University diversi anni fa, hanno testato una mano bionica in grado di trasmettere informazioni tattili al cervello.
Quando si toccano i sensori della mano artificiale, gli elettrodi stimolano le vie del sistema nervoso periferico, che poi trasmettono il segnale alle aree sensoriali del cervello. Una persona impara a riconoscere i segnali in arrivo come diversi tipi di tocco. Così, invece di cercare di riprodurre il sistema tattile di segnali che è naturale per gli esseri umani, viene creato un nuovo canale e linguaggio di comunicazione.
Tuttavia, questo percorso di sviluppo è limitato dal numero di nuovi canali che possiamo creare e da quanto saranno informativi per il cervello, afferma Alexander Kaplan.
Tempo futuro
Kaplan ritiene che al momento non ci sia un nuovo modo per sviluppare le tecnologie di neurointerfaccia. Secondo lui, la possibilità stessa di un'interfaccia per la comunicazione tra il cervello e il computer è stata scoperta negli anni '70 del secolo scorso, ei principi del cervello, su cui si basano gli sviluppi odierni, sono stati descritti circa trent'anni fa, e da allora non sono praticamente apparse nuove idee.
Pertanto, il potenziale ora ampiamente utilizzato del P300 è stato scoperto negli anni '60, le immagini del motore negli anni '80 -'90 e la negatività del disadattamento negli anni '70).
Un tempo gli scienziati nutrivano la speranza di poter stabilire un contatto informativo più stretto tra il cervello e la tecnologia del processore, ma oggi è diventato chiaro che non si sono avverati.
Tuttavia, dice Kaplan, è diventato chiaro che le neurointerfacce possono essere implementate per uso medico. Secondo lo scienziato, ora lo sviluppo delle neurointerfacce sta procedendo in misura maggiore attraverso l'introduzione della tecnologia nella sfera clinica.
Un tempo gli scienziati nutrivano la speranza di poter stabilire un contatto informativo più stretto tra il cervello e la tecnologia del processore, ma oggi è diventato chiaro che non si sono avverati.
Tuttavia, dice Kaplan, è diventato chiaro che le neurointerfacce possono essere implementate per uso medico. Secondo lo scienziato, ora lo sviluppo delle neurointerfacce sta procedendo in misura maggiore attraverso l'introduzione della tecnologia nella sfera clinica.
Tuttavia, grazie alla ricerca sul cervello e ai progressi della tecnologia, le neurointerfacce odierne sono capaci di ciò che una volta sembrava impraticabile. Non sappiamo con certezza cosa accadrà tra 30, 50 o 100 anni. Lo storico della scienza Thomas Kuhn ha avanzato l'idea che lo sviluppo della scienza sia un ciclo: i periodi di stagnazione sono sostituiti da cambiamenti paradigmatici e rivoluzioni scientifiche che seguono. È del tutto possibile che in futuro avremo una rivoluzione che porterà il cervello fuori dalla scatola nera. E lei verrà dal lato più inaspettato.
Maria Ermolova