Per La Prima Volta, Gli Scienziati Hanno Estratto Immagini Da Pensieri - Visualizzazione Alternativa

Sommario:

Per La Prima Volta, Gli Scienziati Hanno Estratto Immagini Da Pensieri - Visualizzazione Alternativa
Per La Prima Volta, Gli Scienziati Hanno Estratto Immagini Da Pensieri - Visualizzazione Alternativa

Video: Per La Prima Volta, Gli Scienziati Hanno Estratto Immagini Da Pensieri - Visualizzazione Alternativa

Video: Per La Prima Volta, Gli Scienziati Hanno Estratto Immagini Da Pensieri - Visualizzazione Alternativa
Video: 365 motivi per sorridere in pensieri e immagini 2024, Potrebbe
Anonim

I neuroscienziati hanno ricreato immagini visive dinamiche che apparivano nella testa mentre guardavano video selezionati in modo casuale. In futuro, tale tecnologia aiuterà i medici a guardare le allucinazioni dei pazienti sullo schermo e i ricchi eccentrici - caricheranno i loro sogni su YouTube

Un risultato fantastico è stato ottenuto presso l'Università della California a Berkeley: ai soggetti sono stati mostrati vari video da YouTube (frammenti di film, trailer, ecc.), Mentre la macchina per la risonanza magnetica ha registrato in dettaglio l'attività delle cellule in varie parti della corteccia visiva. Utilizzando queste informazioni, gli scienziati sono stati in grado di ricostruire i fotogrammi visualizzati in colori e dinamiche (vedere l'impressionante video alla fine del materiale).

La qualità di queste clip recuperate può sembrare poco importante per alcuni, ma è incomparabilmente migliore e più accurata di quella ottenuta “dalla testa” di una persona nel primo esperimento di questo tipo.

Gli scienziati, che hanno creato il nuovo programma per il riconoscimento delle immagini mentali, si sono alternati agendo come soggetti sperimentali, poiché dovevano trascorrere molte ore alla volta all'interno del tomografo.

Per cominciare, i ricercatori hanno registrato un'immagine dell'attività cerebrale mentre guardavano una serie di trailer di film di Hollywood. I biologi hanno costruito un modello computerizzato 3D del cervello con gruppi di cellule (voxel) e hanno registrato il modo in cui ciascun voxel risponde ai cambiamenti nella forma e nel movimento degli oggetti sullo schermo. Pertanto, è stato possibile ottenere una corrispondenza approssimativa tra l'informazione visiva e il processo della sua elaborazione nella corteccia cerebrale.

Per testare e mettere a punto l'algoritmo, gli scienziati lo hanno alimentato per migliaia di ore da milioni di video presi a caso dallo stesso servizio di YouTube, ottenendo il risultato opposto: un'attività cerebrale simulata che sarebbe stata osservata se una persona guardasse questi video.

Fotogrammi dai video e sulla destra - sono gli stessi, ma presi dalla testa dell'osservatore

Image
Image

Video promozionale:

Image
Image
Image
Image

Infine, l'algoritmo è stato nuovamente invertito. Quando le persone guardavano un video di prova in un tomografo, il computer raccoglieva 100 clip dal Web, che molto probabilmente causavano proprio una simile immagine dell'attività cellulare. Quindi, secondo per secondo, il programma ha mescolato i fotogrammi di questi clip, ottenendo un filmato risultante sfocato, che coincideva bene con ciò che la persona ha osservato nella realtà.

(I dettagli dell'esperimento possono essere trovati in un articolo su Current Biology e in un comunicato stampa dell'università.)

"È così che apriamo una finestra sul cinema che va nella nostra mente", afferma il coautore Jack Gallant. A proposito, Gallant ci è noto per la sua esperienza con il riconoscimento per mezzo della scansione cerebrale delle fotografie viste.

Gli scienziati spiegano perché il riconoscimento mentale utilizzando la tomografia magnetica è difficile da implementare. Uno dei problemi è che lo scanner registra i cambiamenti nel flusso sanguigno attraverso la corteccia e si verificano molto più lentamente del cambiamento dei segnali nervosi.

Ecco perché in precedenza un simile trucco poteva essere eseguito solo con immagini statiche. "Abbiamo risolto questo problema creando un modello a due stadi che descrive le cellule nervose e i segnali del flusso sanguigno separatamente", afferma Shinji Nishimoto, autore principale dello studio.

Potrebbe essere necessario un decennio prima che la nuova tecnologia venga applicata praticamente. Ma già in questa forma grezza, è in grado di aiutare i neurofisiologi a capire meglio cosa sta succedendo nella testa umana.

Leonid Popov

Raccomandato: