Cinque stagioni di intelligenza artificiale. Batte una persona in mille pezzi in Go, prende il controllo della sua auto e la sostituisce al lavoro, e allo stesso tempo può migliorare l'efficacia della medicina. La sua lunga storia risale al 1958 con una macchina enorme in grado di distinguere tra destra e sinistra.
1: 0. Quindi 2: 0. E 3: 0. Nel marzo 2016 si è tenuto il meeting finale al Four Seasons Hotel di Seoul, dopo il quale non c'è stata ombra di dubbio: il campione di go coreano Lee Sedol ha perso 4: 1 su un computer che esegue il programma AlphaGo sviluppato da una consociata di Google "Deepmind". Per la prima volta nella storia, il meccanismo del "machine learning" e delle "reti neurali artificiali" ha completamente superato il cervello umano in questo gioco, considerato più difficile da simulare degli scacchi. Molti esperti sottolineano che si aspettavano un tale risultato solo in pochi anni.
Per un pubblico più ampio, questa è stata la prova del potere della nuova tecnologia di "apprendimento profondo", che ora è al centro degli assistenti vocali, delle auto autonome, del riconoscimento facciale, della traduzione automatica e facilita anche la diagnosi medica …
L'interesse per le tecnologie di apprendimento automatico, mostrato dalle multinazionali americane e cinesi nel campo delle alte tecnologie (Google, Amazon, Facebook, Microsoft, Baidu, Tensent), abbraccia l'intero pianeta e sta sempre più saltando da intestazioni scientifiche di giornali in materiale economico, analitico e sociale. Il fatto è che l'intelligenza artificiale non solo promette grandi cambiamenti nell'economia, ma solleva anche pensieri su nuove armi distruttive, sorveglianza generale dei cittadini, sostituzione dei dipendenti con robot, problemi etici …
Ma da dove viene la rivoluzione tecnologica dell'IA? La sua storia ha già abbastanza alti e bassi. Ha fatto affidamento sui risultati delle neuroscienze e dell'informatica (come si potrebbe intuire dal nome), oltre che, sorprendentemente, della fisica. Il suo percorso ha attraversato Francia, Stati Uniti, Giappone, Svizzera e URSS. In quest'area, varie scuole scientifiche si sono scontrate tra loro. Hanno vinto un giorno e hanno perso il successivo. Ci sono voluti tutti per mostrare pazienza, tenacia e disponibilità a correre dei rischi. Ci sono due inverni e tre primavere in questa storia.
Macchina autocosciente
È iniziato tutto bene. "L'esercito americano ha parlato dell'idea di una macchina in grado di camminare, parlare, vedere, scrivere, riprodurre e prendere coscienza di se stessa", ha scritto il New York Times l'8 luglio 1958. Questo articolo di una colonna descrive il Perceptron, creato dallo psicologo americano Frank Rosenblatt nei laboratori della Cornell University. Questa macchina da 2 milioni di dollari all'epoca aveva all'incirca le dimensioni di due o tre frigoriferi ed era intrecciata con molti fili. Durante una manifestazione davanti alla stampa americana, il Perceptron ha stabilito se un quadrato disegnato su un foglio fosse a destra oa sinistra. Lo scienziato ha promesso che con un investimento di altri 100mila dollari, la sua macchina sarà in grado di leggere e scrivere in un anno. In effetti, ci sono voluti più di 30 anni …
Video promozionale:
Comunque sia, la cosa principale in questo progetto è stata la fonte di ispirazione, che è rimasta invariata fino ad AlphaGo e ai suoi "parenti". Lo psicologo Frank Rosenblatt si occupa dei concetti di cibernetica e intelligenza artificiale da oltre un decennio. A proposito, ha sviluppato il suo Perceptron con l'aiuto di altri due psicologi nordamericani: Warren McCulloch e Donald Hebb. Il primo pubblicò nel 1943 un articolo congiunto con Walter Pitts (Walter Pitts) con una proposta per creare neuroni "artificiali", che dovrebbero partire da quelli naturali e avere proprietà matematiche. Il secondo ha introdotto regole nel 1949 per consentire ai neuroni artificiali di apprendere per tentativi ed errori, come fa il cervello.
Il ponte tra biologia e matematica è stata un'iniziativa coraggiosa. Un'unità di conteggio (neurone) può essere attiva (1) o inattiva (0) a seconda degli stimoli provenienti da altre formazioni artificiali con cui è collegata, formando una rete complessa e dinamica. Più precisamente, ogni neurone riceve un certo insieme di simboli e lo confronta con una certa soglia. Se la soglia viene superata, il valore è 1, altrimenti è 0. Gli autori hanno dimostrato che il loro sistema associato può eseguire operazioni logiche come "e" e "o" … e quindi eseguire qualsiasi calcolo. In teoria.
Questo approccio innovativo ai calcoli ha portato al primo litigio della nostra storia. I due concetti si sono incontrati in un confronto inconciliabile che continua ancora oggi. Da un lato, ci sono sostenitori delle reti neurali e, dall'altro, sostenitori dei computer "classici". Questi ultimi si basano su tre principi: i calcoli sono prevalentemente sequenziali, la memoria e i calcoli sono forniti con componenti chiaramente definiti, qualsiasi valore intermedio dovrebbe essere uguale a 0 o 1. Per i primi, tutto è diverso: la rete fornisce sia memoria che calcoli, non c'è controllo centralizzato, e valori intermedi sono ammessi.
Il "Perceptron" ha anche la capacità di imparare, ad esempio, a riconoscere uno schema o classificare i segnali. Questo è il modo in cui il tiratore corregge la vista. Se il proiettile va a destra, sposta la canna a sinistra. A livello dei neuroni artificiali, questo significa indebolire quelli che tirano a destra, a favore di quelli che tirano a sinistra, e permettervi di colpire il bersaglio. Non resta che creare questo groviglio di neuroni e trovare un modo per collegarli.
Comunque sia, l'entusiasmo svanì in modo significativo nel 1968 con l'uscita del libro Perceptrons di Seymour Papert e Marvin Minsky. In esso, hanno dimostrato che la struttura dei perceptrons consente di risolvere solo i problemi più semplici. Era il primo inverno dell'intelligenza artificiale, la cui prima primavera, dobbiamo ammetterlo, non ha dato molti frutti. E il vento non soffiava da nessuna parte: Marvin Minsky era all'origine dell'emergere del concetto stesso di "intelligenza artificiale" nel 1955.
AI e AI si scontrano
Il 31 agosto di quell'anno, lei e il collega John McCarthy mandarono una dozzina di persone invitandole a partecipare la prossima estate a un lavoro di due mesi sull'allora primo concetto di intelligenza artificiale al Dartmouth College. Warren McCulloch e Claude Shannon, il padre dell'informatica e della teoria delle telecomunicazioni, erano presenti. Fu lui a portare Minsky e McCarthy al laboratorio Bell, da cui successivamente uscirono transistor e laser. Inoltre, sono stati loro a diventare uno dei centri della rinascita delle reti neurali negli anni '80.
Parallelamente a questo, si formarono due nuovi movimenti e la Stanford University divenne il loro campo di battaglia. Da un lato sfoggiava l'acronimo di AI, "intelligenza artificiale", in un'accezione diversa dalle reti neurali, che era difeso da John McCarthy (lasciò il Massachusetts Institute of Technology e creò il suo laboratorio a Stanford). D'altra parte, c'è l'interfaccia utente, "intelligenza migliorata", che riflette il nuovo approccio di Douglas Engelbart. Fu assunto nel 1957 dallo Stanford Research Institute (creato nel 1946 da un'istituzione indipendente che interagiva con il settore privato).
Douglas Engelbart aveva alle spalle un percorso difficile. Era un tecnico e impegnato nel radar durante la seconda guerra mondiale, ma poi riprese gli studi e difese la sua tesi. Prima di entrare a far parte di Stanford, ha persino creato la sua compagnia, ma è durata solo due anni. In un nuovo posto, ha iniziato a implementare la sua visione di migliorare le capacità umane. Ha detto di avere un'idea chiara di come "i colleghi siedono in stanze diverse su postazioni di lavoro simili che sono collegate allo stesso sistema informativo e possono interagire e scambiare dati da vicino", afferma il sociologo Thierry Bardini.
Questa visione è stata messa in pratica nel dicembre 1968, dieci anni dopo l'introduzione di Perceptron, durante una dimostrazione del sistema oNLine con un editor di testo sullo schermo, collegamenti ipertestuali a documenti, grafici e un mouse. Douglas Engelbart era un visionario, ma probabilmente guardava troppo lontano nel futuro per farsi conoscere davvero.
Gennaio 1984, il primo Macintosh
John McCarthy, a sua volta, definì questo sistema inutilmente "dittatoriale" perché imponeva un approccio speciale alla strutturazione del testo. Questo coraggioso scienziato, che, come Engelbart, è stato finanziato dall'esercito americano, ha presentato il suo concetto simbolico di intelligenza artificiale. In questo si è affidato a LISP, uno dei primi linguaggi di programmazione che ha sviluppato. L'idea era di imitare il processo del pensiero con una catena logica di regole e simboli e quindi formare un pensiero o almeno una funzione cognitiva. Questo non ha nulla a che fare con reti di neuroni indipendenti che possono apprendere ma non sono in grado di spiegare la loro scelta. A parte la mano robotica che ha riversato il pugno, che ha divertito tutti facendo cadere i bicchieri, il nuovo approccio ha avuto un discreto successo in termini di quelli che a lungo sono stati chiamati "sistemi esperti". Catene di regole hanno permesso alle macchine di analizzare i dati in un'ampia varietà di campi, che si tratti di finanza, medicina, produzione, traduzione.
Nel 1970, un collega di Minsky fece la seguente dichiarazione alla rivista Life: “Tra otto anni avremo una macchina con l'intelligenza di una persona media. Cioè, una macchina che può leggere Shakespeare, cambiare l'olio in una macchina, scherzare, combattere.
La vittoria dell'approccio simbolico
Apparentemente, all'intelligenza artificiale non piace la profezia. Nel 1973, in Inghilterra fu pubblicato un rapporto che agghiacciò le teste: “La maggior parte degli scienziati che lavorano sull'intelligenza artificiale e sui campi correlati ammettono di essere delusi da ciò che è stato raggiunto negli ultimi 25 anni. (…) In nessuno dei campi le scoperte finora fatte hanno dato i risultati promessi.
Gli anni successivi hanno confermato questa diagnosi. Negli anni '80, le aziende di intelligenza artificiale sono fallite o hanno cambiato campo. L'edificio del laboratorio McCarthy è stato demolito nel 1986.
Douglas Engelbart ha vinto. Nel gennaio 1984, Apple ha rilasciato il suo primo Macintosh, mettendo in pratica la maggior parte delle idee dell'ingegnere.
Quindi, la vittoria non è andata all'intelligenza artificiale, che Minsky e McCarthy sognavano, ma all'intelletto potenziato di Engelbart. Tutto ciò ha portato allo sviluppo di personal computer efficienti. E l'intelligenza artificiale è arrivata a un vicolo cieco. Il simbolismo si è rivelato più forte delle reti neurali. Tuttavia, la nostra storia non finisce qui, e si dichiareranno comunque.
David Larousserie