Stephen Hawking Ha Definito L'intelligenza Artificiale Il Più Grande Errore Della Storia - Visualizzazione Alternativa

Stephen Hawking Ha Definito L'intelligenza Artificiale Il Più Grande Errore Della Storia - Visualizzazione Alternativa
Stephen Hawking Ha Definito L'intelligenza Artificiale Il Più Grande Errore Della Storia - Visualizzazione Alternativa

Video: Stephen Hawking Ha Definito L'intelligenza Artificiale Il Più Grande Errore Della Storia - Visualizzazione Alternativa

Video: Stephen Hawking Ha Definito L'intelligenza Artificiale Il Più Grande Errore Della Storia - Visualizzazione Alternativa
Video: Hawking: l'intelligenza artificiale è il futuro dell'umanità 2024, Settembre
Anonim

Il famoso fisico britannico Stephen Hawking, in un articolo ispirato al film di fantascienza "Transcendence" con Johnny Depp, ha detto che sottovalutare la minaccia dell'intelligenza artificiale può essere il più grande errore nella storia umana.

In un articolo scritto in collaborazione con il professore di informatica Stuart Russell dell'Università della California a Berkeley e i professori di fisica Max Tegmark e Frank Wilczek del MIT, Hawking indica alcuni progressi nell'intelligenza artificiale, sottolineando le auto a guida autonoma, l'assistente vocale di Siri e il supercomputer. il vincitore dell'uomo nel gioco a quiz televisivo Jeopardy.

“Tutti questi risultati impallidiscono sullo sfondo di ciò che ci attende nei prossimi decenni. La creazione di successo dell'intelligenza artificiale sarà il più grande evento nella storia umana. Sfortunatamente, potrebbe rivelarsi l'ultimo, se non impariamo a evitare i rischi”, ha dichiarato Hawking al quotidiano britannico The Independent.

I professori scrivono che in futuro potrebbe accadere che niente e nessuno possa impedire alle macchine con intelligenza disumana di auto-miglioramento. E questo avvierà il processo della cosiddetta singolarità tecnologica, che significa sviluppo tecnologico estremamente rapido. Nel film con la partecipazione di Depp, la parola "trascendenza" è usata in questo senso.

Immagina che una tale tecnologia superi gli esseri umani e guidi i mercati finanziari, la ricerca scientifica, gli esseri umani e lo sviluppo di armi oltre la nostra comprensione. Se l'effetto a breve termine dell'intelligenza artificiale dipende da chi la controlla, l'effetto a lungo termine dipende dal fatto che possa essere controllato.

È difficile dire quali conseguenze possa avere l'intelligenza artificiale sugli esseri umani. Hawking ritiene che ci siano poche ricerche serie dedicate a questi problemi al di fuori di organizzazioni non profit come il Cambridge Center for the Study of Existential Risks, l'Institute for the Future of Humanity e gli istituti di ricerca per l'intelligenza artificiale e la vita futura.

Secondo lui, ognuno di noi dovrebbe chiedersi cosa possiamo fare ora per evitare lo scenario peggiore del futuro.

Raccomandato: