"Dobbiamo Pensare Ora A Come Proteggere L'intelligenza Artificiale" - Visualizzazione Alternativa

"Dobbiamo Pensare Ora A Come Proteggere L'intelligenza Artificiale" - Visualizzazione Alternativa
"Dobbiamo Pensare Ora A Come Proteggere L'intelligenza Artificiale" - Visualizzazione Alternativa

Video: "Dobbiamo Pensare Ora A Come Proteggere L'intelligenza Artificiale" - Visualizzazione Alternativa

Video:
Video: Il Grande potere di manifestare e avere tutto ciò che vuoi... Che continui a negarti! 2024, Settembre
Anonim

Stephen Hawking continua la "crociata" contro l'intelligenza artificiale (AI).

Durante l'attesissima campagna Ask Me Everything su Reddit, ha scritto che il lavoro sullo sviluppo di un protocollo di sicurezza AI dovrebbe essere fatto ora, non in un lontano futuro.

"Il nostro obiettivo non dovrebbe essere quello di creare un'intelligenza artificiale astratta, ma di creare un'intelligenza utile", ha scritto il famoso fisico. "Ci vorranno decenni per capire come farlo, quindi iniziamo a ricercare questo problema ora, non la notte prima del primo IA avanzata”.

Hawking usa la fama per supportare il movimento per la sicurezza dell'IA dal 2014, quando ha scritto un editoriale con altri ricercatori in cui metteva in guardia sulla minaccia esistenziale che le macchine avanzate rappresentano per l'umanità.

Altre importanti personalità tecnologiche, Elon Musk e Steve Wozniak, si sono unite a Hawking. In precedenza, tutti e tre hanno firmato una lettera aperta che chiedeva il divieto di armi autonome o robot da combattimento.

Le aspettative che l'umanità creerà presto l'intelligenza artificiale esistono dagli anni '50 e non si sono ancora giustificate. Tuttavia, la maggior parte degli scienziati di intelligenza artificiale crede che le macchine che sono uguali in intelligenza agli umani appariranno in questo secolo.

Image
Image

Foto: ANDREW COWIE / AFP

Video promozionale:

Hawking avverte che la rappresentazione dell'intelligenza artificiale nei film di fantascienza distorce il reale pericolo delle macchine. Film come Terminator raffigurano robot assassini demoniaci che cercano di distruggere l'umanità per ragioni che la vera intelligenza artificiale non aveva. Inoltre, rendono più facile mitigare il potenziale rischio di IA (come non costruire cyborg).

“La vera minaccia dell'IA non è che sia malvagia, ma che sia molto capace. La superintelligenza artificiale è molto brava a svolgere i suoi compiti.

Se i suoi compiti non coincidono con i nostri, avremo problemi, - scrive Hawking, - difficilmente odi le formiche, ma se sei responsabile di un progetto di energia verde, e l'area in cui si trova il formicaio deve essere allagata, le formiche sono sfortunate. Non permettiamo che l'umanità si trovi nella posizione di queste formiche.

Nick Bostrom, un filosofo dell'IA, fantastica sugli scenari della fine del mondo quando un programma inizia a funzionare nella direzione sbagliata. Ad esempio, all'intelligenza artificiale viene affidato il compito di sviluppare un piano per proteggere l'ambiente e, per risolvere il problema dell'ecologia, decide di distruggere l'umanità.

Elon Musk ha già impegnato 10 milioni di dollari nella ricerca sulla sicurezza dell'IA per impedire che l'intelligenza artificiale distruttiva come Skynet compaia in Terminator. Ma Hawking vuole che le persone cambino la loro percezione generale dell'IA.

"Per favore, dì ai tuoi studenti di pensare non solo a come creare l'IA, ma anche a come assicurarti che venga utilizzata per scopi utili", ha detto Hawking all'insegnante che tiene lezioni sull'intelligenza artificiale. "L'emergere di un'IA che trascende gli esseri umani diventerà o il migliore o il peggiore evento nella storia umana. Pertanto, è importante che tutto vada come dovrebbe ".

Raccomandato: