Per Evitare La Morte, L'umanità Deve Bloccare L'intelligenza Artificiale - Visualizzazione Alternativa

Sommario:

Per Evitare La Morte, L'umanità Deve Bloccare L'intelligenza Artificiale - Visualizzazione Alternativa
Per Evitare La Morte, L'umanità Deve Bloccare L'intelligenza Artificiale - Visualizzazione Alternativa

Video: Per Evitare La Morte, L'umanità Deve Bloccare L'intelligenza Artificiale - Visualizzazione Alternativa

Video: Per Evitare La Morte, L'umanità Deve Bloccare L'intelligenza Artificiale - Visualizzazione Alternativa
Video: Intelligenza Artificiale. Cina, debuttano in TV due giornalisti virtuali 2024, Potrebbe
Anonim

I computer oi robot superintelligenti che minacciano l'esistenza della razza umana sono una trama preferita della fantascienza. In realtà, secondo gli scienziati, un simile scenario apocalittico può essere prevenuto solo creando una "prigione" virtuale per contenere l'intelligenza artificiale (AI). E questo deve essere fatto prima che impari a essere consapevole e a migliorare se stesso.

Se lasci uscire questo genio dalla bottiglia, allora da un oracolo che risolve i nostri problemi, può trasformarsi in una minaccia apocalittica, dice Roman Yampolsky, uno scienziato dell'Università di Louisville, nel Kentucky, che lavora nel campo dell'informatica. Le condizioni in cui sarà contenuta l'IA devono essere attentamente pianificate in modo che non possa liberarsi da minacce, corruzione, tentazione o pirateria informatica.

"Può inventare molti modi per influenzare, avviare una complessa combinazione di ingegneria socio-ingegneristica e utilizzare componenti hardware esistenti per scopi che non possiamo nemmeno immaginare", ritiene Yampolsky. - Tale software ha possibilità illimitate per infettare computer e reti. L'intelligenza artificiale può trovare modi per influenzare la psiche umana, corrompere o ricattare le persone che sono in contatto con essa ".

L'emergere di una nuova area di ricerca scientifica che si occupa del problema della creazione di una "prigione" per l'intelligenza artificiale ha ulteriori vantaggi. Questi studi sono molto utili per migliorare la sicurezza del computer e la crittografia, Yampolsky ne è sicuro. Le sue proposte sono state dettagliate nel numero di marzo della rivista accademica del Journal of Consciousness Studies.

Come preparare una trappola per Skynet

Per cominciare, puoi racchiudere l'intelligenza artificiale all'interno di una "macchina virtuale". Lascia che funzioni all'interno di un normale sistema operativo: limitare l'accesso dell'IA al software e all'hardware del computer host lo renderà molto più innocuo. Ad ogni modo, l'intelligenza artificiale intelligente non sarà in grado di inviare messaggi segreti ai suoi sostenitori umani, battendo il codice Morse con ventole di raffreddamento.

Mettere l'intelligenza artificiale in un computer senza accesso a Internet è un buon modo per contrastare i piani insidiosi dell'IA per proteggere la Terra da te e me. In caso di qualsiasi altro guasto, i ricercatori possono sempre rallentare il processo di pensiero dell'IA rallentando la velocità di elaborazione del computer, premendo regolarmente il pulsante di ripristino o scollegando l'IA dall'alimentazione.

Video promozionale:

Queste misure di sicurezza sono progettate per affrontare virus informatici altamente intelligenti e pericolosi, ma nessuno sa quanto siano efficaci.

Catch-22 (romanzo dello scrittore americano J. Heller; circa Mixednews) è che non possiamo condurre test su larga scala delle nostre idee finché lo sviluppo dell'IA non sarà completato. Ma per rendere l'IA sicura, è necessario sviluppare una serie di misure appropriate, afferma Yampolsky. "L'opzione migliore è imporre restrizioni sull'uso dei sistemi di intelligenza artificiale e quindi, se necessario, modificare tali restrizioni in base alle crescenti capacità dell'IA".

Image
Image

Lo scienziato Roman Yampolsky ha suggerito di utilizzare il segno "@" o altri segni utilizzati oggi per denotare una radiazione o una minaccia biologica per indicare la presenza di un pericolo associato all'intelligenza artificiale.

Non mettere mai una guardia di sicurezza umana sul veicolo

Durante una conversazione apparentemente innocente con una guardia di sicurezza, nulla impedirà all'IA di utilizzare tecniche psicologiche come l'amicizia o il ricatto. Una persona può essere corrotta promettendogli salute perfetta, immortalità o persino promettendo di restituire parenti e amici dall'altro mondo. O ottenere qualsiasi cosa con le minacce.

Il modo più sicuro per comunicare con l'IA è fare in modo che, quando si risolve uno specifico problema scientifico o tecnico, scelga una risposta tra le tante opzioni disponibili, spiega Yampolsky. Ciò contribuirà a mantenere l'oracolo super intelligente al guinzaglio.

Molti ricercatori ritengono che, nonostante tutte le precauzioni, tenere rinchiuso indefinitamente lo smartass AI non funzionerà. L'ultimo esperimento di Eliezer Yudkowski, ricercatore dell'Istituto di singolarità sulla creazione dell'intelligenza artificiale, ha dimostrato che anche l'intelligenza a livello umano può ingannare una persona e "fuggire" dalla prigione.

Tuttavia, Yampolsky insiste nel mantenere l'IA in stretto isolamento: è comunque meglio che arrendersi e dargli completa libertà. Ma se lo sviluppo dell'IA raggiunge il punto in cui può manipolare una persona usando il subconscio (predire il futuro), la telepatia o la telecinesi, le conseguenze saranno imprevedibili.

"Se una tale intelligenza artificiale si auto-migliorerà e raggiungerà un livello notevolmente superiore alle capacità dell'intelligenza umana, le conseguenze non possono nemmeno essere immaginate", avverte Yampolsky.

Raccomandato: