Intelligenza Artificiale: Un'arma A Doppio Taglio? - Visualizzazione Alternativa

Intelligenza Artificiale: Un'arma A Doppio Taglio? - Visualizzazione Alternativa
Intelligenza Artificiale: Un'arma A Doppio Taglio? - Visualizzazione Alternativa

Video: Intelligenza Artificiale: Un'arma A Doppio Taglio? - Visualizzazione Alternativa

Video: Intelligenza Artificiale: Un'arma A Doppio Taglio? - Visualizzazione Alternativa
Video: Intelligenza Artificiale...che succede? 2024, Potrebbe
Anonim

Diciamo che i robot sorgeranno. Questo conquisterà il mondo, prenderà il controllo di tutto. Abbiamo sentito questi avvertimenti per decenni e oggi, all'inizio del 21 ° secolo, il numero di questi avvertimenti è solo in crescita. C'è una crescente paura dell'intelligenza artificiale che metterà fine alla nostra specie.

Tali copioni non solo vengono acquistati a Hollywood, ma trovano anche sempre più sostenitori in campo scientifico e filosofico. Ad esempio, Ray Kurzweil ha scritto che la crescita esponenziale dell'intelligenza artificiale porterà a una singolarità tecnologica, il punto in cui l'intelligenza artificiale supererà l'intelligenza umana. Alcuni vedono questo come la fine del mondo, altri vedono solo opportunità. Nick Bostrom pensa che la superintelligenza ci aiuterebbe ad affrontare malattie, povertà e distruzione ambientale, oltre a migliorare noi stessi.

Martedì, il famoso scienziato Stephen Hawking si è unito ai ranghi dei profeti della singolarità, più precisamente, al loro gruppo pessimista, poiché ha dichiarato alla BBC che "lo sviluppo dell'intelligenza artificiale a tutti gli effetti può significare la fine della razza umana". Crede che gli umani non saranno in grado di competere con l'IA, che sarà in grado di riprogrammarsi e raggiungere un livello di gran lunga superiore a quello umano. Tuttavia, Hawking crede anche che non dovremmo cercare di contattare affatto gli alieni, poiché avranno un solo obiettivo: sottometterci o distruggerci del tutto.

Il problema con questi scenari non è che sono inevitabilmente sbagliati: chi può prevedere il futuro? - o non credere ai copioni di fantascienza. Quest'ultimo è inevitabile se vuoi capire e valutare le moderne tecnologie e il loro impatto su di noi in futuro. È importante mettere le nostre domande filosofiche sul tavolo in tali scenari ed esaminare le nostre paure per capire cosa conta di più per noi.

Il problema di concentrarsi esclusivamente sull'intelligenza artificiale nel contesto del "giorno del giudizio" e di altri scenari fatali è che ci distrae da altre questioni etiche e sociali più urgenti e importanti che sorgono in connessione con gli sviluppi tecnologici in queste aree. Ad esempio, c'è un posto per la privacy nel mondo delle tecnologie dell'informazione e della comunicazione? Google, Facebook e Apple minacciano la libertà nel mondo della tecnologia? Un'ulteriore automazione porterà alla perdita di posti di lavoro? Le nuove tecnologie finanziarie possono minacciare l'economia globale? In che modo i dispositivi mobili influiscono sull'ambiente? (A merito di Hawking, ha menzionato la privacy nelle interviste, ma poi ha ancora parlato della fine dell'età umana.)

Queste domande sono molto meno allettanti della superintelligenza o della fine dell'umanità. Inoltre non sollevano domande sull'intelligenza o sui robot; riguardano il tipo di società di cui abbiamo bisogno e come vogliamo vedere la nostra vita.

Queste domande sono antiche, sono apparse dall'apparenza stessa della scienza e della filosofia, e le crescenti tecnologie dell'informazione di oggi, che stanno cambiando il nostro mondo, ci fanno pensare di nuovo a loro. Speriamo che le migliori menti umane del nostro tempo concentrino la maggior parte delle loro energie sulla ricerca di risposte alle giuste domande, piuttosto che sulla demagogia intorno a minacce esagerate.

Ilya Khel

Video promozionale:

Raccomandato: