Intelligenza Artificiale: Un Nemico Pericoloso O Un Gentile Aiutante - Visualizzazione Alternativa

Intelligenza Artificiale: Un Nemico Pericoloso O Un Gentile Aiutante - Visualizzazione Alternativa
Intelligenza Artificiale: Un Nemico Pericoloso O Un Gentile Aiutante - Visualizzazione Alternativa

Video: Intelligenza Artificiale: Un Nemico Pericoloso O Un Gentile Aiutante - Visualizzazione Alternativa

Video: Intelligenza Artificiale: Un Nemico Pericoloso O Un Gentile Aiutante - Visualizzazione Alternativa
Video: Intelligenza Artificiale. Dobbiamo preoccuparci? 2024, Potrebbe
Anonim

L'uso dell'intelligenza artificiale (AI) nella vita di tutti i giorni sta rapidamente guadagnando slancio, ma questa tendenza sta destando sempre più preoccupazione per gli specialisti. Lo staff della NYU ha preparato una nota cautelativa sui rischi dell'utilizzo di I. I. Per la maggior parte, gli autori si sono concentrati su questioni etiche e sociali, nonché sulla mancanza di regolamentazione. Il rapporto del gruppo AI Now dice poco di nuovo, ma nella pratica mondiale viene sempre più sollevata la questione della necessità di limitare il lavoro del pensiero artificiale.

Quasi tutti i visionari del progresso tecnologico hanno parlato delle potenziali minacce all'IA. Stephen Hawking nel novembre dello scorso anno ha espresso i principali timori che accompagnano le riflessioni sullo sviluppo della tecnologia. Secondo lui, i computer prima o poi impareranno a riprodursi. È probabile che le creature biologiche perdano a causa dell'intelligenza del silicio sia nelle capacità mentali che in termini di adattabilità all'ambiente, specialmente su un altro pianeta. Prima o poi, i robot intelligenti considereranno gli esseri umani una forma obsoleta e vorranno sbarazzarsene.

Le parole di Hawking suonano ancora come una storia dell'orrore, interpretata dozzine di volte in film e libri, ma anche chi sta lavorando all'implementazione di sistemi intelligenti ha avuto sempre più paura del futuro con l'intelligenza artificiale, anche se c'è chi considera tali paure premature. "Temere lo sviluppo dell'IA oggi è come preoccuparsi per la sovrappopolazione di Marte", ha affermato Andrew Ng, capo di Google Brain. Tuttavia, non ha rassicurato tutti.

Image
Image

Tra le più grandi fobie associate all'introduzione di un computer in tutte le sfere della vita, tre sono degne di nota. In primo luogo, la mente del computer sarà usata come un'arma di guerra, che supererà in modo significativo anche le armi nucleari in potenza distruttiva. Il secondo è che l'IA renderà schiavi gli umani. Terzo, come ogni creazione umana, il computer è soggetto a errori. Tutti e tre i punti possono essere discussi in maggiore dettaglio.

Il 21 agosto 2017, massimi esperti nel campo della ricerca e implementazione dell'intelligenza artificiale, compresi i capi di aziende come SpaceX e Deep Mind, hanno inviato una lettera aperta all'ONU. Nel testo, hanno messo in guardia la comunità mondiale dallo sviluppo di armi autonome letali, siano esse robot o altri meccanismi progettati per uccidere il nemico. Gli autori del documento hanno richiamato l'attenzione sulle conseguenze fatali dell'uso di tali armi. Con la sua fenomenale efficacia, è giusto chiedersi in quali mani cadrà. Può essere utilizzato sia da una ristretta cerchia di élite che da terroristi.

Gli autori della lettera hanno invitato l'organizzazione di controllo, e con essa la comunità scientifica, a delineare la portata dell'uso dannoso dell'IA. La responsabilità che una persona deve affrontare per la propria creazione lo obbliga a svolgere un lavoro serio per prevenire i rischi. Oltre alle leggi, i loro creatori devono anche limitare il potere dei robot, che dovranno interrogarsi su come spegnere le macchine in casi estremi.

Image
Image

Video promozionale:

L'abuso politico dei sistemi elettronici è già stato dimostrato attraverso il lavoro dei social network e degli algoritmi di analisi dei dati. Nella primavera di quest'anno, uno scandalo con Cambridge Analytica ha tuonato nel mondo. I suoi specialisti hanno condotto un'analisi approfondita dei dati degli utenti e inserito annunci su Facebook, adattati individualmente per ogni persona.

I dipendenti dell'azienda non solo hanno attraversato il quadro etico, ma hanno anche applicato tecnologie moderne, il cui lavoro era impossibile da analizzare. L'efficacia dell'apprendimento automatico è un tema ricorrente tra i principali matematici. Ammettono all'unisono di essere sbalorditi dallo straordinario successo dei programmi per computer, ma sono completamente incapaci di comprendere il lavoro di un sistema complesso. In Myanmar, nell'aprile di quest'anno, anche i post di Facebook hanno causato disordini tra le masse, ma a differenza degli Stati Uniti, dove si sono svolte le proteste, c'è stato un massacro nello stato asiatico, che ha ucciso diverse centinaia di persone. La manipolazione di un numero enorme di persone è una realtà e qui i robot possono fare uno scherzo crudele con noi.

Image
Image

Vale la pena ricordare lo stesso Facebook, dove sono stati lanciati i chatbot basati su AI. Gli assistenti virtuali sono stati formati per condurre un dialogo con l'interlocutore. Nel tempo, i robot sono diventati indistinguibili dalle persone reali e quindi gli autori hanno deciso di riunire i robot. Nel corso del tempo, i bot hanno iniziato ad accorciare le strutture lessicali e scambiare parole senza senso. I media hanno gonfiato scalpore dalle notizie, dicono "le macchine si sono ribellate". Ma mettendo da parte l'esagerazione dei giornalisti, è giusto ammettere che nel caso in cui le macchine inizino a comunicare tra loro, una persona potrebbe non accorgersene. E come vivranno lì le loro vite - nessuno lo sa.

La struttura sempre più complessa della mente del computer ogni giorno ci allontana dalla comprensione dei principi del suo lavoro. Ma mentre la maggior parte degli algoritmi fa il proprio lavoro, anche oggi le macchine complesse sono tutt'altro che ideali e commettono errori. Per l'ulteriore sviluppo dell'IA, è importante comprendere non tanto i suoi punti di forza quanto le sue vulnerabilità. È su questo che si concentra un gran numero di gruppi scientifici, in uno dei quali è presente uno specialista del MIT Anish atali. Solo un paio di giorni fa, ha parlato ai giornalisti degli errori più comuni nei sistemi di riconoscimento delle immagini.

I suoi colleghi hanno mostrato oggetti alla macchina e hanno scoperto che spesso i singoli oggetti venivano percepiti in modo errato dalla visione elettronica. Il computer potrebbe chiamare una palla da baseball una tazza di caffè e una tartaruga stampata in 3D una macchina militare. Il gruppo ha già raccolto circa 200 articoli che sono algoritmi fuorvianti.

Image
Image

L'intelligenza artificiale, invece di percepire un oggetto nel suo insieme, si è concentrata sui suoi parametri individuali. L'intelligenza artificiale tende a imparare da un campione "perfetto". Di fronte a fenomeni non conformi, non può sempre abbandonare il consueto processo di lavorazione. Invece di ammettere la sua incapacità di elaborare l'immagine, continua a provare a leggere l'immagine e questo porta a risultati a volte divertenti. Invece della forma di una tartaruga, il cervello elettronico ha cercato di leggere la sua consistenza, simile al camuffamento. Per lo stesso motivo, gli autopiloti per auto elettriche non sono ancora affidabili al 100%. È difficile per un'auto vedere la silhouette e presumere che sia composta da elementi separati.

E se nei prossimi anni alcune carenze potranno essere corrette, non vi è alcuna garanzia che gli hacker non sfruttino la vulnerabilità. Gli hacker di dispositivi elettronici oggi rappresentano quasi la principale causa di paura. Un piccolo team di programmatori può non solo avere accesso alle informazioni personali, ma anche riconfigurare sistemi autonomi, assumendo il controllo di strumenti di potenza colossale. E poi saremo tutti nei guai. Ma la conclusione principale che si può trarre è forse quella tradizionale: non dovresti aver paura delle auto, ma delle persone.

Alexander Lavrenov

Raccomandato: