L'intelligenza Artificiale è Sempre Oggettiva E Vuole Accontentare Una Persona - Visualizzazione Alternativa

Sommario:

L'intelligenza Artificiale è Sempre Oggettiva E Vuole Accontentare Una Persona - Visualizzazione Alternativa
L'intelligenza Artificiale è Sempre Oggettiva E Vuole Accontentare Una Persona - Visualizzazione Alternativa

Video: L'intelligenza Artificiale è Sempre Oggettiva E Vuole Accontentare Una Persona - Visualizzazione Alternativa

Video: L'intelligenza Artificiale è Sempre Oggettiva E Vuole Accontentare Una Persona - Visualizzazione Alternativa
Video: Intelligenza Artificiale: tra mito e realtà | Luisella Giani | TEDxBolognaSalon 2024, Potrebbe
Anonim

Come i computer prendono decisioni strane

L'intelligenza artificiale si sta sviluppando così rapidamente che molti iniziano a provare ansia: se sarà presto in grado di provare emozioni e prendere le proprie decisioni. Che si tratti di un bot, di un veicolo autonomo o di un decisore nel mondo degli affari e della scienza: l'intelligenza artificiale sta penetrando in tutte le aree della nostra vita e della società. I cervelli delle macchine sono considerati logici, privi di emozioni e imparziali, ma la pratica dimostra che non sempre decidono tutto con una mente aperta.

Image
Image

L'intelligenza artificiale è indispensabile dove è importante riconoscere modelli in grandi quantità di dati e prendere decisioni basate su di essi. Ma in futuro, i sistemi di intelligenza artificiale potrebbero essere utilizzati anche in aree in cui il nostro benessere e persino la nostra vita dipendono direttamente dalle conclusioni: in medicina, nella selezione dei lavori, nell'emissione di prestiti e nella giustizia.

Quanto oggettivamente e moralmente corretta l'intelligenza artificiale prende una decisione? Possiamo davvero fidarci del cervello della macchina per prendere decisioni così potenzialmente importanti?

L'intelligenza artificiale è utilizzata in tutte le aree

Anche adesso, gli algoritmi adattivi vengono utilizzati in molte aree della nostra vita quotidiana. Sono disponibili assistenti digitali per la comprensione dei comandi vocali e delle domande. Su Internet, i web bot aiutano a mantenere e controllare i siti web in modo che siano difficili da distinguere dagli esseri umani. Anche quando vengono rilevate notizie false e manipolazioni di immagini, sono coinvolti sistemi di intelligenza artificiale.

Video promozionale:

Image
Image

I sistemi di intelligenza artificiale svolgono anche il loro lavoro nell'industria, negli affari e persino nel governo. Ottimizzano e controllano i processi di produzione, regolano la logistica dei porti container e dei grandi magazzini o mantengono registrazioni contabili. Le compagnie di assicurazione e le banche dispongono già dei primi programmi intelligenti per controllare le domande presentate o prendere decisioni sui pagamenti. In Ikea, Deutsche Telekom e molte altre aziende, UNICEF o biblioteche, gli assistenti virtuali sono coinvolti nel servizio clienti.

Grande quantità di dati elaborati per la formazione

Tutto questo è possibile grazie alla capacità dei sistemi di AI di analizzare velocemente enormi quantità di dati, di identificare pattern e correlazioni. Ad esempio, l'algoritmo apprende da innumerevoli foto di animali domestici con nomi corrispondenti. Dopo un periodo di addestramento, il sistema può selezionare fotografie completamente nuove della specie desiderata. Riconosce le differenze da solo.

Image
Image

Molti altri sistemi di intelligenza artificiale utilizzano il testo come base per l'apprendimento. Valutano il contesto in cui si trova una parola e ne studiano il significato semantico, nonché le relazioni con parole o sinonimi simili. Queste relazioni semantiche traducono i programmi in espressioni matematiche e quindi apprendono anche contesti semantici complessi.

È solo grazie a questa capacità che l'intelligenza artificiale può, ad esempio, valutare dati medici e cartelle cliniche e dedurne le caratteristiche dei quadri clinici. Sulla base di questi risultati, i sistemi di IA vengono già utilizzati come ausili diagnostici, possono riconoscere vari tipi di cancro, segni del morbo di Alzheimer, condizioni suicide e pericolosi livelli di zucchero nel diabete.

Ma per quanto attraente possa sembrare, sempre più intelligenza artificiale ha un grosso svantaggio. Più l'intelligenza artificiale penetra praticamente in tutte le sfere della nostra società, maggiori sono le potenziali conseguenze delle sue decisioni. Il futuro finanziario o professionale di una persona, o anche della sua vita, dipende dal suo giudizio.

Soluzioni di intelligenza artificiale che possono costare vite

Ad esempio, se un'IA effettua una diagnosi errata in medicina senza essere interrogata, il paziente potrebbe subire il trattamento sbagliato o addirittura morire. L'esercito usa un sistema d'arma autonomo che prende le decisioni sbagliate. Ad esempio, l'IA non può distinguere un amico in fuga da un nemico, gli innocenti muoiono.

Image
Image

Gli algoritmi di intelligenza artificiale vengono già utilizzati nei tribunali degli Stati Uniti. Prevedono la probabilità di recidiva per i trasgressori in tribunale. La loro valutazione spesso influenza la decisione del tribunale e, di conseguenza, la sentenza della persona condannata.

Se l'IA decide sui prestiti

Allo stesso modo, una decisione in ambito finanziario e assicurativo può influire sul fatto che una persona riceva o meno un prestito. Questi sistemi vengono solitamente addestrati utilizzando database.

Image
Image

E qui l'AI sta cercando schemi: quali persone di solito rimborsano i loro prestiti e quali no? Sviluppa le sue procedure di valutazione e prende le decisioni appropriate. In particolare, ciò significa che le persone con il luogo di residenza o di occupazione sbagliato non riceveranno prestiti, indipendentemente da quanto sono disposte a pagare, nonostante queste circostanze.

Con una tale distribuzione delle responsabilità con i computer, una persona sarà solo un assistente per l'esecuzione delle decisioni dei cervelli informatici. E questo sta già accadendo.

Chi è responsabile degli errori?

Un altro problema nello sviluppo dell'IA: più complessi sono i principi del processo decisionale, più difficile è per gli esseri umani comprenderli. Solleva anche la questione di chi sia responsabile degli errori.

I casi di incidenti durante la guida di auto con il pilota automatico sono diventati più frequenti: chi è la colpa del fatto che alcune situazioni non vengono memorizzate o l'IA trae conclusioni sbagliate. O forse fa le sue conclusioni? Esistono già tali esempi.

I bot di gioco hanno sviluppato le proprie regole durante il gioco

Per questo studio, i ricercatori hanno permesso a 100 robot intelligenti di interagire tra loro in un gioco in concessione. Ognuno di loro deve decidere se donare qualcosa a qualcuno della propria squadra oa un partecipante al gioco dall'esterno.

Image
Image

Sorprendentemente, nel tempo, i bot sono diventati sempre più esclusi da gruppi esterni e donano solo ai membri del loro team.

Image
Image

Il motivo: i robot intelligenti hanno adattato la loro strategia di gioco, copiando il comportamento dei compagni che hanno raccolto più soldi e hanno avuto più successo. Pertanto, sono emersi gruppi di bot che si sono comportati nello stesso modo ed hanno costantemente escluso partecipanti al gioco non correlati. Creando costantemente qualcosa che calcola, analizza e prende decisioni più velocemente di lui, l'umanità un giorno perderà il controllo sulla sua creazione, le cui azioni non sarà in grado di tenere traccia.

Secondo gli scienziati, questo è ovvio: l'intelligenza artificiale non ha bisogno di dati artificiali per essere distorti, è sufficiente avere altre macchine intorno. Perché anche questo può creare una mente di gruppo che è conosciuta dalle comunità umane. Pertanto, utilizzando l'IA, le persone dovrebbero lasciare la decisione a se stesse.

Vasilik Svetlana

Raccomandato: