Le Persone Non Si Fidano Dell'intelligenza Artificiale. Come Sistemarlo? - Visualizzazione Alternativa

Sommario:

Le Persone Non Si Fidano Dell'intelligenza Artificiale. Come Sistemarlo? - Visualizzazione Alternativa
Le Persone Non Si Fidano Dell'intelligenza Artificiale. Come Sistemarlo? - Visualizzazione Alternativa

Video: Le Persone Non Si Fidano Dell'intelligenza Artificiale. Come Sistemarlo? - Visualizzazione Alternativa

Video: Le Persone Non Si Fidano Dell'intelligenza Artificiale. Come Sistemarlo? - Visualizzazione Alternativa
Video: Intelligenza Artificiale: tra mito e realtà | Luisella Giani | TEDxBolognaSalon 2024, Potrebbe
Anonim

L'intelligenza artificiale può già prevedere il futuro. La polizia lo utilizza per disegnare una mappa che mostra quando e dove può verificarsi il crimine. I medici lo usano per prevedere quando un paziente potrebbe avere un ictus o un infarto. Gli scienziati stanno persino cercando di dare all'IA l'immaginazione in modo che possa anticipare eventi inaspettati.

Molte decisioni nella nostra vita richiedono buone previsioni e gli agenti di intelligenza artificiale sono quasi sempre più bravi degli umani. Tuttavia, nonostante tutti questi progressi tecnologici, non abbiamo ancora fiducia nelle previsioni fornite dall'intelligenza artificiale. Le persone non sono abituate a fare affidamento sull'intelligenza artificiale e preferiscono fidarsi di esperti umani, anche se questi hanno torto.

Image
Image

Se vogliamo che l'intelligenza artificiale vada a beneficio degli esseri umani, dobbiamo imparare a fidarci di essa. Per fare questo, dobbiamo capire perché le persone sono così insistenti nel rifiutarsi di fidarsi dell'IA.

Fidati del dottor Robot

Il tentativo di IBM di presentare un programma di supercalcolo agli oncologi (Watson for Oncology) fallì. AI si è impegnata a fornire raccomandazioni terapeutiche di alta qualità per 12 tumori, che rappresentano l'80% dei casi nel mondo. Ad oggi, più di 14.000 pazienti hanno ricevuto raccomandazioni basate sui suoi calcoli.

Ma quando i medici hanno incontrato per la prima volta Watson, si sono trovati in una situazione piuttosto difficile. Da un lato, mentre Watson forniva linee guida di trattamento coerenti con le proprie opinioni, la professione medica non vedeva molto valore nelle raccomandazioni sull'IA. Il supercomputer stava semplicemente dicendo loro ciò che già sapevano e queste raccomandazioni non hanno cambiato il trattamento effettivo. Ciò potrebbe aver dato ai medici la tranquillità e la fiducia nelle proprie decisioni. Ma IBM deve ancora dimostrare che Watson aumenta effettivamente i tassi di sopravvivenza al cancro.

Video promozionale:

Image
Image

D'altra parte, se Watson ha formulato raccomandazioni che erano in contrasto con l'opinione degli esperti, i medici hanno concluso che Watson era incompetente. E la macchina non poteva spiegare perché il suo trattamento avrebbe funzionato perché i suoi algoritmi di apprendimento automatico erano troppo complessi da comprendere per gli esseri umani. Di conseguenza, ciò ha portato a una sfiducia ancora maggiore e molti medici hanno semplicemente ignorato le raccomandazioni dell'IA, facendo affidamento sulla propria esperienza.

Di conseguenza, il Chief Medical Partner di IBM Watson, MD Anderson Cancer Center, ha recentemente annunciato l'annullamento del programma. L'ospedale danese ha anche affermato che stava abbandonando il programma dopo aver scoperto che gli oncologi erano in disaccordo con Watson in due occasioni su tre.

Il problema con l'oncologia di Watson era che i medici semplicemente non si fidavano di lui. La fiducia delle persone spesso dipende dalla nostra comprensione di come pensano gli altri e dalla nostra esperienza, che crea fiducia nella loro opinione. Questo crea un senso psicologico di sicurezza. L'IA, d'altra parte, è relativamente nuova e incomprensibile per gli esseri umani. Prende decisioni sulla base di un sofisticato sistema di analisi per identificare potenziali schemi nascosti e segnali deboli da grandi quantità di dati.

Anche se può essere spiegato in termini tecnici, il processo decisionale dell'IA è solitamente troppo complesso per essere compreso dalla maggior parte delle persone. Interagire con qualcosa che non capiamo può causare ansia e creare un senso di perdita di controllo. Molte persone semplicemente non capiscono come e con cosa funzioni l'AI, perché accade da qualche parte dietro lo schermo, in background.

Per lo stesso motivo, sono più acutamente consapevoli dei casi in cui l'IA è sbagliata: si pensi all'algoritmo di Google che classifica le persone di colore come gorilla; il chatbot di Microsoft che è diventato un nazista in meno di un giorno; Veicolo Tesla in modalità pilota automatico con conseguente incidente mortale. Questi sfortunati esempi hanno ricevuto un'attenzione sproporzionata da parte dei media, sottolineando l'agenda che non possiamo fare affidamento sulla tecnologia. L'apprendimento automatico non è affidabile al 100%, in parte perché gli esseri umani lo progettano.

Una scissione nella società?

I sentimenti che l'intelligenza artificiale evoca vanno in profondità nella natura dell'essere umano. Gli scienziati hanno recentemente condotto un esperimento in cui hanno intervistato persone che hanno guardato film sull'intelligenza artificiale (fantasia) sull'automazione nella vita di tutti i giorni. Si è scoperto che, indipendentemente dal fatto che l'IA fosse rappresentata in modo positivo o negativo, semplicemente guardare una rappresentazione cinematografica del nostro futuro tecnologico polarizza gli atteggiamenti dei partecipanti. Gli ottimisti diventano ancora più ottimisti e gli scettici si avvicinano ancora di più.

Ciò suggerisce che le persone sono prevenute verso l'IA in base al proprio ragionamento, una tendenza radicata di bias di conferma: la tendenza a cercare o interpretare le informazioni in modo tale da confermare concetti preesistenti. Man mano che l'IA appare sempre più nei media, può contribuire a profonde divisioni nella società, una spaccatura tra coloro che usano l'IA e coloro che la rifiutano. Un gruppo predominante di persone può ottenere un vantaggio importante o un handicap.

Tre vie d'uscita dalla crisi di fiducia dell'IA

Fortunatamente, abbiamo alcune riflessioni su come gestire la fiducia nell'IA. La sola esperienza con l'IA può migliorare notevolmente l'atteggiamento delle persone nei confronti di questa tecnologia. Ci sono anche prove che più spesso usi determinate tecnologie (come Internet), più ti fidi di loro.

Un'altra soluzione potrebbe essere quella di aprire la scatola nera degli algoritmi di apprendimento automatico e farli funzionare in modo più trasparente. Aziende come Google, Airbnb e Twitter stanno già pubblicando rapporti sulla trasparenza su richieste e divulgazioni governative. Questo tipo di pratica nei sistemi di intelligenza artificiale aiuterà le persone ad acquisire la necessaria comprensione di come gli algoritmi prendono le decisioni.

La ricerca mostra che coinvolgere le persone nel processo decisionale dell'IA aumenterà anche la fiducia e consentirà all'IA di imparare dall'esperienza umana. Lo studio ha scoperto che le persone a cui è stata data l'opportunità di modificare leggermente l'algoritmo si sentivano più soddisfatte dei risultati del suo lavoro, molto probabilmente a causa di un senso di superiorità e della capacità di influenzare i risultati futuri.

Non abbiamo bisogno di comprendere l'intricato funzionamento interno dei sistemi di intelligenza artificiale, ma se diamo alle persone anche solo un po 'di informazioni e controllo su come questi sistemi sono implementati, avranno più fiducia e desiderio di abbracciare l'IA nella loro vita quotidiana.

Ilya Khel

Raccomandato: