Perché L'intelligenza Artificiale Giudica I Criminali Pericoloso? - Visualizzazione Alternativa

Sommario:

Perché L'intelligenza Artificiale Giudica I Criminali Pericoloso? - Visualizzazione Alternativa
Perché L'intelligenza Artificiale Giudica I Criminali Pericoloso? - Visualizzazione Alternativa

Video: Perché L'intelligenza Artificiale Giudica I Criminali Pericoloso? - Visualizzazione Alternativa

Video: Perché L'intelligenza Artificiale Giudica I Criminali Pericoloso? - Visualizzazione Alternativa
Video: Intelligenza Artificiale per dominare il mondo - Codice, La vita è digitale 06/08/2018 2024, Potrebbe
Anonim

L'intelligenza artificiale sta già aiutando a determinare il tuo futuro in qualche modo. Quando cerchi qualcosa su un motore di ricerca, utilizza un servizio come Netflix o una banca valuta la tua idoneità per un mutuo. Ma cosa succede se l'intelligenza artificiale deve determinare se sei colpevole o meno, in tribunale? Stranamente, in alcuni paesi questo potrebbe già accadere. Recentemente, è stato chiesto all'Alto Giudice statunitense John Roberts se poteva immaginare un giorno in cui "macchine intelligenti, controllate dall'intelligenza artificiale, aiuteranno a trovare prove o anche a prendere decisioni giudiziarie". Ha risposto: "Questo giorno è già arrivato e sta aiutando in modo significativo le autorità giudiziarie nel procedimento".

Forse Roberts si riferiva al recente caso di Eric Loomis, condannato a sei anni di prigione su raccomandazione di software proprietario segreto di una società privata. Loomis, che aveva già una storia criminale ed è stato condannato per essere fuggito dalla polizia con un'auto rubata, ora afferma che il suo diritto alla procedura è stato violato poiché né lui né i suoi rappresentanti sono stati in grado di rivedere o contestare l'algoritmo di raccomandazione.

Il rapporto è stato preparato dal software Compas, che viene venduto da Notrpointe alle navi. Il programma incarna una nuova tendenza nella ricerca sull'IA: aiutare i giudici a prendere decisioni in tribunale "migliori" (o almeno più basate sui dati).

Sebbene i dettagli specifici del caso Loomis rimangano chiusi, certamente contiene grafici e numeri che definiscono la vita, il comportamento e la probabilità di una ricaduta di Loomis. Questi includono età, razza, identità di genere, abitudini, cronologia del browser e alcune misurazioni del cranio. Nessuno sa più precisamente.

È noto che il pubblico ministero nel caso ha detto al giudice che Loomis ha dimostrato "un alto rischio di recidività, violenza, procedimenti preliminari". Questo è lo standard quando si tratta di condanne. Il giudice ha accettato e ha detto a Loomis che "Compas lo ha identificato come una persona ad alto rischio per la società".

La Corte Suprema del Wisconsin ha condannato Loomis, aggiungendo che il rapporto Compas ha aggiunto preziose informazioni alla sua decisione, ma ha notato che senza di lui, ha emesso la stessa condanna. Ovviamente non sarai in grado di verificarlo con certezza. Quali pregiudizi cognitivi possono esserci quando un sistema onnipotente "intelligente" come Compas è coinvolto nel consigliare i giudici su cosa fare?

Uso sconosciuto

Video promozionale:

Siamo onesti, non c'è nulla di "illegale" in ciò che ha fatto il tribunale del Wisconsin - questo è solo un esempio. Altri tribunali possono e faranno lo stesso.

Sfortunatamente, non sappiamo in che misura l'intelligenza artificiale e altri algoritmi vengono utilizzati nella sentenza. Si ritiene che alcuni tribunali stiano "testando" sistemi come Compas in processi chiusi, ma non possono rivendicare una partnership. C'è anche la percezione che diverse startup di intelligenza artificiale stiano sviluppando sistemi così intelligenti.

Image
Image

Tuttavia, l'uso dell'IA nella legislazione non inizia o termina con una frase, inizia con un'indagine. Il Regno Unito ha già sviluppato il sistema VALCRI, che svolge un lavoro analitico dispendioso in termini di tempo in pochi secondi, passando attraverso tonnellate di dati come testi, rapporti di laboratorio e documenti di polizia per isolare le cose che potrebbero richiedere ulteriori indagini.

La polizia britannica delle West Midlands testerà VALCRI nei prossimi tre anni utilizzando dati anonimi contenenti oltre 6,5 milioni di record. Un test simile è in corso da parte della polizia di Anversa in Belgio. Tuttavia, in passato, i progetti di intelligenza artificiale e deep learning che coinvolgono enormi set di dati sono stati problematici.

Vantaggi per pochi

La tecnologia ha fornito molti utili aiuti alle aule giudiziarie, dalle fotocopiatrici all'estrazione del DNA dalle impronte digitali alle sofisticate tecniche di sorveglianza. Ma questo non significa che qualsiasi tecnologia sia un miglioramento.

Sebbene l'uso dell'IA nelle indagini e nelle condanne possa potenzialmente far risparmiare tempo e denaro, pone problemi acuti. Un rapporto Compas di ProPublica ha chiarito che i neri erano erroneamente considerati dal programma più recidivi dei bianchi. Anche i sistemi di IA più sofisticati possono ereditare i pregiudizi razziali e di genere di chi li crea.

Inoltre, qual è lo scopo di spostare il processo decisionale (almeno in parte) su questioni che sono uniche per gli esseri umani su un algoritmo? C'è una certa difficoltà negli Stati Uniti quando le giurie mettono alla prova i loro colleghi. Gli standard legali non sono mai stati il punto di riferimento, motivo per cui questi processi con giuria sono considerati i sistemi di condanna più democratici ed efficaci. Commettiamo errori, ma col tempo accumuliamo conoscenze su come non farli, affinando il sistema.

Compas e sistemi simili rappresentano una scatola nera nel sistema legale. Non dovrebbe essere così. I sistemi legali dipendono dalla continuità, dalla trasparenza delle informazioni e dalla capacità di revisione. La società non vuole un sistema che incoraggi la corsa alla creazione di startup di intelligenza artificiale che realizzano soluzioni veloci, economiche ed esclusive. Un'intelligenza artificiale fatta in fretta sarà terribile.

Una versione open source aggiornata di Compas rappresenterebbe un miglioramento. Ma prima, gli standard del sistema giudiziario dovranno essere innalzati prima di iniziare a spostare la responsabilità a favore degli algoritmi.

ILYA KHEL

Raccomandato: