Un nuovo studio ha dimostrato che manifestare pregiudizi verso gli altri non richiede un'intelligenza speciale e può facilmente svilupparsi in macchine artificialmente intelligenti.
Psicologi e specialisti di tecnologia dell'informazione presso l'Università di Cardiff e il MIT hanno dimostrato che gruppi di macchine autonome possono manifestare pregiudizi semplicemente definendo tale comportamento, copiandolo e insegnandolo reciprocamente.
Può sembrare che il pregiudizio sia un fenomeno puramente umano, che richiede all'intelligenza umana di formarsi opinioni o stereotipi su una persona o un gruppo. Mentre alcuni tipi di algoritmi informatici hanno già mostrato pregiudizi come il razzismo e il sessismo basati sullo studio di registri pubblici e altri dati generati dagli esseri umani, un nuovo lavoro dimostra la capacità dell'IA di sviluppare in modo indipendente gruppi con pregiudizi.
La ricerca è pubblicata su Scientific Reports. Si basa su simulazioni al computer di come gli agenti virtuali prevenuti possono formare gruppi e interagire tra loro. Durante la simulazione, ogni individuo decide se aiutare qualcuno del suo gruppo o di un altro, a seconda della reputazione di quell'individuo, nonché della sua strategia, che include i suoi livelli di pregiudizio nei confronti degli estranei. Dopo aver condotto migliaia di simulazioni, ogni individuo apprende nuove strategie copiando gli altri, che siano membri del proprio gruppo o dell'intera "popolazione".
La frequenza cumulativa relativa delle caratteristiche degli agenti in base al livello di pregiudizio / Roger M. Whitaker.
"Dopo aver eseguito queste simulazioni migliaia e migliaia di volte di seguito, abbiamo iniziato a capire come si sviluppano i pregiudizi e quali condizioni sono necessarie per coltivarli o prevenirli", ha detto il coautore dello studio, il professor Roger Whitaker dell'Institute for Crime and Security Research e della School of Computer Science and Computer Science dell'Università di Cardiff. “Le nostre simulazioni mostrano che il bias è una potente forza della natura e, attraverso l'evoluzione, può essere stimolato in popolazioni virtuali a danneggiare connessioni più ampie con gli altri. La protezione contro i gruppi prevenuti può portare inavvertitamente alla formazione di altri gruppi prevenuti, provocando una maggiore divisione della popolazione. Un pregiudizio così diffuso è difficile da invertire ".
I dati della ricerca includono anche individui che aumentano i loro livelli di bias copiando preferenzialmente coloro che ottengono i migliori risultati a breve termine, il che a sua volta significa che tali decisioni non richiedono necessariamente abilità speciali.
"È del tutto plausibile che macchine autonome, in grado di identificarsi con la discriminazione e di copiare gli altri, possano in futuro essere suscettibili ai fenomeni di pregiudizio che vediamo nella società", continua il professor Whitaker. “Molti sviluppi dell'IA a cui assistiamo oggi riguardano l'autonomia e l'autocontrollo, ovvero il comportamento dei dispositivi è influenzato anche da coloro che li circondano. Esempi recenti includono i trasporti e l'Internet delle cose. La nostra ricerca fornisce una visione teorica di dove gli agenti simulati si rivolgono periodicamente ad altri per le risorse ".
Video promozionale:
I ricercatori hanno anche scoperto che in determinate condizioni, inclusa la presenza di sottopopolazioni più divise della stessa società, il bias è più difficile da rafforzare.
“Con un gran numero di sottopopolazioni, i sindacati di gruppo imparziali possono cooperare senza essere sfruttati. Diminuisce anche il loro status di minoranza riducendo la loro suscettibilità a stabilire pregiudizi. Tuttavia, ciò richiede anche circostanze in cui gli agenti siano disposti più favorevolmente verso le interazioni al di fuori del loro gruppo , ha concluso il professor Whitaker.
Vladimir Guillen