In Che Modo I Bot Stanno Uccidendo La Democrazia E Il Discorso Pubblico Sul Web - Visualizzazione Alternativa

In Che Modo I Bot Stanno Uccidendo La Democrazia E Il Discorso Pubblico Sul Web - Visualizzazione Alternativa
In Che Modo I Bot Stanno Uccidendo La Democrazia E Il Discorso Pubblico Sul Web - Visualizzazione Alternativa

Video: In Che Modo I Bot Stanno Uccidendo La Democrazia E Il Discorso Pubblico Sul Web - Visualizzazione Alternativa

Video: In Che Modo I Bot Stanno Uccidendo La Democrazia E Il Discorso Pubblico Sul Web - Visualizzazione Alternativa
Video: Galileo Festival 2020 | INTERNET STA UCCIDENDO LA DEMOCRAZIA? 2024, Potrebbe
Anonim

La campagna per le elezioni presidenziali negli Stati Uniti è ufficialmente iniziata, il che a sua volta significa abbondanza di modi strani e insidiosi in cui la tecnologia distorce la politica. Una delle più grandi minacce sono le personalità artificiali che sono appassionatamente coinvolte nelle controversie politiche. Da un lato, la tecnologia di generazione di testo basata sull'intelligenza artificiale si sta sviluppando più velocemente che mai, dall'altro i chatbot nei social network hanno quasi raggiunto la perfezione. Queste "persone" generate dal computer presto soffoceranno le discussioni umane reali sul web.

Il software di generazione del testo è sufficientemente sviluppato da ingannare chiunque. Il computer è eccellente per scrivere notizie, soprattutto su sport e finanza, consigliare i clienti su siti di investimento, scrivere articoli avvincenti su altri argomenti di notizie (anche se ci sono limitazioni).

Allo stesso tempo, esistono già algoritmi in grado di generare contenuti indistinguibili dai post degli utenti ordinari. Nel 2017, la FCC ha tenuto un dibattito pubblico sui suoi piani per porre fine alla neutralità della rete. Sono stati ricevuti ben 22 milioni di commenti su questo argomento. Molti di loro, forse la metà, erano falsi, con gli aggressori che utilizzavano dati di identificazione rubati. Alcuni commenti sono stati scortesi, 1,3 milioni sono stati generati dallo stesso modello - alcune parole sono state modificate per rendere i messaggi unici.

E le tecnologie in questo settore si stanno sviluppando attivamente. Nel suo esperimento, il ricercatore di Harvard Max Weiss ha utilizzato un software di generazione di testo per creare 1.000 commenti in risposta all'iniziativa Medicaid del governo. Tutti questi commenti erano unici e sembravano scritti da persone reali che sostenevano una certa posizione politica. Sono riusciti a ingannare gli amministratori di Medicaid.gov facendogli credere che fossero autentiche paure di persone reali. Nel corso della sua ricerca, Weiss ha successivamente rivelato che i commenti erano falsi e ha chiesto che fossero rimossi. Ma è improbabile che un'altra persona o gruppo di intrusi che seguono questo percorso sia altrettanto morale.

I chatbot sono stati presenti nelle discussioni sui social media per molti anni. Secondo una stima, circa un quinto di tutti i tweet sulle elezioni presidenziali del 2016 sono stati pubblicati da bot e circa un terzo dei voti per la Brexit nello stesso anno. In un rapporto dell'Università di Oxford dello scorso anno, i ricercatori hanno trovato prove che i bot vengono utilizzati per diffondere propaganda in 50 paesi. Di regola, si trattava di programmi semplici, che ripetevano sconsideratamente slogan: ad esempio, un quarto di milione di tweet pro-sauditi "Crediamo tutti in Mohammed bin Salman" dopo l'assassinio di Jamal Khashoggi nel 2018. Trovare bot migliori è molto più difficile. E misurare l'efficacia di questi bot è difficile. Tutti distorcono l'opinione pubblica e la fede in un dibattito politico ben ragionato. Infatti,siamo tutti nel bel mezzo di un nuovo esperimento sociale.

Nel corso degli anni, i robot algoritmici hanno sviluppato intere personalità. Hanno nomi falsi, biografie false e fotografie false, a volte generate dal computer. Invece di vomitare propaganda all'infinito, pubblicano messaggi solo occasionalmente. I ricercatori potrebbero scoprire che sono bot e non esseri umani sulla base di schemi di pubblicazione, ma la tecnologia dei bot sta migliorando continuamente, superando i tentativi di rintracciarli. I robot del futuro saranno mascherati meglio da gruppi sociali di persone, la propaganda sarà sottilmente intessuta in tweet su argomenti relativi a questi gruppi sociali.

Presto, i Sim controllati dal programma saranno in grado di scrivere lettere personalizzate ai giornali, in PM ai funzionari eletti, fornire commenti personalizzati per i processi di regolamentazione pubblica e parlare in modo intelligente di questioni politiche sui social media. Potranno commentare post sui social network, siti di notizie, ecc. Verranno creati personaggi permanenti che sembreranno reali anche a chi li studia. Potranno presentarsi sui social media e inviare testi personalizzati. Si replicheranno a milioni e invieranno miliardi di messaggi, lunghi e brevi, 24 ore su 24. Insieme, possono soffocare qualsiasi vero dibattito su Internet. Non solo sui social media, ma ovunque ci siano commenti.

Forse questi personaggi saranno controllati da intrusi stranieri. Forse questi saranno gruppi politici interni. Forse saranno i candidati stessi. Molto probabilmente, lo useranno tutti. La lezione più importante delle elezioni del 2016 sulla disinformazione non è che la disinformazione sia stata pubblicata; ma è economico e facile disinformare le persone. I futuri progressi tecnologici renderanno tutto questo ancora più accessibile.

Video promozionale:

Il nostro futuro sarà un violento dibattito politico in cui i bot discuteranno principalmente con altri bot. Questo non è ciò che immaginiamo quando lodiamo il mercato delle idee o qualsiasi processo politico democratico. Perché una democrazia funzioni correttamente, sono necessarie due cose: informazione e rappresentanza. I personaggi artificiali colpiscono entrambe le cose.

La soluzione al problema non è ancora ovvia. Possiamo provare a regolamentare l'uso dei bot - la proposta di legge della California richiede ai bot di identificarsi - ma questo è efficace solo contro le campagne di influencer legittime come le pubblicità. L'influenza nascosta sarà molto più difficile da rilevare. La difesa più ovvia è lo sviluppo e la standardizzazione di metodi di autenticazione migliori. Se i social network sono sicuri che ci sia una persona reale dietro ogni account, saranno in grado di eliminare meglio le persone false. Ma gli account falsi vengono già creati regolarmente utilizzando dati di persone reali a loro insaputa o senza il loro consenso. Non disponiamo di un sistema di autenticazione che protegga la privacy e possa raggiungere miliardi di utenti.

Possiamo solo sperare che la nostra capacità di identificare personalità artificiali raggiunga la nostra capacità di mascherarle. Ma per ora, gli attaccanti sono sempre un passo avanti.

Alla fine della giornata, qualsiasi decisione deve essere non tecnica. Dobbiamo riconoscere i limiti del dibattito politico su Internet e dare nuovamente la priorità alla comunicazione faccia a faccia. È più difficile da automatizzare e sappiamo che le persone con cui parliamo sono persone reali. Ma finora questo cambiamento culturale sembra una soluzione completamente irrealistica, ei tentativi di disinformazione sono diffusi in tutto il mondo e vengono effettuati in più di 70 paesi. Questo è il modo normale di propaganda nei paesi con regimi autoritari e diventa un modo per condurre una campagna politica.

I personaggi artificiali sono il futuro della propaganda. E sebbene possano essere inefficaci nel portare la discussione a un certo denominatore, possono facilmente soffocare completamente la discussione.

BRUCE SCHNEIER è assegnista di ricerca e docente presso la Harvard Kennedy School.

Raccomandato: