In Che Modo è Stato Insegnato Alle Reti Neurali A Falsificare L'immagine Delle Notizie - Visualizzazione Alternativa

Sommario:

In Che Modo è Stato Insegnato Alle Reti Neurali A Falsificare L'immagine Delle Notizie - Visualizzazione Alternativa
In Che Modo è Stato Insegnato Alle Reti Neurali A Falsificare L'immagine Delle Notizie - Visualizzazione Alternativa

Video: In Che Modo è Stato Insegnato Alle Reti Neurali A Falsificare L'immagine Delle Notizie - Visualizzazione Alternativa

Video: In Che Modo è Stato Insegnato Alle Reti Neurali A Falsificare L'immagine Delle Notizie - Visualizzazione Alternativa
Video: Introduzione Alle Reti Neurali 02: La Funzione di Costo 2024, Aprile
Anonim

Per creare falsi, vengono utilizzati sistemi e tecnologie di intelligenza artificiale per la generazione di falsi audio e video.

Per creare un'immagine “individuale” di notizie per ognuno di noi e per falsificare i resoconti dei media in essa selezionati, oggi bastano gli sforzi di un programmatore. Gli specialisti in intelligenza artificiale e sicurezza informatica ne hanno parlato a Izvestia. Più recentemente, hanno stimato che ciò richiedesse il lavoro di più team. Tale accelerazione è diventata possibile con lo sviluppo di tecnologie per gli attacchi alle reti neurali e la generazione di falsi audio e video utilizzando programmi per creare "falsi profondi". Il quotidiano Izvestia ha subito di recente un attacco simile, quando tre portali di notizie libiche hanno pubblicato contemporaneamente un messaggio che sarebbe apparso in uno dei numeri. Secondo gli esperti, entro 3-5 anni, ci si può aspettare un'invasione di manipolatori robotici, che saranno automaticamente in grado di creare molti falsi.

Nuovo mondo

Ci sono stati sempre più progetti che adattano il quadro delle informazioni alla percezione di utenti specifici. Un esempio del loro lavoro è stata la recente azione di tre portali libici, che hanno pubblicato notizie presumibilmente stampate nel numero di Izvestia il 20 novembre. Gli ideatori del fake hanno modificato la prima pagina del giornale, pubblicando su di essa un messaggio sui negoziati tra il feldmaresciallo Khalifa Haftar e il primo ministro del governo di accordo nazionale (PNS) Fayez Sarraj. Il fake, in carattere Izvestia, era accompagnato da una foto dei due leader scattata nel maggio 2017. L'etichetta con il logo della pubblicazione è stata tagliata dal numero effettivamente pubblicato del 20 novembre e tutti gli altri testi sulla pagina dal numero del 23 ottobre.

Dal punto di vista degli specialisti, nel prossimo futuro tali falsificazioni possono essere eseguite automaticamente.

Image
Image

"Le tecnologie di intelligenza artificiale sono ora completamente aperte e i dispositivi per la ricezione e l'elaborazione dei dati si stanno miniaturizzando e diventando più economici", ha detto a Izvestia Yuri Vilsiter, dottore in scienze fisiche e matematiche, professore dell'Accademia delle scienze russa, capo del dipartimento "GosNIIAS" della FSUE. - Pertanto, è molto probabile che nel prossimo futuro nemmeno lo stato e le grandi società, ma semplicemente i privati, saranno in grado di intercettarci e spiarci, oltre a manipolare la realtà. Nei prossimi anni sarà possibile, analizzando le preferenze dell'utente, influenzarlo attraverso feed di notizie e fake molto intelligenti.

Video promozionale:

Secondo Yuri Vilsiter, esistono già tecnologie che possono essere utilizzate per un tale intervento nell'ambiente mentale. In teoria, l'invasione dei robot manipolatori può essere prevista in pochi anni, ha detto. Un momento limitante qui potrebbe essere la necessità di raccogliere ampi database di esempi di risposte di persone reali a stimoli artificiali con monitoraggio delle conseguenze a lungo termine. È probabile che tale tracciamento richieda diversi anni di ricerca prima di ottenere costantemente attacchi mirati.

Attacco visivo

Alexei Parfentiev, capo del dipartimento di analisi di SearchInform, è d'accordo con Yuri Vilsiter. Secondo lui, gli esperti prevedono già attacchi alle reti neurali, sebbene ora non ci siano praticamente tali esempi.

- I ricercatori di Gartner ritengono che entro il 2022, il 30% di tutti gli attacchi informatici sarà finalizzato a corrompere i dati su cui si allena la rete neurale e a rubare modelli di machine learning già pronti. Quindi, ad esempio, i veicoli senza pilota possono improvvisamente iniziare a scambiare i pedoni per altri oggetti. E non parleremo di rischio finanziario o reputazionale, ma della vita e della salute delle persone comuni, ritiene l'esperto.

Gli attacchi ai sistemi di visione artificiale sono attualmente in corso nell'ambito della ricerca. Lo scopo di tali attacchi è costringere la rete neurale a rilevare nell'immagine ciò che non c'è. O, al contrario, per non vedere cosa era stato pianificato.

Image
Image

"Uno degli argomenti in via di sviluppo attivo nel campo dell'addestramento delle reti neurali sono i cosiddetti attacchi del contraddittorio (" attacchi del contraddittorio ". - Izvestia)", ha spiegato Vladislav Tushkanov, analista web di Kaspersky Lab. - Nella maggior parte dei casi, sono rivolti a sistemi di visione artificiale. Per eseguire un tale attacco, nella maggior parte dei casi, è necessario avere pieno accesso alla rete neurale (i cosiddetti attacchi white-box) o ai risultati del suo lavoro (attacchi black-box). Non esistono metodi che possono ingannare un sistema di visione artificiale nel 100% dei casi. Inoltre, sono già stati creati strumenti che consentono di testare le reti neurali per la resistenza agli attacchi avversari e aumentarne la resistenza.

Nel corso di un tale attacco, un utente malintenzionato cerca in qualche modo di modificare l'immagine riconosciuta in modo che la rete neurale non funzioni. Spesso sulla foto si sovrappone del rumore, simile a quello che si verifica quando si fotografa in una stanza scarsamente illuminata. Una persona di solito non nota bene tale interferenza, ma la rete neurale inizia a funzionare male. Ma per eseguire un tale attacco, l'attaccante deve accedere all'algoritmo.

Secondo Stanislav Ashmanov, direttore generale di Neuroset Ashmanov, attualmente non esistono metodi per affrontare questo problema. Inoltre, questa tecnologia è a disposizione di chiunque: un programmatore medio può utilizzarla scaricando il software open source necessario dal servizio Github.

Image
Image

- Un attacco a una rete neurale è una tecnica e algoritmi per ingannare una rete neurale, che la fanno produrre risultati falsi e, in effetti, la rompono come una serratura, - crede Ashmanov. - Ad esempio, ora è abbastanza facile far pensare al sistema di riconoscimento facciale che non sei tu, ma Arnold Schwarzenegger di fronte - questo viene fatto mescolando additivi impercettibili all'occhio umano nei dati che entrano nella rete neurale. Gli stessi attacchi sono possibili per il riconoscimento vocale e i sistemi di analisi.

L'esperto è sicuro che andrà solo peggio: queste tecnologie sono arrivate alle masse, i truffatori le stanno già utilizzando e non ci sono mezzi di protezione contro di esse. Poiché non esiste alcuna protezione contro la creazione automatizzata di falsificazioni video e audio.

Falsi profondi

Le tecnologie Deepfake basate sul Deep Learning (tecnologie di deep learning delle reti neurali. - Izvestia) rappresentano già una vera minaccia. I falsi video o audio vengono creati modificando o sovrapponendo i volti di personaggi famosi che presumibilmente pronunciano il testo necessario e svolgono il ruolo necessario nella trama.

"Deepfake ti consente di sostituire i movimenti delle labbra e il linguaggio umano con il video, il che crea una sensazione di realismo di ciò che sta accadendo", afferma Andrey Busargin, direttore del dipartimento per la protezione del marchio innovativo e la proprietà intellettuale di Group-IB. - Le celebrità false “offrono” agli utenti sui social network di partecipare all'estrazione di premi di valore (smartphone, auto, somme di denaro), ecc. I collegamenti da questi video spesso portano a siti fraudolenti e di phishing in cui agli utenti viene chiesto di inserire informazioni personali, inclusi i dettagli della carta di credito. Tali schemi rappresentano una minaccia sia per gli utenti ordinari che per i personaggi pubblici citati nelle pubblicità. A causa di questo tipo di imbrogli, le immagini di celebrità vengono associate a truffe o prodotti pubblicizzati.ed è qui che ci imbattiamo in danni al marchio personale ", dice.

Image
Image

Un'altra minaccia è associata all'uso di "voti falsi" per frodi telefoniche. Ad esempio, in Germania, i criminali informatici hanno utilizzato il deepfake vocale per fare in modo che il capo di una filiale britannica trasferisse urgentemente 220.000 euro sul conto di un fornitore ungherese in una conversazione telefonica, fingendosi manager di un'azienda. Il capo dell'azienda britannica sospettava un trucco quando il suo "capo" ha chiesto un secondo vaglia, ma la chiamata è arrivata da un numero austriaco. A questo punto, la prima tranche era già stata trasferita su un conto in Ungheria, da dove il denaro è stato ritirato in Messico.

Si scopre che le attuali tecnologie consentono di creare un'immagine di notizie individuale piena di notizie false. Inoltre, presto sarà possibile distinguere i falsi dal video e dall'audio reali solo tramite hardware. Secondo gli esperti, è improbabile che le misure che vietano lo sviluppo di reti neurali siano efficaci. Pertanto, presto vivremo in un mondo in cui sarà necessario ricontrollare costantemente tutto.

"Dobbiamo prepararci per questo, e dobbiamo accettarlo", ha sottolineato Yuri Vilsiter. - L'umanità non è la prima volta che passa da una realtà all'altra. Il nostro mondo, stile di vita e valori sono radicalmente diversi dal mondo in cui i nostri antenati vivevano 60.000 anni fa, 5.000 anni fa, 2.000 anni fa e anche 200-100 anni fa. Nel prossimo futuro, una persona sarà in gran parte privata della privacy e quindi costretta a non nascondere nulla e ad agire onestamente. Allo stesso tempo, nulla nella realtà circostante e nella propria personalità può essere assunto per fede, tutto dovrà essere messo in discussione e costantemente ricontrollato. Ma questa futura realtà sarà disastrosa? Non. Sarà semplicemente completamente diverso.

Anna Urmantseva

Raccomandato: