Quali Pericoli Delle Reti Neurali Sottostimiamo? - Visualizzazione Alternativa

Sommario:

Quali Pericoli Delle Reti Neurali Sottostimiamo? - Visualizzazione Alternativa
Quali Pericoli Delle Reti Neurali Sottostimiamo? - Visualizzazione Alternativa

Video: Quali Pericoli Delle Reti Neurali Sottostimiamo? - Visualizzazione Alternativa

Video: Quali Pericoli Delle Reti Neurali Sottostimiamo? - Visualizzazione Alternativa
Video: Intelligenza artificiale: le reti neurali. 2024, Potrebbe
Anonim

Hai mai incontrato una persona per strada che sarebbe uno a uno come te? Abiti, viso, andatura, modo di comunicare, abitudini sono completamente identici ai tuoi. È come essere scansionati e stampati su una stampante. Sembra un po 'inquietante, non è vero? Ora immagina di aver visto un video in cui una persona del genere racconta qualcosa di se stesso. Nella migliore delle ipotesi, proverai a ricordare quando hai camminato in modo tale da non ricordare nulla, ma potresti dirlo davanti alla telecamera. Anche se tutto questo suona come un semplice ragionamento, ma la tecnologia è già molto vicina alla creazione di queste persone. Esistono già, ma presto ce ne saranno molti altri.

Da dove viene il falso?

Ora ci sono già troppe cose che vengono comunemente chiamate falsi. Loro sono ovunque. Si trovano nelle fotografie, nelle notizie, nella produzione di beni e nei servizi di informazione. È più facile dire dove non ci sono fenomeni accompagnati da questa parola. Finché puoi combatterli. Puoi studiare l'origine della foto, verificare le caratteristiche distintive di un prodotto di marca da un falso e ricontrollare le notizie. Tuttavia, le notizie sono un argomento separato.

Al giorno d'oggi, un consumatore di contenuti non vuole aspettare e richiede una produzione istantanea dal suo creatore, a volte non si preoccupa nemmeno della qualità, l'importante è velocemente. È qui che si verificano situazioni in cui qualcuno ha detto qualcosa e gli altri, senza controllarlo, l'hanno tolto dai loro siti Web e giornali. In alcuni casi, ci vuole molto tempo per far tornare indietro la palla e dimostrare che era tutto sbagliato.

Non ha senso spiegare perché tutto questo è stato fatto. Da un lato c'è chi vuole solo ridere della situazione, dall'altro chi davvero non sapeva di aver sbagliato. Un posto separato, approssimativamente nel mezzo, è occupato da coloro per i quali è banale trarne profitto. Questi possono essere interessi di influenza a diversi livelli, compreso quello politico. A volte questo è lo scopo di realizzare un profitto. Ad esempio, seminare il panico nel mercato azionario e condurre transazioni redditizie con titoli. Ma spesso questo è dovuto all'ostilità verso una persona (azienda, prodotto, ecc.) Per sminuirla. Un semplice esempio è "cadere" nelle valutazioni di un film o di un'istituzione che non è desiderabile per qualcuno. Certo, questo richiede un esercito di coloro che andranno e non apprezzeranno (a volte anche i robot), ma questa è un'altra storia.

Cos'è il deep learning?

Video promozionale:

Di recente, questo termine suona sempre più spesso. A volte non è nemmeno legato al caso ed è confuso con qualcos'altro. Quindi il prodotto software sembra più impressionante.

Non pensare che il concetto ei principi di base dell'apprendimento automatico siano apparsi solo pochi anni fa. In effetti, hanno così tanti anni che molti di noi non erano nemmeno nati allora. I principi di base dei sistemi di apprendimento profondo e dei modelli matematici per il loro lavoro erano conosciuti negli anni '80 del secolo scorso.

A quel tempo, non avevano molto senso a causa della mancanza di una componente importante. Era un'elevata potenza di calcolo. Solo a metà degli anni 2000 sono comparsi sistemi che possono aiutare a lavorare in questa direzione e consentire di calcolare tutte le informazioni necessarie. Ora le macchine si sono evolute ancora di più e alcuni sistemi di visione artificiale, percezione vocale e altri funzionano in modo così efficiente che a volte superano persino le capacità di una persona. Tuttavia, non sono ancora "imprigionati" in direzioni responsabili, rendendoli un'aggiunta alle capacità umane pur mantenendo il controllo su di loro.

Image
Image

Cos'è Deepfake? Quando è apparso Deepfake?

È facile intuire che Deepfake è un piccolo gioco di parole associate al Deep Learning e agli stessi falsi di cui ho parlato sopra. Cioè, Deepfake dovrebbe portare il falso a un nuovo livello e scaricare una persona in questo difficile business, consentendo loro di creare contenuti falsi senza sprecare energia.

Prima di tutto, tali falsi riguardano il video. Cioè, chiunque può sedersi davanti alla telecamera, dire qualcosa e il suo viso sarà sostituito da un'altra persona. Sembra spaventoso, perché, in effetti, devi solo cogliere i movimenti di base di una persona e sarà semplicemente impossibile distinguere un falso. Vediamo come è iniziato tutto.

La prima rete generativa del contraddittorio è stata creata da uno studente della Stanford University. È successo nel 2014 e il nome dello studente era Ian Goodfellow. Infatti, ha messo l'una contro l'altra due reti neurali, una delle quali era impegnata nella generazione di volti umani, e la seconda le ha analizzate e ha parlato in modo simile o meno. Così si sono allenati a vicenda e un giorno la seconda rete neurale ha iniziato a confondersi e prendere le immagini generate per reali. È questo sistema sempre più complesso che dà vita a Deepfake.

Ora uno dei principali promotori dell'idea di Deepfake è Hao Li. Non fa solo questo, ma anche molti altri. Per questo, è stato più volte premiato con vari premi, compresi quelli non ufficiali. A proposito, è uno di quelli che dovrebbero essere ringraziati per la comparsa di animoji nell'iPhone X. Se interessati, puoi familiarizzare con esso in modo più dettagliato sul suo sito web. Oggi non è l'argomento principale di discussione.

Lo abbiamo ricordato solo perché al World Economic Forum di Davos ha mostrato la sua candidatura, che permetterà di sostituire il volto di una persona seduta davanti alla telecamera con un qualunque altro volto. In particolare, ha mostrato come funziona il sistema sull'esempio dei volti di Leonardo DiCaprio, Will Smith e altri personaggi famosi.

Sembra un po 'inquietante. Da un lato, puoi solo ammirare le moderne tecnologie che ti consentono di scansionare un volto, cambiarlo in un altro in movimento e produrre una nuova immagine. Tutto questo richiede una frazione di secondo e il sistema non rallenta nemmeno. Cioè, consente non solo di elaborare il video finito e sostituire il viso, ma anche di partecipare a un tale personaggio in una sorta di comunicazione video dal vivo.

Pericolo di Deepfake. Come si cambia il volto in un video?

Puoi parlare quanto vuoi del fatto che questa tecnologia è necessaria, è molto interessante e non devi calunniare. Puoi persino arrivare all'estremo e iniziare a dire che questa è la posizione di un feroce vecchio frocio che ha semplicemente paura di tutto ciò che è nuovo, ma ci sono davvero più pericoli che benefici.

Con tale tecnologia, soprattutto se open source, chiunque potrà navigare e registrare qualsiasi video. Non è male se diffama solo l'onore e la dignità di qualcuno, molto peggio se è una dichiarazione fatta a nome di una persona importante. Ad esempio, registrando un video di soli 30-40 secondi per conto di Tim Cook, puoi abbattere quasi l'intera sfera IT degli Stati Uniti, guidata da Apple. Il mercato azionario sarà colpito così duramente da seminare il panico tra gli investitori. Di conseguenza, migliaia di persone perderanno miliardi di dollari.

Chi non ama questo modo di guadagnare denaro dirà che questo è ciò di cui ha bisogno, lascialo andare allo stabilimento. Ma nello scenario più triste, non ci saranno piante dopo questo. Inoltre, è banale che otteniamo una persona che bara sulle fluttuazioni del valore dei titoli. Basta solo comprarli e venderli in tempo.

La situazione potrebbe essere anche peggiore se il "burlone" parlasse a nome del leader di un grande stato. Certo, allora tutto sarà rivelato, ma durante questo periodo puoi fare molte cose spiacevoli. In questo contesto, sostituire semplicemente il volto di una celebrità per un attore in un film per adulti sarebbe uno scherzo innocente.

Con tali tecnologie, la cosa principale è scansionare, quindi è una questione di tecnologia. Nel vero senso della parola
Con tali tecnologie, la cosa principale è scansionare, quindi è una questione di tecnologia. Nel vero senso della parola

Con tali tecnologie, la cosa principale è scansionare, quindi è una questione di tecnologia. Nel vero senso della parola.

Puoi immaginare la situazione opposta, quando una persona reale dice qualcosa e poi assicura a tutti che è stato incastrato. Anche come trovarsi in questa situazione non è molto chiaro. Ciò porterà una tale confusione nei feed di notizie che semplicemente non è possibile ricontrollarli in un'altra fonte. Di conseguenza, diventerà generalmente poco chiaro cosa è vero e cosa è falso in questo mondo. Un'immagine emerge da film su un futuro cupo, come Surrogates o Terminator, dove il T-1000 si presentava come altre persone e, tra le altre cose, chiamava John Conor per conto della sua madre adottiva.

Ora non sto nemmeno parlando di un altro abuso che consentirà la raccolta di prove false. In questo contesto, tutto il divertimento del giocattolo diventa troppo dubbio.

Come rilevare Deepfake?

Il problema non è nemmeno che tali sistemi dovrebbero essere banditi, ma che ciò non è più possibile. Ci sono già, e lo sviluppo delle tecnologie, compresa la lettura dei volti, ha portato alla loro comparsa e alla diffusione dell'open source. Anche se immaginiamo che il sistema nella sua forma attuale cesserà di esistere, dobbiamo capire che verrà creato di nuovo. Insegneranno ancora una volta alle reti neurali a lavorare l'una con l'altra e basta.

Fino a quando tutto è così spaventoso e puoi letteralmente identificare un falso ad occhio nudo. L'immagine è simile, ma piuttosto approssimativa. Inoltre, a volte ha alcuni problemi di fusione, specialmente intorno ai bordi del viso. Ma nulla si ferma e non è affatto difficile svilupparlo ancora di più. Lo stesso Hao Li è sicuro che questo non richiederà più di pochi mesi, e per creare “maschere” che nemmeno un computer può distinguere, sono necessari molti anni in più. Dopo di che non ci sarà più tornare indietro.

Da un lato, l'algoritmo che YouTube e Facebook stanno già creando può proteggerlo. A proposito, quest'ultimo ha persino aperto una competizione per lo sviluppo della tecnologia di riconoscimento - Deepfake Detection Challenge ("Il compito di rilevare i deepfakes"). Il montepremi per questo concorso è di $ 10 milioni. Il concorso è già in corso e terminerà a marzo 2020. Puoi ancora avere tempo per partecipare.

Sostituire un volto in un video non è più un problema
Sostituire un volto in un video non è più un problema

Sostituire un volto in un video non è più un problema.

Forse questa generosità è dovuta a un video falso con lo stesso Mark Zuckerberg. Se queste due cose sono correlate, l'emergere di una tale concorrenza non è sorprendente.

Se la faccia sostituita corrisponde completamente all'originale, la forza contraria rappresentata da una speciale rete neurale sarà impotente. In questo caso, dovrà rilevare differenze minime nelle espressioni facciali, nei movimenti e nel modo di parlare. Nel caso di personaggi famosi, tale problema verrà risolto a livello di servizio video, poiché lo stesso YouTube sa come si muove il convenzionale Donald Trump. Quando si tratta di una persona meno conosciuta, diventa più complicato. Tuttavia, questo può anche essere dimostrato posizionandolo davanti alla telecamera e conversando casualmente mentre la rete neurale analizza i suoi movimenti. Risulterà essere qualcosa come studiare un'impronta digitale, ma, come possiamo vedere, questo porterà di nuovo a difficoltà inutili.

Anche il cucito di sistemi di autenticazione video nelle telecamere può essere aggirato. È possibile fare in modo che la fotocamera contrassegni il video acquisito e chiarisca che non è stato filmato tramite un'applicazione separata o elaborato in un programma speciale. Ma per quanto riguarda i video che sono stati appena elaborati? Ad esempio, un'intervista modificata. Di conseguenza, otterremo un video in cui la chiave originale non sarà più.

Alcuni meme alla fine
Alcuni meme alla fine

Alcuni meme alla fine.

Possiamo dire che ora abbiamo abbozzato uno degli scenari di un futuro oscuro? In generale, sì. Se le tecnologie che sono state create per raggiungere buoni obiettivi sfuggono al controllo, possono essere sorseggiate con dolore. In realtà, ci sono molte opzioni per tali tecnologie pericolose, ma la maggior parte di esse sono protette. Ad esempio, la fusione nucleare. Qui abbiamo a che fare con codice che chiunque può ottenere.

Scrivi nei commenti come vedi la protezione contro la contraffazione, visto che il sistema di mascheratura è riuscito a realizzare maschere del tutto identiche ai volti originali. E poiché sono in video, non puoi nemmeno applicare loro il riconoscimento di profondità e volume. Inoltre, supponiamo che qualsiasi codice e chiave incorporati nell'immagine possano essere violati. Come si suol dire, sarebbe per cosa. Ora possiamo discutere, tutto l'introduzione è lì.

Artem Sutyagin

Raccomandato: