Sai Subito Che Questo è Porno. Il Computer Capirà? - Visualizzazione Alternativa

Sommario:

Sai Subito Che Questo è Porno. Il Computer Capirà? - Visualizzazione Alternativa
Sai Subito Che Questo è Porno. Il Computer Capirà? - Visualizzazione Alternativa

Video: Sai Subito Che Questo è Porno. Il Computer Capirà? - Visualizzazione Alternativa

Video: Sai Subito Che Questo è Porno. Il Computer Capirà? - Visualizzazione Alternativa
Video: 300€ Porno 4K Gaming PC 2024, Settembre
Anonim

All'inizio del mese scorso Tumblr ha annunciato che avrebbe vietato il porno. Quando la nuova politica sui contenuti è entrata in vigore, circa due settimane dopo, il 17 dicembre, è diventato evidente che ci sarebbero stati problemi. Dopo aver implementato un sistema di intelligenza artificiale che avrebbe dovuto vietare tutta la pornografia sul sito, ha erroneamente segnalato post innocenti in 455,4 milioni di blog sul sito tra 168,2 miliardi di post: vasi, streghe, pesci e tutto quel jazz.

Pornografia per l'intelligenza artificiale

Sebbene non sia chiaro quale filtro automatico Tumblr abbia utilizzato o creato da solo - la società non ha risposto alle richieste sull'argomento - è chiaro che il social network è bloccato tra la sua politica e la sua tecnologia. Ad esempio, la posizione incoerente del sito sulle "donne che mostrano i capezzoli" e sulla nudità artistica, ad esempio, ha portato a decisioni contestuali che dimostrano che persino Tumblr non sa cosa vietare sulla sua piattaforma. Come può un'azienda frequente determinare ciò che considera osceno?

In primo luogo, bloccare i contenuti rischiosi è difficile perché è difficile definire di cosa si tratta sin dall'inizio. La definizione di oscenità è una trappola per orsi che ha più di cento anni, nel 1896, gli Stati Uniti approvarono per la prima volta le leggi che regolano l'oscenità. Nel 1964, in Jacobellis v. Ohio, sulla possibilità che l'Ohio potesse vietare la proiezione di un film di Louis Malle, la Corte Suprema emise quella che è probabilmente la definizione più famosa di pornografia hardcore oggi: "Non cercherò di definire ulteriormente questo tipo di materiale oggi, che, a quanto ho capito sarà incluso nella descrizione letterale; e forse non sarò mai in grado di renderlo comprensibile ", ha detto il giudice Potter Stewart. "Ma so cos'è quando lo vedo, e il film associato a questo caso non lo è."

Gli algoritmi di apprendimento automatico hanno lo stesso problema. Questo è esattamente il problema che Brian Delorge, CEO di Picnix, una società che vende tecnologia di intelligenza artificiale specializzata, sta cercando di risolvere. Uno dei loro prodotti, Iris, è un'applicazione lato client per rilevare la pornografia per "aiutare le persone", come dice Delorge, "che non vogliono il porno nelle loro vite". Nota che il problema particolare con il porno è che può essere qualsiasi cosa, un mucchio di cose diverse - e le immagini che non sono pornografiche possono avere elementi simili. L'immagine della festa in spiaggia potrebbe essere bloccata non perché ha più pelle rispetto alla foto dell'ufficio, ma perché è sul bordo. "Questo è il motivo per cui è molto difficile addestrare un algoritmo di riconoscimento delle immagini a fare tutto in una volta", afferma DeLorge."Quando la definizione diventa difficile per gli esseri umani, anche il computer ha difficoltà". Se le persone non sono d'accordo su cosa sia il porno e cosa no, un computer può persino sperare di conoscere la differenza?

Per insegnare a un'intelligenza artificiale a rilevare il porno, la prima cosa che devi fare è dargli da mangiare. Molta pornografia. Dove lo posso prendere? Bene, la prima cosa che le persone fanno è scaricare un sacco di video da Pornhub, XVideos, dice Dan Shapiro, co-fondatore di Lemay.ai, una startup che crea filtri AI per i suoi clienti. "Questa è una di quelle aree grigie di natura legale - per esempio, se impari dai contenuti di altre persone, ti appartiene?"

Dopo che i programmatori hanno scaricato tonnellate di porno, ritagliano filmati non pornografici dal video per assicurarsi che il filmato che usano non blocchi i ragazzi che consegna la pizza. Le piattaforme pagano le persone, soprattutto al di fuori degli Stati Uniti, per taggare tali contenuti; il lavoro è poco pagato e noioso, come entrare in un captcha. Si siedono e notano: questo è porno, questo è questo. Devi filtrare un po ', perché tutto il porno esce con un'etichetta. L'apprendimento è migliore se non si utilizzano solo fotografie, ma campioni di dati di grandi dimensioni.

Video promozionale:

"Spesso, non devi solo filtrare il porno, ma piuttosto il materiale di accompagnamento", dice Shapiro. "Come profili falsi con la foto e il telefono di una ragazza." Si riferisce a prostitute in cerca di clienti, ma potrebbe essere qualcosa che non è del tutto legale. "Questo non è porno, ma questo è il genere di cose che non vuoi guardare sulla tua piattaforma, giusto?" Un buon moderatore automatizzato impara da milioni, se non decine di milioni, di contenuti di esempio, il che può farti risparmiare tonnellate di ore di lavoro.

"Puoi confrontarlo con la differenza tra un bambino e un adulto", afferma Matt Zeiler, CEO e fondatore di Clarifai, una startup di visione artificiale che esegue questo tipo di filtro delle immagini per i clienti aziendali. “Posso dirti con certezza - un paio di mesi fa abbiamo avuto un bambino. Non sanno niente del mondo, tutto è nuovo per loro ". Devi mostrare al bambino (l'algoritmo) molte cose in modo che capisca qualcosa. “Milioni e milioni di esempi. Ma da adulti, quando abbiamo creato così tanto contesto sul mondo e capito come funziona, possiamo imparare qualcosa di nuovo da solo un paio di esempi ". (Sì, insegnare a un'intelligenza artificiale a filtrare i contenuti per adulti è come mostrare a un bambino molto porno.) Aziende come Clarifai stanno crescendo rapidamente oggi. Hanno un buon database del mondo, possono distinguere i cani dai gatti, vestiti da nudi. L'azienda di Zeiler utilizza i suoi modelli per addestrare nuovi algoritmi per i suoi clienti: poiché il modello originale elaborava molti dati, le versioni personalizzate richiederebbero solo nuovi set di dati per funzionare.

Tuttavia, è difficile per l'algoritmo farlo correttamente. Funziona bene con i contenuti che sono ovviamente pornografici; ma un classificatore potrebbe contrassegnare erroneamente un annuncio di biancheria intima come vietato perché l'immagine ha più pelle di, ad esempio, un ufficio. (Con bikini e biancheria intima, secondo Zeiler, è molto difficile). Ciò significa che i professionisti del marketing dovrebbero concentrarsi su questi casi limite nel loro lavoro, dando la priorità ai modelli difficili da classificare.

Qual è la parte più difficile?

"Anime porno", dice Zeiler. "La prima versione del nostro rilevatore di nudità non utilizzava la pornografia dei cartoni animati per l'istruzione". Molte volte l'IA ha sbagliato perché non riconosceva l'hentai. "Dopo aver lavorato su questo per il cliente, abbiamo inserito molti dei suoi dati nel modello e migliorato in modo significativo l'accuratezza del filtro dei cartoni animati, pur mantenendo l'accuratezza delle fotografie reali", afferma Zeiler.

La tecnologia che è stata insegnata per fiutare il porno può essere utilizzata anche su altre cose. Le tecnologie alla base di questo sistema sono notevolmente flessibili. Questo è più che le tette degli anime. Jigsaw di Alphabet, ad esempio, è ampiamente utilizzato come moderatore automatico dei commenti in un giornale. Questo software funziona in modo simile ai classificatori di immagini, tranne per il fatto che ordina per tossicità piuttosto che per nudità. (La tossicità nei commenti testuali è difficile da determinare quanto la pornografia nelle immagini.) Facebook utilizza questo tipo di filtro automatico per rilevare messaggi suicidi e contenuti legati al terrorismo e ha provato a utilizzare questa tecnologia per rilevare notizie false sulla sua enorme piattaforma.

Tutto questo dipende ancora dalla supervisione umana; siamo più bravi a gestire l'ambiguità e il contesto ambiguo. Zeiler dice che non pensa che il suo prodotto abbia preso il lavoro di nessuno. Risolve il problema del ridimensionamento di Internet. Gli esseri umani continueranno ad addestrare l'IA ordinando ed etichettando i contenuti in modo che l'IA possa distinguerli.

Questo è il futuro della moderazione: soluzioni personalizzate e chiavi in mano fornite alle aziende che svolgono tutta la loro attività insegnando a classificatori sempre più avanzati più dati. Proprio come Stripe e Square offrono soluzioni di pagamento pronte all'uso per le aziende che non vogliono elaborarle da sole, startup come Clarifai, Picnix e Lemay.ai faranno la moderazione online.

Dan Shapiro di Lemay.ai è ottimista. “Come con qualsiasi tecnologia, è ancora in fase di invenzione. Quindi non credo che ci arrenderemo se falliremo ". Ma l'IA sarà mai in grado di operare in modo autonomo senza la supervisione umana? Non chiaro. "Non c'è nessun piccolo uomo in una tabacchiera che filtra ogni scatto", dice. "È necessario ottenere dati da qualsiasi luogo per addestrare l'algoritmo su di esso."

Zeiler, d'altra parte, crede che un giorno l'intelligenza artificiale modererà tutto da sola. Alla fine, il numero di interventi umani sarà ridotto a zero o poco sforzo. A poco a poco, gli sforzi umani si trasformeranno in qualcosa che l'IA non può fare ora, come il ragionamento di alto livello, la consapevolezza di sé, tutto ciò che gli umani hanno.

Riconoscere la pornografia fa parte di questo. L'identificazione è un compito relativamente banale per gli esseri umani, ma è molto più difficile addestrare un algoritmo a riconoscere le sfumature. Anche determinare la soglia quando un filtro contrassegna un'immagine come pornografica o non pornografica è un compito difficile, in parte matematico.

L'intelligenza artificiale è uno specchio imperfetto di come vediamo il mondo, proprio come la pornografia è un riflesso di ciò che accade tra le persone quando sono sole. C'è del vero in esso, ma non c'è un quadro completo.

Ilya Khel

Raccomandato: