L'intelligenza Artificiale è Stata Insegnata A Ingannare Altre Intelligenze Artificiali - Visualizzazione Alternativa

L'intelligenza Artificiale è Stata Insegnata A Ingannare Altre Intelligenze Artificiali - Visualizzazione Alternativa
L'intelligenza Artificiale è Stata Insegnata A Ingannare Altre Intelligenze Artificiali - Visualizzazione Alternativa

Video: L'intelligenza Artificiale è Stata Insegnata A Ingannare Altre Intelligenze Artificiali - Visualizzazione Alternativa

Video: L'intelligenza Artificiale è Stata Insegnata A Ingannare Altre Intelligenze Artificiali - Visualizzazione Alternativa
Video: Intelligenza Artificiale. Cina, debuttano in TV due giornalisti virtuali 2024, Aprile
Anonim

I ricercatori del Massachusetts Institute of Technology (MIT) hanno sviluppato una tecnica per ingannare l'intelligenza artificiale (AI) che analizza il testo, ha riferito Wired il 23 febbraio.

I ricercatori hanno notato che un leggero cambiamento in una frase, comprensibile a una persona, può ingannare l'IA. Hanno sviluppato un algoritmo per sostituire le parole con sinonimi e ingannare il testo di riconoscimento dell'IA. La sfumatura è che l'algoritmo di attacco stesso utilizza l'intelligenza artificiale per selezionare i sinonimi.

Ad esempio, la frase "I personaggi, proiettati in situazioni impossibilmente artificiose, sono totalmente estranei alla realtà". ("I personaggi interpretati in situazioni incredibilmente artificiose sono completamente fuori contatto con la realtà"), che è una recensione negativa del film.

Se sostituiamo le parole in esso con sinonimi, quindi la frase "I personaggi, scelti in circostanze impossibilmente ingegnerizzate, sono completamente estranei alla realtà" ("I personaggi interpretati in circostanze incredibilmente abili sono completamente separati dalla realtà"), l'IA considera la recensione positiva.

Anche altri tipi di sistemi di IA possono essere ingannati; in questo caso, le vulnerabilità sono state dimostrate principalmente nei sistemi di riconoscimento delle immagini e del parlato.

I ricercatori hanno notato che tali sottili distorsioni dei dati possono ingannare l'IA ed essere utilizzate per attaccare i sistemi, il che diventa significativo man mano che l'IA si diffonde nei settori della finanza, della sanità e altri.

Raccomandato: