A Caccia Di Negatività. Ci Si Affiderà All'intelligenza Artificiale Per Controllare I Social Network - Visualizzazione Alternativa

A Caccia Di Negatività. Ci Si Affiderà All'intelligenza Artificiale Per Controllare I Social Network - Visualizzazione Alternativa
A Caccia Di Negatività. Ci Si Affiderà All'intelligenza Artificiale Per Controllare I Social Network - Visualizzazione Alternativa

Video: A Caccia Di Negatività. Ci Si Affiderà All'intelligenza Artificiale Per Controllare I Social Network - Visualizzazione Alternativa

Video: A Caccia Di Negatività. Ci Si Affiderà All'intelligenza Artificiale Per Controllare I Social Network - Visualizzazione Alternativa
Video: Intelligenza artificiale e social network - Codice, La vita è digitale 04/08/2017 2024, Ottobre
Anonim

Se non vivi sui social media, molto probabilmente non vivi affatto. La metà della popolazione mondiale può darti una diagnosi così deludente. In ogni caso, secondo le statistiche, oggi sono registrati nei social network. In Russia, il numero di networker è di circa 30 milioni.

Sono già stati scritti volumi da psicologi sulla dipendenza dalla rete, che viene paragonata a una droga. E l'autore del termine "realtà virtuale", uno dei suoi creatori, un rappresentante dell'élite cyber della Silicon Valley, Jaron Lanier, ha persino scritto un libro sul motivo per cui è necessario fuggire dal social network. Sebbene sia diventato un bestseller, è improbabile che queste chiamate convincano vaste masse di utenti. Oggi la popolazione dei social network sta crescendo rapidamente. Secondo gli esperti, entro la metà del secolo intrappoleranno quasi l'intera popolazione del pianeta. A meno che, ovviamente, l'umanità non cambi idea.

E c'è qualcosa a cui pensare. Nelle reti oggi ci sono club per gli interessi non solo di filatelisti e frequentatori di teatro, ma suicidi e tossicodipendenti, qui puoi trovare istruzioni per terroristi alle prime armi, compagni nella lotta contro l'attuale governo e molto altro, francamente parlando, negativo. Ad esempio, puoi pensare all'ondata di suicidi, quando c'è stato un boom in un popolare gioco online, il cui obiettivo finale è il suicidio. Gli utenti dei social network (in maggioranza adolescenti) vengono contattati da un "curatore" che utilizza account falsi, non possono essere identificati. In primo luogo, spiegano le regole: "non dire a nessuno di questo gioco", "completa sempre i compiti, qualunque essi siano", "per il mancato completamento del compito sei escluso per sempre dal gioco e dovrai affrontare cattive conseguenze".

E i politici parlano già del fenomeno delle reti: rovesciano i governi e addirittura eleggono i presidenti. Le tecniche sono sorprendentemente semplici. In rete vengono lanciati falsi su alcune azioni oltraggiose delle autorità e si fa appello a scendere in piazza per esprimere indignazione. Sono molti gli esempi conosciuti, ad esempio, in Egitto, Sud Sudan, Myanmar.

Come proteggere la società dall'influenza distruttiva dei social network? Ciò è particolarmente vero per la generazione più giovane, che costituisce la stragrande maggioranza delle reti.

In linea di principio, per gli specialisti, in particolare gli psicologi, questo non è un problema. Ma i volumi delle informazioni più disparate, comprese quelle negative, nelle reti sono enormi, anche i migliori professionisti non possono far fronte alla sua elaborazione "manuale". Solo la tecnologia può farlo. E soprattutto, intelligenza artificiale (AI), costruita sulla base di reti neurali che imitano la struttura e il funzionamento del cervello. Un team di psicologi della prima università medica statale di San Pietroburgo intitolata a I. I. Pavlov e specialisti nel campo della tecnologia dell'informazione dell'Istituto di informatica e automazione di San Pietroburgo dell'Accademia delle scienze russa.

"Stiamo parlando di identificare con l'aiuto dell'intelligenza artificiale diversi gruppi di persone inclini a comportamenti distruttivi", ha detto al corrispondente RG il professor Igor Kotenko, a capo di questo gruppo di scienziati. - Gli psicologi ci hanno offerto sette opzioni per tale comportamento, in particolare, questo è un atteggiamento negativo nei confronti della vita, che può portare al suicidio, questa è una tendenza all'aggressione o alle proteste, queste sono minacce contro una persona o un gruppo di persone specifico, ecc. Il nostro compito è creare un'intelligenza artificiale che possa lavorare con questi segni, in senso figurato, "martellarli" nell'intelligenza artificiale, in modo che possa analizzare costantemente le enormi informazioni che percorrono la rete e cogliere varie opzioni di disturbo.

A prima vista, il compito non è molto difficile. Dopotutto, ogni residente del social network, come si suol dire, è in bella vista. Nella sua pagina puoi vedere cosa gli interessa, cosa pensa, con chi comunica, quali azioni compie e cosa chiama gli altri. Tutto è a colpo d'occhio. Guarda e agisci. Ma se tutto fosse così ovvio … Il fatto è che i pensieri e il comportamento di una persona nella maggior parte dei casi sono tutt'altro che così semplici e inequivocabili come potrebbe sembrare. In generale, il diavolo è nei dettagli. E dove tutto è ovvio per uno specialista, l'intelligenza artificiale potrebbe essere sbagliata. Ad esempio, scienziati canadesi hanno insegnato all'intelligenza artificiale a distinguere tra battute volgari o "incitamento all'odio" da quelle semplicemente offensive. Il sistema si è rivelato piuttosto imperfetto, ad esempio, ha omesso molte dichiarazioni ovviamente razziste.

Video promozionale:

In breve, tutto dipende da come viene insegnata l'IA. E il sistema impara tramite esempi proprio come impara un bambino. Dopotutto, non gli spiegano che un gatto ha questi baffi, tali orecchie, una tale coda. Gli mostrano un animale molte volte e dicono che è un gatto. E poi lui stesso ripete questa lezione molte volte, guardando un altro gatto.

Le reti neurali create dagli scienziati di San Pietroburgo studieranno allo stesso modo. Saranno presentate varie opzioni per il comportamento distruttivo delle persone. Tenendo nella sua "mente" i segni elaborati dagli psicologi, l'AI li memorizzerà per poi coglierli negli enormi flussi di informazioni sui social network. Il professor Kotenko sottolinea che il compito dell'IA è quello di dare solo un suggerimento per il distruttivo, e l'ultima parola è per gli specialisti. Solo loro potranno dire se la situazione è davvero allarmante e se è necessario agire con urgenza o se l'allarme è falso.

Il progetto è stato sostenuto dalla Fondazione russa per la ricerca di base.

Yuri Medvedev

Raccomandato: