Perché Gli Scienziati Non Dovrebbero Fare Affidamento Sull'intelligenza Artificiale Per La Scoperta Scientifica - Visualizzazione Alternativa

Perché Gli Scienziati Non Dovrebbero Fare Affidamento Sull'intelligenza Artificiale Per La Scoperta Scientifica - Visualizzazione Alternativa
Perché Gli Scienziati Non Dovrebbero Fare Affidamento Sull'intelligenza Artificiale Per La Scoperta Scientifica - Visualizzazione Alternativa

Video: Perché Gli Scienziati Non Dovrebbero Fare Affidamento Sull'intelligenza Artificiale Per La Scoperta Scientifica - Visualizzazione Alternativa

Video: Perché Gli Scienziati Non Dovrebbero Fare Affidamento Sull'intelligenza Artificiale Per La Scoperta Scientifica - Visualizzazione Alternativa
Video: Intelligenza Artificiale: tra mito e realtà | Luisella Giani | TEDxBolognaSalon 2024, Potrebbe
Anonim

Viviamo in un'età dell'oro dei dati scientifici, circondati da vaste riserve di informazioni genetiche, immagini mediche e dati astronomici. Le attuali capacità degli algoritmi di apprendimento automatico consentono all'intelligenza artificiale di studiare questi dati con la stessa rapidità e allo stesso tempo con molta attenzione, aprendo spesso la porta a potenziali nuove scoperte scientifiche. Tuttavia, non dovremmo fidarci ciecamente dei risultati della ricerca scientifica condotta dall'IA, afferma il ricercatore della Rice University Genever Allen. Almeno non al livello attuale di sviluppo di questa tecnologia. Secondo lo scienziato, il problema sta nel fatto che i moderni sistemi di IA non hanno la capacità di valutare criticamente i risultati del proprio lavoro.

Secondo Allen, i sistemi di intelligenza artificiale che utilizzano metodi di apprendimento automatico, cioè quando l'apprendimento avviene nel processo di applicazione di soluzioni a molti problemi simili, e non semplicemente introducendo e seguendo nuove regole e regolamenti, possono essere considerati affidabili per prendere alcune decisioni. Più precisamente, è del tutto possibile assegnare compiti all'IA nella risoluzione di problemi in quelle aree in cui il risultato finale può essere facilmente verificato e analizzato dalla persona stessa. Ad esempio, possiamo prendere, ad esempio, il conteggio del numero di crateri sulla luna o la previsione delle scosse di assestamento dopo un terremoto.

Tuttavia, l'accuratezza e l'efficienza di algoritmi più complessi che vengono utilizzati per analizzare quantità molto grandi di dati per trovare e determinare fattori o relazioni precedentemente sconosciuti tra le diverse funzioni "sono molto più difficili da verificare", osserva Allen. Pertanto, l'impossibilità di verificare i dati corrispondenti a tali algoritmi può portare a conclusioni scientifiche errate.

Prendiamo, ad esempio, la medicina di precisione, in cui gli specialisti analizzano i metadati dei pazienti per trovare gruppi specifici di persone con caratteristiche genetiche simili per sviluppare trattamenti efficaci. Alcuni programmi di intelligenza artificiale progettati per vagliare i dati genetici sono effettivamente efficaci nell'identificare gruppi di pazienti con predisposizioni simili, come lo sviluppo del cancro al seno. Tuttavia, risultano essere completamente inefficaci nell'identificare altri tipi di cancro, ad esempio il colon-retto. Ogni algoritmo analizza i dati in modo diverso, quindi quando si combinano i risultati, spesso può esserci un conflitto nella classificazione del campione del paziente. Questo a sua volta fa sì che gli scienziati si chiedano su quale intelligenza artificiale fidarsi.

Queste contraddizioni nascono dal fatto che gli algoritmi per l'analisi dei dati sono progettati in modo tale da obbedire alle istruzioni contenute in questi algoritmi, che non lasciano spazio a indecisioni, incertezze, spiega Allen.

Agli scienziati non piace l'incertezza. Tuttavia, i metodi tradizionali per determinare le incertezze di misura sono progettati per quei casi in cui è necessario analizzare i dati che sono stati appositamente selezionati per valutare una particolare ipotesi. Non è così che funzionano i programmi di intelligenza artificiale per il data mining. Questi programmi non sono guidati da alcuna idea guida e analizzano semplicemente i set di dati raccolti senza uno scopo specifico particolare. Pertanto, molti ricercatori di intelligenza artificiale, inclusa la stessa Allen, stanno ora sviluppando nuovi protocolli che consentiranno ai sistemi di intelligenza artificiale di prossima generazione di valutare l'accuratezza e la riproducibilità delle loro scoperte.

Video promozionale:

Il ricercatore spiega che uno dei nuovi metodi di mining sarà basato sul concetto di ricampionamento. Ad esempio, se un sistema di intelligenza artificiale dovrebbe fare una scoperta importante, ad esempio, identifica gruppi di pazienti che sono clinicamente importanti per la ricerca, allora questa scoperta dovrebbe essere visualizzata in altri database. È molto costoso per gli scienziati creare set di dati nuovi e più grandi per convalidare il campionamento dell'IA. Pertanto, secondo Allan, può essere utilizzato un approccio in cui "verrà utilizzato un insieme di dati esistente, le informazioni in cui verranno mescolate casualmente in modo tale da simulare un database completamente nuovo". E se più e più volte l'AI può determinare i tratti caratteristici che consentono di effettuare la necessaria classificazione, “allora sarà possibile considerareche hai una vera scoperta nelle tue mani ", aggiunge Allan.

Nikolay Khizhnyak

Raccomandato: