L’intelligenza artificiale generativa è ormai in grado di simulare perfettamente le risposte degli esseri umani: un’abilità che rischia di ‘inquinare’ i risultati dei sondaggi online usati dalla ricerca sociale ma anche dalla politica. A mettere in guardia sono i ricercatori Folco Panizza della Scuola Imt di Lucca, Yara Kyrychenko e Jon Roozenbeek, che su Nature indagano il fenomeno proponendo contromisure.
“Gli studi analizzati nel commento dal titolo ‘Gli strumenti di intelligenza artificiale per la compilazione di sondaggi superano le capacità umane’ – spiega una nota dell’Imt – suggeriscono che oggi tra il 30 e il 90% delle risposte ai sondaggi online può essere falso o fraudolento. E un 3-7 % di risposte fraudolente è sufficiente a invalidare le conclusioni statistiche di un sondaggio. Ad aggravare la situazione sono arrivati i sistemi di risposta basati sull’IA, che oggi sono in grado di generare risposte fluide, coerenti e sensibili al contesto, spesso superando le capacità di scrittura degli esseri umani”. “Il punto è – osserva Panizza – che gli strumenti di riconoscimento dell’intelligenza artificiale utilizzati finora per distinguere gli esseri umani dai bot non sono più efficaci.
Oggi, quando analizziamo le risposte di un sondaggio, non siamo più in grado di stabilire se chi ha risposto sia una persona o meno e, di conseguenza, tutti i dati raccolti sono potenzialmente contaminati”. Per provare a risolvere il problema gli autori propongono un cambiamento di strategia su più fronti. Una prima soluzione consiste nell’analizzare i modelli di risposta e i metadati comportamentali come la velocità di digitazione della risposta, i tasti premuti e il comportamento di copia e incolla. “Paradossalmente – si aggiunge – il metodo più efficace potrebbe essere quello di costringere le macchine a fallire”.
“Le macchine sono molto meno brave a commettere gli errori tipici degli esseri umani. Se un agente di IA risponde troppo bene, questo stesso fatto può diventare un segnale”, fa notare Panizza. Gli autori concludono che i ricercatori, le piattaforme di sondaggi e i loro finanziatori dovrebbero prendere precauzioni mirate per salvaguardare l’integrità dei dati, man mano che le capacità dell’intelligenza artificiale continuano ad avanzare. Un lavoro di continuo adattamento divenuto imprescindibile.
Riproduzione riservata © Copyright ANSA





