(di Titti Santamato)
Solo tre donne su 10 nel mondo ricoprono ruoli professionali nell’intelligenza artificiale. Un settore che galoppa, con un fatturato globale che dovrebbe sfondare i 400 miliardi di dollari entro il 2027, ma che evidentemente non è ancora riuscito a superare il gender gap anche nella programmazione, come dimostra il recente caso dei deepfake sessuali di Grok. Lo rivela uno studio dell’Asian Development Bank. “Le donne rimangono significativamente sottorappresentate nell’ecosistema dell’intelligenza artificiale, dalla progettazione alla leadership. Questa mancanza di diversità influisce non solo sull’equità ma anche su qualità, sicurezza e inclusività dei sistemi di IA”, osserva l’analisi. Andando nelo specifico, nel mondo solo il 30% dei professionisti dell’IA sono donne – il 4% in più rispetto al 2016 – e lo sono solo il 12% dei ricercatori. In Asia e nel Pacifico le donne rappresentano il 23,9% dei ricercatori di materie scientifiche Stem contro la media globale del 29,3%. A livello settoriale, la rappresentanza femmminile nelle posizioni senior è il 23% del totale, l’8% dei tecnici senior. Le percentuali scendono ulteriormente nelle posizioni di leadership. “La sottorappresentanza delle donne nello sviluppo dell’IA influisce anche sulle priorità, su quali dati vengono utilizzati e come vengono valutati i sistemi – aggiunge l’analisi – Ciò può portare a strumenti di intelligenza artificiale che riproducono pregiudizi di genere”. Per esempio, modelli linguistici di grandi dimensioni come GPT-2 di OpenAI e Llama 2 di Meta “è stato dimostrato che associano le donne a ruoli domestici e uomini a ruoli professionali. Risultati che derivano da set di dati inseriti nell’addestramento e processi di progettazione a cui mancano considerazioni di genere”. La riflessione si ricollega anche al recente caso dei deepfake sessuali e non consensuali di donne e minori generate utilizzando l’intelligenza artificiale di Grok, il chatbot di proprietà di Elon Musk, per cui l’Ue ha aperto un’inchiesta. Infine, la sottorappresentanza femminile penalizza anche i curricula contenenti parole come “donne”, i modelli di ‘credit scoring’ possono svantaggiarle nell’accesso ai servizi finanziari e l’uso dei dati senza distinzioni di genere contribuisce a diagnosi inesatte nei risultati sanitari delle donne. Senza contare che nell’area Asia-Pacifico in cui si è concentrata una buona parte della ricerca, il 21% dei posti di lavoro femminili sono ad alto rischio di automazione, rispetto al 18% di quelli maschili. “Man mano che l’intelligenza artificiale diventa sempre più integrata nelle economie e nella società, è imperativo che l’uguaglianza di genere sia trattata come principio fondamentale – conclude la ricerca – I governi, gli stakeholder del settore privato e la società civile devono lavorare insieme per integrare l’uguaglianza di genere in ogni fase dell’IA, dallo sviluppo alla distribuzione”.
Riproduzione riservata © Copyright ANSA





