top of page

L'AI è maschio?




Oggi 11 febbraio è la Giornata Internazionale delle Donne e delle Ragazze nella Scienza, istituita dall'ONU nel 2015 per promuovere l'accesso paritario delle donne alle carriere scientifiche e tecnologiche.

L'obiettivo è sensibilizzare sull'importanza della partecipazione femminile nelle discipline STEM (Scienza, Tecnologia, Ingegneria e Matematica), combattere stereotipi di genere e garantire pari opportunità nel mondo della ricerca e dell'innovazione.

Un tema particolarmente attuale riguarda proprio il ruolo delle donne nell’intelligenza artificiale, settore strategico ma ancora dominato da una prospettiva prevalentemente maschile. L’intelligenza artificiale è oggi una delle forze trasformative più potenti del nostro tempo, influenzando economia, giustizia, sanità, sicurezza e cultura. Tuttavia, la costruzione di questa tecnologia è ancora fortemente segnata da un problema strutturale: l’esclusione delle donne dai processi decisionali e di sviluppo.

Oggi, le donne rappresentano solo il 22% della forza lavoro globale nell'IA e meno del 12% dei ricercatori in machine learning. Questa disparità non è un semplice problema di rappresentanza: ha conseguenze dirette sulla qualità e l’imparzialità dei sistemi di intelligenza artificiale che vengono sviluppati.

IA e bias: un problema di chi scrive il codice

Gli algoritmi non sono neutrali. Sono plasmati dai dati con cui vengono addestrati e dalle persone che li programmano. Se il team di sviluppo è prevalentemente maschile e opera all'interno di una cultura tecnologica che tende a minimizzare le differenze di genere, il rischio è che l’IA riproduca e amplifichi stereotipi esistenti.

Esempi concreti non mancano: sistemi di riconoscimento facciale meno accurati per le donne e per le persone non bianche, modelli di reclutamento che discriminano le candidate perché addestrati su dataset storicamente sbilanciati verso gli uomini, assistenti vocali con voci femminili programmate per essere accondiscendenti.

Il paradosso delle donne nell’IA

Nonostante questi problemi siano ben documentati, la partecipazione femminile nel settore dell’intelligenza artificiale rimane bassa. Le ragioni sono molteplici:

  • Stereotipi culturali che scoraggiano le ragazze dall’intraprendere percorsi STEM (scienza, tecnologia, ingegneria e matematica).

  • Mancanza di modelli di riferimento, con poche donne in posizioni apicali nelle aziende tech.

  • Bias nei processi di selezione che penalizzano le candidate, rafforzando il ciclo di esclusione.

Verso un’IA più equa e rappresentativa

Affrontare il gender gap nell’IA non è solo una questione di giustizia sociale, ma di efficienza e qualità tecnologica. Per correggere questi squilibri, servono strategie mirate:

  • Politiche di inclusione nei percorsi formativi, che incentivino le studentesse a intraprendere carriere legate all’IA.

  • Modelli di leadership femminile nel settore tech, per creare punti di riferimento concreti.

  • Un ripensamento etico dello sviluppo dell’IA, che ponga al centro la diversità dei team di progettazione come garanzia di equità nei risultati.

Una tecnologia senza genere?

Il problema non è tanto “se” l’IA sia maschio, ma piuttosto “chi” sta definendo i criteri con cui essa viene costruita. Finché il settore rimarrà dominato da un unico punto di vista, il rischio è che le tecnologie future perpetuino e rafforzino disparità esistenti. Per costruire un’IA veramente inclusiva, è essenziale che le donne non siano solo utenti, ma protagoniste attive della sua evoluzione. Un esempio concreto di intelligenza artificiale "maschile" è rappresentato dagli assistenti vocali, come Siri, Alexa e Google Assistant. La scelta di utilizzare voci femminili per questi sistemi non è casuale: risponde a uno stereotipo culturale radicato che associa le donne a ruoli di assistenza e servizio.

Tuttavia, il problema non è solo estetico. Questi assistenti sono stati programmati per rispondere con toni accondiscendenti, spesso senza opporsi a insulti o richieste inappropriate. Uno studio dell'UNESCO (I'd Blush If I Could, 2019) ha evidenziato che in passato Siri rispondeva con frasi come "I’d blush if I could" ("Arrossirei se potessi") a commenti sessisti, un atteggiamento che implicitamente rafforzava una dinamica di sottomissione femminile.

Se guardiamo al mondo delle applicazioni pratiche, anche i sistemi di recruitment basati su AI hanno mostrato un evidente bias di genere. Il caso più noto è quello dell’algoritmo di selezione del personale di Amazon, che scartava sistematicamente i CV femminili per posizioni tecniche perché addestrato su dati storici che privilegiavano candidati uomini.

Questi esempi dimostrano che, se non progettata con attenzione alla diversità, l’IA tende a riprodurre e amplificare pregiudizi esistenti, modellando una realtà digitale che penalizza le donne.

RUO continua a monitorare da vicino questi sviluppi, contribuendo al dibattito scientifico e alle strategie per un’intelligenza artificiale che sia davvero al servizio di tutti.

 
 
 

Comments


bottom of page