Di Souad Sbai
Negli ultimi anni, l’intelligenza artificiale (IA) ha rivoluzionato numerosi settori, dalla sanità alla finanza, dall’istruzione al settore pubblico e privato. Tuttavia, questa rivoluzione digitale comporta anche importanti sfide, in particolare per quanto riguarda l’uguaglianza di genere e la tutela dei diritti di tutte le persone, specialmente di coloro che non rientrano negli schemi sociali tradizionali. La domanda fondamentale è: l’ intelligenza artificiale, così com’è oggi sviluppata e implementata, può essere uno strumento di progresso inclusivo o rischia di perpetuare e amplificare le disuguaglianze?
Un problema crescente riguarda l’uso dell’intelligenza artificiale nel processo di selezione del personale. Sempre più aziende ricorrono a sistemi automatizzati per valutare i candidati, ma se questi strumenti non sono regolamentati e adeguatamente supervisionati, rischiano di discriminare le donne, le persone over 40 e chi non è costantemente presente sui social network. I dati con cui vengono “allenate” le intelligenze artificiali sono spesso parziali, distorti e privi di rappresentanza femminile, generazionale e socio-culturale. Il risultato? Sistemi che replicano stereotipi e disuguaglianze, rafforzando le barriere che impediscono a molte persone di accedere a opportunità di lavoro e crescita professionale.
In Italia, le donne rappresentano circa il 29% dei professionisti in tutti i settori e sono spesso relegate a ruoli di supporto o di livello inferiore, con poche possibilità di avanzamento. La crescente automazione delle selezioni, basata su algoritmi, rischia di consolidare questa disparità, rendendo più difficile per le donne e altri gruppi socialmente svantaggiati accedere a posizioni di rilievo. Inoltre, le persone che non sono socialmente integrate o che appartengono a minoranze etniche e di genere si trovano spesso in svantaggio, poiché le intelligenze artificiali , addestrate su dati non rappresentativi o distorti, tendono a generare risultati discriminatori.
Questa situazione non può essere ignorata. È fondamentale intervenire a livello giuridico e regolamentare per garantire che l’uso dell’intelligenza artificiale nel mercato del lavoro sia etico, trasparente e “inclusivo”. A tal fine, si rende urgente l’istituzione di normative che impongano alle aziende e agli sviluppatori di verificare e correggere i pregiudizi presenti nei sistemi di intelligenza artificiale, assicurando che i dati di addestramento siano rappresentativi e privi di stereotipi discriminatori. Inoltre, devono essere adottati meccanismi di verifica periodica e monitoraggi continui per assicurare che gli algoritmi siano equi e responsabili.
Serve una vigilanza speciale a tutti i livelli. Questo non rappresenta progresso, bensì una nuova forma di discriminazione. Le tecnologie digitali dovrebbero essere strumenti di opportunità per tutti, e invece stanno diventando strumenti di esclusione. Non possiamo restare in silenzio. Ho sempre rigettato l’idea delle quote rosa, convinta che si potesse raggiungere una parità reale attraverso il merito e il confronto. Ma oggi la situazione è profondamente cambiata e si rivela preoccupante. Per questo, chiederemo l’istituzione di una commissione speciale di vigilanza che abbia il compito di monitorare lo sviluppo, l’uso e le implicazioni delle tecnologie dell’intelligenza artificiale in Italia, con particolare attenzione all’equità, alla trasparenza e all’inclusività. Ora più che mai, è urgente introdurre quote rosa e di rappresentanza generazionale in tutti i livelli decisionali legati all’innovazione: enti pubblici, aziende tecnologiche, comitati etici, centri di ricerca.
Per affrontare efficacemente queste sfide, è necessario sviluppare un quadro normativo chiaro e robusto, che promuova la trasparenza e l’etica nello sviluppo tecnologico.
Non possiamo permetterci di restare in silenzio di fronte a una tecnologia che, se non regolamentata, rischia di perpetuare le disuguaglianze di genere e sociali. È giunto il momento di adottare misure concrete, e noi vigileremo affinché ciò avvenga realmente.
