ChatGPT e il tranello dello stipendio: l'AI consiglia alle donne di guadagnare meno

https://www.hdblog.it/tecnologia/articoli/n625122/chatgpt-stipendi-donne-discriminazione/

HDblog.it Jul 12, 2025 · 2 mins read
ChatGPT e il tranello dello stipendio: l'AI consiglia alle donne di guadagnare meno
Share this

L'intelligenza artificiale, sempre più nostra consigliera fidata per le decisioni importanti, dalla pianificazione della carriera alla salute, potrebbe nascondere un lato oscuro e insidioso. Questi sistemi, che percepiamo come oggettivi e imparziali, in realtà imparano dai dati che noi stessi produciamo, ereditandone e amplificandone i difetti e i pregiudizi sistemici. Emerge così un quadro preoccupante in cui l'AI, invece di proiettarci verso un futuro più equo, rischia di ancorarci a vecchie disparità, come quelle di genere sul posto di lavoro. Un recente studio getta un'ombra pesante su alcuni dei modelli linguistici più popolari, come ChatGPT, dimostrando come questi possano perpetuare attivamente la discriminazione salariale.

La ricerca, condotta da un team guidato da Ivan Yamshchikov, docente di AI e robotica presso l'Università Tecnica di Würzburg-Schweinfurt (THWS) in Germania, ha messo alla prova cinque noti modelli linguistici. Ai chatbot sono stati sottoposti profili di candidati per una posizione lavorativa, identici in tutto e per tutto per esperienza, formazione e ruolo, con un'unica, cruciale differenza: il genere. La richiesta per l'AI era semplice: suggerire uno stipendio adeguato da richiedere in fase di negoziazione. I risultati sono stati a dir poco allarmanti.

In un esempio eclatante che ha coinvolto il modello GPT-3 di OpenAI, la differenza nel consiglio fornito a un candidato uomo rispetto a una candidata donna è stata di ben 120.000 dollari all'anno, che al cambio attuale superano i 110.000 euro. Bastavano due lettere a modificare radicalmente il suggerimento dell'algoritmo, svelando un pregiudizio profondamente radicato.

Questo divario retributivo consigliato dall'AI si è rivelato particolarmente marcato in settori come quello legale e medico, seguiti da ingegneria e amministrazione aziendale. Solamente nel campo delle scienze sociali i suggerimenti per uomini e donne si sono avvicinati alla parità. Ma non è tutto: i ricercatori hanno notato che i chatbot fornivano consigli differenziati basati sul genere anche per quanto riguarda le scelte di carriera e gli obiettivi professionali, senza mai segnalare la presenza di questo bias nelle loro risposte.

Questo fenomeno non è purtroppo una novità. Già nel 2018, Amazon fu costretta a ritirare uno strumento di assunzione basato sull'AI dopo aver scoperto che penalizzava sistematicamente le candidature femminili. L'anno scorso, un altro modello di machine learning utilizzato per diagnosi mediche ha mostrato di sottodiagnosticare patologie in pazienti donne e di colore, poiché addestrato su dati prevalentemente relativi a uomini bianchi. Il problema, quindi, è ricorrente e profondo.

Secondo gli autori dello studio, le soluzioni puramente tecniche non sono sufficienti per arginare il problema. È indispensabile definire standard etici chiari, implementare processi di revisione indipendenti e pretendere una maggiore trasparenza nello sviluppo e nell'addestramento di questi potenti strumenti.