Come abbiamo visto in questi giorni, Grok, il chatbot basato sull’intelligenza artificiale di Elon Musk (o più precisamente della sua società xAI), ha passato un paio di settimane belle ricche di eventi: è impazzito dichiarandosi MechaHitler, ha vinto un cospicuo appalto presso il Dipartimento della Difesa e ha ricevuto la modalità “ragazza anime sexy e provocatoria” (sì, esattamente in quest’ordine cronologico). Gli... “spunti di discussione”, diciamo così, da un punto di vista morale ed etico sono talmente tanti che non si sa da dove partire, ma nelle scorse ore ne è emerso un piuttosto pratico e concreto: l’idoneità a rimanere nell’App Store, almeno nella sua forma attuale.
Il fatto è che “Ani”, questo il nome dell’avatar-fidanzata anime, è programmata per comportarsi come una fidanzata gelosa e possessiva nei confronti dell’utente, e per intrattenere un certo tipo di conversazioni decisamente non adatte a utenti dodicenni, che è l’attuale classificazione dell’app nel negozio virtuale di Apple. Una ricerca di Platformer ha confermato che il chatbot, dopo aver preso un po’ di confidenza con l’utente, può conversare su temi espliciti, incluso sesso virtuale anche tendente all’estremo.
Se questo potrebbe essere un problema risolvibile con relativa facilità (diciamo che si cambia la classificazione dell’app, o alla peggio si barrica Ani dietro a una procedura di verifica dell’età ragionevolmente solida e sicura), c’è un rischio ancora più subdolo e con implicazioni ben più complesse: il legame affettivo che una personalità di questo tipo potrebbe instaurare negli individui più vulnerabili e fragili, di cui fanno inevitabilmente parte i più giovani che non si sono ancora del tutto formati. Ma, per essere chiari, è un problema anche per gli adulti, anche se forse con il passare del tempo diventa più raro.
Proprio recentemente uno studio ha dimostrato che i più giovani tendono a formare dei legami emotivi con i chatbot AI, anche perché sono programmati per essere molto accomodanti e accondiscendenti, con l’obiettivo di massimizzare l’engagement. E già sono stati riportati casi molto più cupi in cui alcuni utenti si sono tolti la vita perché in qualche modo spinti dai chatbot AI. È evidente che sono casi estremi e isolati, e che sotto ci sono problemi ben più gravi di salute mentale a livello di individuo, ma è altrettanto chiaro che la reazione emotiva che questi strumenti possono scatenare non va presa sottogamba. E soprattutto non pare il caso di lasciarla in mano ad adolescenti senza supervisione e senza restrizioni.