Robot Pepper acquista la parola grazie a ChatGPT

https://www.hdblog.it/tecnologia/articoli/n621185/robot-pepper-chatgpt-interazione-pubblica/

HDblog.it Jun 09, 2025 · 2 mins read
Robot Pepper acquista la parola grazie a ChatGPT
Share this

L’intelligenza artificiale inizia a muoversi tra la gente, letteralmente. L'unione tra AI e robotica è sempre stato uno edei principali obiettivi delle principali realtà impegnate, e a quanto pare si sta concretzzando in tempi rapidi. A Canberra, durante un festival dedicato all’innovazione, il pubblico ha potuto interagire con “Pepper”, un robot umanoide aggiornato con ChatGPT, per testare la reazione delle persone davanti a una tecnologia che parla, ascolta e si muove come un essere umano.

Pepper, sviluppato originariamente da SoftBank Robotics (oggi Aldebaran), è stato integrato con un sistema che gli consente di ascoltare una voce umana, trascrivere ciò che sente, inviare il testo a ChatGPT per ottenere una risposta e poi pronunciare la risposta stessa grazie a un sintetizzatore vocale incorporato. Il risultato? Conversazioni naturali, almeno nelle intenzioni, in un contesto pubblico e reale.

Il progetto è stato guidato da un team della University of Canberra con un obiettivo preciso: osservare le reazioni autentiche del pubblico, fuori da laboratori controllati, dove tutto è più prevedibile. In questo modo, hanno voluto capire come la gente comune percepisce un robot “parlante” dotato di AI e come queste tecnologie possano essere accolte nella vita quotidiana.

Durante l’evento, 88 partecipanti hanno interagito con Pepper. Alcuni erano affascinati, altri incuriositi, altri ancora infastiditi o delusi. I ricercatori hanno individuato quattro aree tematiche ricorrenti nei commenti raccolti: proposte per miglioramenti futuri, aspettative di comportamento umano, reazioni emotive e impressioni sull’aspetto fisico del robot.

Molti si aspettavano un’interazione più fluida e simile a quella tra esseri umani. Alcuni si sono divertiti a osservare le movenze del robot, i suoi gesti e lo sguardo che cercava di simulare il contatto visivo. Ma non sono mancate le critiche: tempi di risposta troppo lunghi, incapacità di capire segnali non verbali, come il linguaggio del corpo o le espressioni facciali, e un dialogo spesso troppo meccanico o prolisso.

Un tema particolarmente sentito è stato quello dell’inclusività. Alcuni utenti, in particolare quelli appartenenti a minoranze linguistiche, hanno segnalato difficoltà nell’intendersi con Pepper. Sono emerse anche questioni legate alla sensibilità culturale e all’accessibilità, soprattutto per utenti con accenti o pronunce meno “standard”.

Il valore di questo esperimento non risiede solo nella performance tecnica, ma nell’opportunità di comprendere cosa si aspettano davvero le persone da un robot che parla. I suggerimenti raccolti, che spaziano dalla necessità di maggiore naturalezza nel dialogo alla capacità di rispettare le pause e i turni di parola, rappresentano indicazioni utili per lo sviluppo futuro di questi strumenti.

La conclusione è che non basta che una macchina sappia parlare: deve anche sapere quando tacere, capire come e con chi sta parlando e adattarsi a contesti culturali diversi. Forse le cose migliorerano quando le modalità vocali avanzate potranno essere integrate in tempo reale, ma vista la velocità con cui si svolvono le cose non dovrebbe mancare poi molto.

I dettagli completi dello studio sono stati pubblicati sulla rivista Nature, a conferma dell’interesse scientifico verso questo tipo di esperienze sul campo.