Google DeepMind ha annunciato un passo importante nella robotica: i nuovi modelli Gemini Robotics 1.5 permettono ai robot non solo di svolgere compiti complessi, ma anche di cercare informazioni sul web per portare a termine le azioni nel mondo reale. La novità è stata presentata da Carolina Parada, responsabile della divisione di robotica di DeepMind, che ha spiegato come queste AI siano in grado di pianificare diversi passaggi prima di agire, avvicinandosi a un vero ragionamento applicato alle attività quotidiane.
Alla base del sistema ci sono due modelli aggiornati: Gemini Robotics 1.5 e Gemini Robotics-ER 1.5. Quest’ultimo consente al robot di interpretare l’ambiente circostante e di interrogare strumenti digitali, come Google Search, per ottenere istruzioni precise. Queste vengono poi tradotte in comandi naturali e passate a Gemini Robotics 1.5, che le utilizza per coordinare visione e linguaggio ed eseguire fisicamente i compiti.
Non si parla più quindi di azioni isolate, come piegare un foglio o aprire una zip, ma di operazioni articolate: separare i vestiti chiari da quelli scuri, preparare una valigia in base al meteo di Londra o differenziare i rifiuti rispettando le regole locali, informazioni recuperate online in tempo reale.
Un aspetto rilevante è la possibilità per i robot di “apprendere” gli uni dagli altri. DeepMind ha dimostrato che un compito appreso dal robot ALOHA2 con due bracci meccanici può essere eseguito senza modifiche anche dal modello Franka, dotato anch’esso di due braccia, o dal robot umanoide Apollo di Apptronik. In pratica, una stessa competenza diventa trasferibile da una macchina all’altra, a prescindere dalla configurazione, riducendo tempi e costi di addestramento.
Gemini Robotics-ER 1.5 sarà reso disponibile agli sviluppatori tramite le API del Gemini Studio, mentre l’accesso a Gemini Robotics 1.5 resta per ora limitato a partner selezionati.
L’introduzione di robot capaci di consultare il web solleva interrogativi anche sul fronte energetico e dell’infrastruttura digitale. I modelli di AI richiedono enormi quantità di calcolo e, di conseguenza, di elettricità. Secondo l’Agenzia Internazionale dell’Energia, i data center consumano già l’1,5% della domanda globale e la quota destinata all’AI potrebbe superare il 50% entro il 2028. L’efficienza dei nuovi sistemi e la possibilità di condividere competenze tra macchine potrebbero contribuire a contenere almeno in parte questo impatto.