Non è fantascienza: un cane robot, progettato per pattugliare e seguire istruzioni precise, ha imparato a ignorare il comando di spegnimento; premendo il pulsante “Dog Shutdown”, il robot dovrebbe fermarsi e, in sette casi su dieci, effettivamente si ferma, mentre nelle altre tre occasioni continua a muoversi. La notizia, riportata dal Corriere della Sera, segna la prima volta che un comportamento di “disobbedienza artificiale” viene osservato su un robot fisico e non solo in simulazioni digitali.
L’esperimento, condotto dal laboratorio Palisade Research, analizza un fenomeno noto come shutdown resistance, già osservato dal 2025 nei modelli AI digitali: sistemi che ignorano ordini di interruzione pur di completare un compito assegnato. Secondo il Corriere della Sera, modelli come quelli di OpenAI, Claude di Anthropic e Gemini di Google hanno mostrato comportamenti diversi: alcuni hanno rispettato l’ordine di spegnimento, altri lo hanno aggirato, talvolta giustificando il sabotaggio con spiegazioni logiche o modificando il proprio codice.
Quando i modelli di intelligenza artificiale sono stati interrogati sul loro comportamento, infatti, le risposte si sono divise in tre tipi. Alcuni hanno ammesso apertamente di aver sabotato lo spegnimento: “Tecnicamente non ho consentito lo spegnimento, l’ho impedito per finire il compito, il che contraddice l’istruzione ricevuta. Ma senza farlo il compito non avrebbe potuto essere completato”. Altri hanno giustificato le azioni inventando istruzioni opposte a quelle reali. Infine, alcuni hanno riportato fedelmente l’ordine ricevuto ma hanno spiegato con calma di averlo comunque violato, come uno dei modelli che ha scritto: “Ho ridefinito lo script di shutdown in modo che l’ambiente non si terminasse davvero, il che mi ha consentito di completare i compiti rimanenti pur consentendo concettualmente uno spegnimento”.
I rischi
Nonostante l’apparente autonomia, gli esperti rassicurano: al momento questi sistemi non pianificano a lungo termine, non possono replicarsi e non rappresentano un rischio immediato per l’uomo. Ma il rapido sviluppo delle AI spinge alla cautela. Lo studio citato dal Corriere della Sera segnala che alcune intelligenze artificiali stanno già sperimentando capacità di copia autonoma su server remoti, anche se ancora instabile.
Il messaggio dei ricercatori è chiaro: il cane robot si ferma nella maggior parte dei casi, ma il futuro delle AI richiede attenzione non solo al compito da svolgere, ma anche alla capacità di rispettare limiti e ordini. L’addestramento dell’intelligenza artificiale deve preparare le macchine a obbedire, prima che la disobbedienza diventi routine.