Tecnologia

Microsoft e MIT insieme per migliorare l’intelligenza artificiale

Un modello di apprendimento per le Intelligenze Artificiali proposto dal MIT e da Microsoft sfrutta l'esperienza umana per insegnare ai computer a prendere decisioni corrette. Si può applicare alle auto a guida autonoma, ma anche ai robot che si muovono in maniera indipendente.

Le auto a guida autonoma e i robot che si muovono in maniera indipendente potrebbero fare un passo avanti nella sicurezza grazie a un nuovo modello sviluppato dai ricercatori di Microsoft e del Massachusetts Institute of Technology (MIT). Riguarda gli algoritmi di Intelligenza Artificiale e di apprendimento automatico, che permettono ai sistemi autonomi di interagire in maniera corretta con quello che li circonda. Sono una parte importantissima dello sviluppo, perché per quanto gli scienziati possano “insegnare” alle macchine a gestire molte situazioni, non potranno mai istruirle sul 100% delle situazioni possibili.

Prendiamo ad esempio un’auto a guida autonoma. I programmi prevedono che l’auto si fermi se un pedone attraversa la strada, se l’auto che la precede è ferma, se una bicicletta invade la carreggiata. Chi guida l’auto da anni però sa che la casistica degli eventi su strada è molto ampia, e che le situazioni che si possono presentare sono tali e tante da rendere impossibile considerarle e programmarle tutte. È qui che entra in gioco l’apprendimento automatico, e che si verificano i cosiddetti “punti ciechi” delle Intelligenze Artificiali. Non sono le aree non coperte dagli specchietti retrovisori, ma quelle situazioni per le quali il computer non è stato esplicitamente programmato.

Le simulazioni non sono sempre identiche alle situazioni reali. Foto: Depositphotos

 

In questi casi il modello del MIT e di Microsoft utilizza gli input umani per cercare di coprire i “punti ciechi” dell’IA. Per implementarlo, i ricercatori hanno permesso alle IA di effettuare comparazioni tra le proprie decisioni e quelle prese da guidatori in carne ed ossa, in modo da correggere le decisioni errate.

Il primo autore della ricerca, Ramya Ramakrishnan, spiega che “il modello aiuta i sistemi autonomi a conoscere meglio ciò che non sanno. Molte volte, quando questi sistemi vengono implementati, le simulazioni che si fanno in fase di addestramento non corrispondono al contesto reale. L’idea è di usare l’esperienza degli umani per colmare il divario tra la simulazione e il mondo reale, così da poter ridurre alcuni di questi errori”.

Foto: Depositphotos

 

Un errore tipico, per esempio, è che il sistema tende a percepire situazioni differenti come identiche. Mettiamo il caso di un’ambulanza e di un camioncino bianco di pari dimensioni, che giungono alle spalle dell’auto a guida autonoma. Inizialmente per il sistema sono due mezzi identici, e in entrambi i casi l’auto autonoma prosegue nel suo percorso. Però se il camioncino bianco è un’ambulanza, l’auto dovrebbe accostare e lasciar passare. Immagazzinando l’atteggiamento contraddittorio fra la sua decisione e quella del guidatore umano, l’IA capisce che quanto ha fatto non è sicuro. Nei successivi casi analoghi agirà in maniera più cauta, fino a quando non prenderà la decisione corretta in tutti i casi. A ben vedere, è un metodo di apprendimento che non si discosta molto da quello dell’essere umano.