Ricerca, il Mit migliora la visione periferica nei modelli di intelligenza artificiale

25
(foto da Adobe Stock gratis)

I ricercatori del MIT migliorano la visione periferica nei modelli di intelligenza artificiale. Consentendo ai modelli di vedere il mondo più come lo vedono gli esseri umani, il lavoro potrebbe contribuire a migliorare la sicurezza dei conducenti e a far luce sul comportamento umano. La visione periferica consente agli esseri umani di vedere forme che non sono direttamente nel nostro campo visivo, anche se con meno dettagli. Questa capacità amplia il nostro campo visivo e può essere utile in molte situazioni, come rilevare un veicolo che si avvicina lateralmente alla nostra auto. A differenza degli esseri umani, l’intelligenza artificiale non ha visione periferica. Dotare i modelli di visione artificiale di questa capacità potrebbe aiutarli a rilevare i pericoli in avvicinamento in modo più efficace o a prevedere se un conducente umano noterebbe un oggetto in arrivo. Facendo un passo in questa direzione, i ricercatori del MIT hanno sviluppato modelli di apprendimento automatico.

Hanno scoperto che l’addestramento dei modelli con questo set di dati ha migliorato la capacità dei modelli di rilevare oggetti nella periferia visiva, sebbene i modelli avessero comunque prestazioni peggiori rispetto agli esseri umani. I risultati hanno anche rivelato che, a differenza degli esseri umani, né la dimensione degli oggetti né la quantità di confusione visiva in una scena hanno avuto un forte impatto sulle prestazioni dell’intelligenza artificiale. “C’è qualcosa di fondamentale qui. Abbiamo testato tanti modelli diversi e, anche quando li addestriamo, migliorano leggermente ma non sono del tutto come gli umani. Quindi la domanda è: cosa manca in questi modelli?” dice Vasha DuTell, postdoc e coautore di un articolo che descrive dettagliatamente questo studio . Rispondere a questa domanda potrebbe aiutare i ricercatori a costruire modelli di apprendimento automatico in grado di vedere il mondo più come fanno gli esseri umani. Oltre a migliorare la sicurezza del conducente, tali modelli potrebbero essere utilizzati per sviluppare display più facili da visualizzare per le persone. Inoltre, una comprensione più approfondita della visione periferica nei modelli di intelligenza artificiale potrebbe aiutare i ricercatori a prevedere meglio il comportamento umano, aggiunge l’autrice principale Anne Harrington MEng ’23. “Modellare la visione periferica, se riusciamo davvero a catturare l’essenza di ciò che è rappresentato nella periferia, può aiutarci a comprendere le caratteristiche di una scena visiva che fanno muovere i nostri occhi per raccogliere maggiori informazioni”, spiega. I loro coautori includono Mark Hamilton, uno studente laureato in ingegneria elettrica e informatica; Ayush Tewari, un postdoc; Simon Stent, responsabile della ricerca presso il Toyota Research Institute; e gli autori senior William T. Freeman, professore di ingegneria elettrica e informatica Thomas e Gerd Perkins e membro del Laboratorio di informatica e intelligenza artificiale (CSAIL); e Ruth Rosenholtz, ricercatrice principale presso il Dipartimento di Scienze del cervello e cognitive e membro del CSAIL. La ricerca sarà presentata alla Conferenza Internazionale sulle Rappresentazioni dell’Apprendimento. “Ogni volta che un essere umano interagisce con una macchina – un’auto, un robot, un’interfaccia utente – è estremamente importante capire cosa può vedere quella persona. La visione periferica gioca un ruolo fondamentale in questa comprensione”, afferma Rosenholtz.