Come riporta il sito iapb.it, combinando sistemi di feedback vibrazionali e sonori, i ricercatori della NYU Tandon School of Engineering hanno testato un innovativo sistema di navigazione: un dispositivo indossabile sviluppato per aiutare i soggetti non vedenti o ipovedenti a muoversi autonomamente. Gli ausili più di frequente utilizzati, infatti, pongono alcune limitazioni: il bastone bianco, ad esempio, rileva gli eventuali ostacoli soltanto con il contatto diretto e all’interno del suo raggio d’azione, mentre i cani guida devono essere addestrati, il che richiede tempo e impegno.
Nello studio, di cui è autrice principale l’italiana Fabiana Sofia Ricci, dottoranda presso il Dipartimento di Ingegneria Biomedica e il Center for Urban Science + Progress dell’università newyorkese e che è stato pubblicato su JMIR Rehabilitation and Assistive Technology, il team ha miniaturizzato i sistemi di feedback aptico, che cioè consentono di ricevere sensazioni tattili in risposta, e li ha integrati in un device indossabile, ovvero in una cintura dotata di 10 motori di vibrazione di precisione. I componenti elettronici della cintura sono stati collocati in un borsello da tenere in vita, il che rende il dispositivo pratico da utilizzare nelle attività di tutti i giorni.
I feedback sensoriali del sistema si basano sulle vibrazioni della cintura stessa e rilevano la vicinanza di un ostacolo, oltre che sui segnali acustici, che arrivano attraverso delle cuffie, i quali si fanno sempre più frequenti quando l’utilizzatore si avvicina agli ostacoli sul proprio percorso.
Il device, spiega un articolo pubblicato su sciencedaily.com, è stato testato su 72 partecipanti con vista normale, senza limitazioni visive, che hanno indossato cuffie Meta Quest 2 VR e la cintura mentre camminavano in una stanza vuota della NYU, delimitata solo da tende laterali. Attraverso dei visori, i partecipanti hanno sperimentato una stazione della metropolitana virtuale come la vedrebbe qualcuno affetto da glaucoma avanzato: con visione periferica ridotta, dettagli sfocati e percezione alterata dei colori. L'ambiente, creato con il software di gioco Unity per corrispondere alle dimensioni esatte della stanza, ha permesso al team di determinare quanto bene i partecipanti potevano navigare utilizzando le vibrazioni della cintura e il feedback audio quando la loro vista era compromessa. I ricercatori hanno lavorato con specialisti della mobilità e oftalmologi della NYU Langone per progettare la simulazione in realtà virtuale, così da ricreare accuratamente i sintomi del glaucoma avanzato. All'interno di questo ambiente hanno incluso le sfide comuni che le persone non vedenti affrontano quotidianamente: ascensori rotti, zone di costruzione, traffico pedonale e ostacoli imprevisti.
I risultati della ricerca hanno mostrato come il feedback tattile sia riuscito a far diminuire sensibilmente le collisioni con gli ostacoli, mentre i segnali audio hanno migliorato la fluidità dei movimenti nello spazio (foto tratta da Freepik).
A cura della redazione