06 12 2013

CATEGORIA: Medicina »

Boston: una task-force di scienziati per l’autonomia dei non vedenti

Rendere il non vedente più autonomo possibile. Questo è l’obiettivo condiviso dalla task-force di scienziati che interverranno il prossimo 6 dicembre a Boston, durante il workshop congiunto che la Andrea Bocelli Foundation organizza assieme al prestigioso Massachusetts Institute of Technology. Per approfondire leggi l’articolo pubblicato dal “Corriere”.

Articolo pubblicato da “Il Corriere della Sera” domenica 1 dicembre 2013

Una task-force di scienziati per chi non vede

Essere autonomi: è questo il sogno «semplice» dei non vedenti. Camminare senza andare contro gli ostacoli, fare la spesa, riconoscere un amico quando lo si incontra per strada. Oggi quel sogno è condiviso da una folta schiera di ricercatori che, passo dopo passo, si stanno avvicinando alla meta: l’obiettivo dell’indipendenza non è più così irreale e il punto dei progressi più recenti si farà il prossimo 6 dicembre a Boston, durante il workshop congiunto che la Andrea Bocelli Foundation organizza assieme al prestigioso Massachusetts Institute of Technology. Un’occasione che consentirà scambi di idee fra scienziati che lavorano su fronti completamente differenti e perciò forniscono risposte diverse, ma complementari, alla domanda di «normalità» dei non vedenti. «Neuroscienziati e studiosi dei processi di visione, ingegneri elettronici, esperti di robotica: tutti impegnati sul medesimo tema, solo così potremo davvero raggiungere gli obiettivi che ci siamo proposti spiega Laura Giarré, responsabile scientifico del workshop e ingegnere all’Università di Palermo . Non possiamo costruire tecnologie che aiutino i ciechi a orientarsi senza conoscere a fondo gli aspetti psicologici della visione e viceversa. Il traguardo essenziale? Permettere a chi è cieco di muoversi senza aiuti, perché, come dice Andrea Bocelli: riconoscere un amico è importante, ma diventa secondario se per fare un passo occorre appoggiarsi a qualcun altro». Il «nocciolo» dell’incontro sarà perciò la presentazione dei risultati del progetto Mit Fifth Sense, nato per rendere autonomo il non vedente attraverso uno strumento portatile che garantisca alcune delle funzioni della visione e consenta quindi di vivere una vita sociale e lavorativa normale. spiega Seth Teller, del Computer Science Artificial Laboratory del Mit, responsabile del progetto: «Il prototipo che abbiamo messo a punto contiene un sistema di navigazione indoor che, attraverso telecamere portatili e sensori, permette al cieco di muoversi in un ambiente che non conosce, individuando gli ostacoli, le salite e le discese improvvise e identificando un percorso sicuro davanti a sé. Inoltre, lo strumento consente di riconoscere i volti noti, basandosi su immagini archiviate in un database, e di leggere i testi attraverso la tecnica di mappatura e localizzazione simultanea o Slam . Si tratta di un algoritmo che permette di ricostruire le figure geometriche (parti di muri, pavimento, soffitto, mobili) all’interno di una mappa realizzata in simultanea grazie ai sensori, ma che soprattutto è in grado di individuare parole e decodificarle anche grazie alla capacità di rimuovere le distorsioni che si hanno quando i testi si presentano obliqui di fronte alla testa di chi indossa lo strumento. In laboratorio abbiamo già un prototipo di riconoscimento del testo che funziona in tempo reale, ma saranno necessari anni di ulteriori ricerche per renderlo utile e utilizzabile nella vita di tutti i giorni». Tutte le informazioni raccolte dall’apparecchio portatile integrato vengono veicolate all’utente attraverso un display tattile (usare i suoni «disturberebbe» il senso dell’udito, fondamentale per i non vedenti). La tecnologia fa passi da gigante: solo un anno e mezzo fa il display era poco più che una bella idea, ora è una realtà e nel giro di due o tre anni potrà forse essere prodotto su una scala più ampia. «Dobbiamo però superare ancora molti ostacoli dice Teller . Ad esempio, abbiamo bisogno di sensori di profondità che possano lavorare in interni ed esterni con tutte le condizioni di luminosità e siano in grado di osservare un campo visivo vasto, potendo però “zoomare” su un dettaglio, proprio come l’occhio umano. E dobbiamo far funzionare tutto questo in tempo reale, per consentire ai non vedenti di avere reazioni adeguate agli stimoli in pochi secondi, proprio come chi vede. Dobbiamo, inoltre, migliorare i display perché abbiano una risoluzione ottimale per il trasporto “superveloce” di una grande mole di dati». In sostanza, serviranno anni prima di avere un «assistente alla visione» perfetto. Nel frattempo si stanno portando avanti anche progetti relativamente più semplici come gli smartphone-guida, messi a punto dall’Università di Palermo: «Si tratta di metodi meno ambiziosi che tuttavia stanno dando buoni risultati: lo scopo è avere applicazioni che, ad esempio, possano guidare i ciechi lungo percorsi in un aeroporto o in altri spazi pubblici riprende Giarré. Ancora però siamo lontani dal poter dare in mano alle persone prodotti che consentano di superare completamente la loro disabilità. Lo stesso vale per le protesi retiniche che potrebbero rendere inutile tutto il resto: il senso della vista è molto complesso, non è facile sostituirlo artificialmente». Per ora la Food and Drug Administration e l’European Medicines Agency hanno autorizzato l’uso di un impianto retinico fatto di antenna ed elettrodi che dialogano con un paio di occhiali speciali su cui sono montate una telecamera e un’altra antenna, associati a un minicomputer che processa le immagini: gli ultimi dati raccolti su pazienti con retinite pigmentosa indicano che il complicato strumento triplica la capacità di riconoscere oggetti bianchi o metallici su uno sfondo scuro, ma la strada per tornare a vedere perfettamente con un impianto artificiale pare tuttora assai lunga.

Tags: ,

Lascia un commento

 

Torna alla pagina precedente