nonvede
Una task-force di scienziati per chi non vede
Il Corriere della Sera del 01-12-2013

Essere autonomi: è questo il sogno «semplice» dei non vedenti. Camminare
senza andare contro gli ostacoli, fare la spesa, riconoscere un amico
quando lo si incontra per strada. Oggi quel sogno è condiviso da una
folta schiera di ricercatori che, passo dopo passo, si stanno
avvicinando alla meta: l'obiettivo dell'indipendenza non è più così
irreale e il punto dei progressi più recenti si farà il prossimo 6
dicembre a Boston, durante il workshop congiunto che la Andrea Bocelli
Foundation organizza assieme al prestigioso Massachusetts Institute of
Technology. Un'occasione che consentirà scambi di idee fra scienziati
che lavorano su fronti completamente differenti e perciò forniscono
risposte diverse, ma complementari, alla domanda di «normalità» dei non
vedenti. «Neuroscienziati e studiosi dei processi di visione, ingegneri
elettronici, esperti di robotica: tutti impegnati sul medesimo tema,
solo così potremo davvero raggiungere gli obiettivi che ci siamo
proposti spiega Laura Giarré, responsabile scientifico del workshop e
ingegnere all'Università di Palermo . Non possiamo costruire tecnologie
che aiutino i ciechi a orientarsi senza conoscere a fondo gli aspetti
psicologici della visione e viceversa. Il traguardo essenziale?
Permettere a chi è cieco di muoversi senza aiuti, perché, come dice
Andrea Bocelli: riconoscere un amico è importante, ma diventa secondario
se per fare un passo occorre appoggiarsi a qualcun altro». Il «nocciolo»
dell'incontro sarà perciò la presentazione dei risultati del progetto
Mit Fifth Sense, nato per rendere autonomo il non vedente attraverso uno
strumento portatile che garantisca alcune delle funzioni della visione e
consenta quindi di vivere una vita sociale e lavorativa normale. spiega
Seth Teller, del Computer Science Artificial Laboratory del Mit,
responsabile del progetto: «Il prototipo che abbiamo messo a punto
contiene un sistema di navigazione indoor che, attraverso telecamere
portatili e sensori, permette al cieco di muoversi in un ambiente che
non conosce, individuando gli ostacoli, le salite e le discese
improvvise e identificando un percorso sicuro davanti a sé. Inoltre, lo
strumento consente di riconoscere i volti noti, basandosi su immagini
archiviate in un database, e di leggere i testi attraverso la tecnica di
mappatura e localizzazione simultanea o Slam . Si tratta di un algoritmo
che permette di ricostruire le figure geometriche (parti di muri,
pavimento, soffitto, mobili) all'interno di una mappa realizzata in
simultanea grazie ai sensori, ma che soprattutto è in grado di
individuare parole e decodificarle anche grazie alla capacità di
rimuovere le distorsioni che si hanno quando i testi si presentano
obliqui di fronte alla testa di chi indossa lo strumento. In laboratorio
abbiamo già un prototipo di riconoscimento del testo che funziona in
tempo reale, ma saranno necessari anni di ulteriori ricerche per
renderlo utile e utilizzabile nella vita di tutti i giorni». Tutte le
informazioni raccolte dall'apparecchio portatile integrato vengono
veicolate all'utente attraverso un display tattile (usare i suoni
«disturberebbe» il senso dell'udito, fondamentale per i non vedenti). La
tecnologia fa passi da gigante: solo un anno e mezzo fa il display era
poco più che una bella idea, ora è una realtà e nel giro di due o tre
anni potrà forse essere prodotto su una scala più ampia. «Dobbiamo però
superare ancora molti ostacoli dice Teller . Ad esempio, abbiamo bisogno
di sensori di profondità che possano lavorare in interni ed esterni con
tutte le condizioni di luminosità e siano in grado di osservare un campo
visivo vasto, potendo però "zoomare" su un dettaglio, proprio come
l'occhio umano. E dobbiamo far funzionare tutto questo in tempo reale,
per consentire ai non vedenti di avere reazioni adeguate agli stimoli in
pochi secondi, proprio come chi vede. Dobbiamo, inoltre, migliorare i
display perché abbiano una risol uzione ottimale per il trasporto
"superveloce" di una grande mole di dati». In sostanza, serviranno anni
prima di avere un «assistente alla visione» perfetto. Nel frattempo si
stanno portando avanti anche progetti relativamente più semplici come
gli smartphone-guida, messi a punto dall'Università di Palermo: «Si
tratta di metodi meno ambiziosi che tuttavia stanno dando buoni
risultati: lo scopo è avere applicazioni che, ad esempio, possano
guidare i ciechi lungo percorsi in un aeroporto o in altri spazi
pubblici riprende Giarré . Ancora però siamo lontani dal poter dare in
mano alle persone prodotti che consentano di superare completamente la
loro disabilità. Lo stesso vale per le protesi retiniche che potrebbero
rendere inutile tutto il resto: il senso della vista è molto complesso,
non è facile sostituirlo artificialmente». Per ora la Food and Drug
Administration e l'European Medicines Agency hanno autorizzato l'uso di
un impianto retinico fatto di antenna ed elettrodi che dialogano con un
paio di occhiali speciali su cui sono montate una telecamera e un'altra
antenna, associati a un minicomputer che processa le immagini: gli
ultimi dati raccolti su pazienti con retinite pigmentosa indicano che il
complicato strumento triplica la capacità di riconoscere oggetti bianchi
o metallici su uno sfondo scuro, ma la strada per tornare a vedere
perfettamente con un impianto artificiale pare tuttora assai lunga.
Torna all'indice