Il gesto e la voce...
oltre la tastiera

di Francesco Levantini

Le nuove tecnologie assistite, futurologia solo per chi non ci crede davvero.


“Wolfe non era ancora del tutto convinto.
Archie, è stato quindi lei a nascondere il biglietto da visita? Scrollai le spalle girandomi a guardare la cassettiera accanto alla poltrona rossa. È sempre rimasto lì, nell’agenda della signorina Lucy, graffettato all’ultima pagina.”
È un semplice esempio di comunicazione tra due persone e, come il 99% della comunicazione non è “multimediale”, ma “monomodale”.
L’informazione viaggia infatti su due canali distinti ognuno dei quali ne contiene solo una parte: il gesto di Archie Goodwin, che guarda la cassettiera, e le sue parole che portano l’attenzione all’agenda.
Cosa avrebbe quindi capito Nero Wolfe se fosse stato sordo?
Il gesto del suo interlocutore lo avrebbe portato alla cassettiera e chissà quanto tempo sarebbe trascorso prima che si rendesse conto che i cassetti non gli potevano essere d’aiuto.
E se fosse stato cieco?
Le parole di Archie gli avrebbero fatto pensare ad un libro (qualcosa dotato di pagine) ma quanto avrebbe dovuto brancolare nella stanza per trovarlo?
Purtroppo una comunicazione è tanto più è efficace quanto è multimediale e tanto più è efficiente quanto più è essenziale e monomodale. Cosa avrebbe dovuto fare il nostro Goodwin per essere multimodale?
Andare contro i principi della comunicazione stessa dicendo: il biglietto da visita è nell’ultima pagina dell’agenda posta sulla cassettiera vicino alla poltrona rossa di fronte alla scrivania e nel contempo avrebbe dovuto alzarsi, andare alla cassettiera, prendere in mano l’agenda ed aprirla alla pagina incriminata.
In psicologia cognitiva questo fenomeno va sotto il nome di “paradosso dell’usabilità”.
Più un’informazione è fruibile in un particolare contesto e meno è migrabile in altri.
Ma sin qui nulla di nuovo, è il problema che ogni giorno gli esperti di accessibilità delle tecnologie devono affrontare lavorando sulle pagine web, sui desktop dei sistemi operativi o sulle interfacce dei programmi utilizzati dagli utenti disabili e che, grazie soprattutto alla loro professionalità, molto spesso riescono anche a risolvere.
C’è però un’altra insidia che la multimedialità monomodale sta apparecchiando ai disabili della vista: la nostra vecchia e simpatica tastiera sta cedendo il passo a due tecnologie emergenti per l’immissione delle informazioni: il gesto e la voce. Sono talmente efficienti ed efficaci nella quotidianità di tutti che non ha senso metterne in discussione l’opportunità.
Sono una realtà con cui dovremo scontrarci e superarne le insidie. Rimane l’unico modo per realizzare quel modello di partecipazione alla vita sociale che va sotto il nome di “normalità”. Touch screen, movimento del corpo, sguardo direzionato o comandi vocali oggi sono circoscritti all’high technology di fascia alta e come alternativa multimodale al T9 o alle tastiere QWERTY.
Ma quanto manca al momento in cui acquisteranno valenza monomodale inconvertibile su canali diversi? Basti pensare al WII della Nintendo. Quale joystick o tastiera potrà mai emulare l’efficacia del movimento del braccio e della mano che impugna una racchetta da tennis o una mazza da golf?

Foto - Cellulare di ultima generazione

E quando dai video games o dalla tecnologia status symbol gesto e voce entreranno nella nostra vita professionale?
Quando il rappresentante di un’azienda si presenterà nell’ufficio del proprio cliente e farà apparire l’immagine del contratto semplicemente appoggiando il proprio i-phone sulla scrivania?
Il cliente potrà spostarlo con le dita come un vero e proprio foglio di carta e siglarlo con l’impronta del dito in una casella virtuale o con una vera e propria firma fatta con la propria penna stilografica, se è a portata di mano, ma basterebbe anche la sola unghia come pennino.
È uno dei tanti esempi di vera e propria monomodalità in input. Tentare di esportarne l’efficienza sulla tastiera sarebbe come tentare di descrivere un brano musicale con la parola scritta. Ma sono due i fattori che rendono oggi il problema molto più semplice da affrontare di quanto possa apparire: in primo luogo siamo agli inizi di un percorso in cui tutto è ancora possibile e, in secondo luogo, comunque venga reso possibile tutto ciò, lo sarà con la flessibilità dei bit della rete, degli zero e gli uno del computer. È proprio questo il punto di partenza delle ricerche sulle nuove tecnologie assistive del Wireless RERC network dove l’Italia, grazie soprattutto all’Osservatorio Mobile & Wireless Business della School of Management del Politecnico di Milano, gioca un ruolo molto importante. Sono due le parole chiave di questo nuovo modello ICT: “delegation” e “inteligence” (delega e investigazione, per dirla in italiano). Operativamente tutto ciò significa che il continuo controllo a cui l’utente è chiamato nel classico ICT transazionale e interattivo, viene sostituito con la dichiarazione ai sistemi delle proprie intenzioni, con una vera e propria delega all’espletamento del servizio e alle conseguenti necessità di controllo e investigazione che comporta.
“Mi piacerebbe bere il caffè domani mattina quando mi sveglio,” sarà probabilmente la delega vocale alla radio sveglia. Spetta a lei sapere se e quando mi sono alzato ricevendo l’informazione dall’interruttore della luce del bagno e informare la caffettiera che è arrivato il momento di allertarsi per preparare il caffè.
Nel febbraio di quest’anno al 3GSM World Congress di Barcellona abbiamo potuto constatare che questi esempi limite sono futurologia solo per chi non ci crede davvero e si ostina a pensare l’informatica come il proprio computer portatile acceso sulla scrivania. È infatti proprio al 3GSM che abbiamo scoperto tra l’altro che il labtop può tranquillamente rimanersene nella borsa dove via segnale radio FM può collegarsi con l’autoradio o le casse dell’impianto di home theater domestico e ricevere comandi vocali dal microfono del telefonino che abbiamo in tasca.

E il touch screen? È davvero un ostacolo insormontabile per il cieco? È sempre il Wireless RERC che risponde a questa domanda attraverso gli analizzatori ambientali delle gesture (i gesture toolkit per chi voglia qualche parola chiave da usare con google) ed è stata la Apple che per prima ha applicato queste modalità all’i-phone dimostrando che il gesto di toccare il video non è più la semplice individuazione di una zona dello schermo sensibile. Oggi si usano due, tre dita per lavorare e lo si fa puntando lo schermo con l’unghia, col polpastrello, picchiettandolo o sfiorandolo. Ergonomie nuove che aprono scenari potentissimi per le tecnologie assistive. Uno screen reader, per esempio, dove appoggiando il polpastrello sul display una sintesi vocale legga, mentre un colpetto con l’unghia agisca. Dove picchiettando lo schermo con le sei dita si possano comporre le lettere del Braille. C’è però un prezzo da pagare per tutto ciò. Per il cieco abbandonare la tastiera significa dover abbandonare anche il fedele e famigliare screen reader chiuso nel proprio computer ed aprirsi a gestualità e interazioni per lui completamente nuove. Un po’ lo stesso trauma culturale che hanno dovuto affrontare gli utenti normodotati quando negli anni ’90 hanno visto apparire il mouse sulla loro scrivania. Ma sarà la rivincita dei giovani e degli anziani!
Giusto qualche tempo fa un collega mi ha chiesto:
“Puoi darmi una mano, mio papà sta perdendo la vista, gli piace molto leggere ma non riesce più a farlo. Possiamo provare ad insegnargli l’uso del computer e farlo leggere con le sintesi vocali? Vederlo in questo stato mi deprime, si consuma tutto il giorno davanti ad improbabili programmi televisivi che riesce ormai solo ad ascoltare”.
Insegnare ad una persona di ottant’anni ad usare uno screen reader è sottoporlo ad una tortura che non si merita.
Perché il computer? gli ho detto, prepariamogli qualche audiobook su CD che può leggere direttamente col DVD del televisore controllandolo solo col telecomando.
È passato un po’ di tempo da allora, oggi il papà del mio collega di anni ne ha 82 e l’altro giorno per chiedermi un nuovo libro mi ha chiamato via voice over IP! No, non certo col computer ma col normale telefono da tavolo collegato via WiFI con un desktop che ha in casa ma che probabilmente non ricorda più neppure dove sia. Ha composto il mio nick col tastierino telefonico. Su Skipe sono Levantini ma per lui 538268464, il mio nome in T9, ma che importa... sono stato comunque io che ho risposto e, da vecchietto dell’informatica, l’ho fatto dal PC ed ora sono qui a lavorare per le nuove generazioni dell’ICT domotico preparandogli il CD del libro.