"Interazione Naturale" è attualmente uno dei termini più in voga quando si parla di nuove interfacce utente. Con questo termine, si intende tipicamente che il modo con cui diamo comandi ad un'interfaccia dovrebbe consistere in gesti fisici spontanei (con la mano, con le dita, con il corpo,…), che dovrebbero aumentare notevolmente l'usabilità rispetto ai classici mouse e tastiera. Ma è sempre così ?
Per rispondere sinteticamente alla domanda, avevo scritto qualche mesa fa un articolo per la versione cartacea del Sole 24 Ore (inserto Nòva n. 257). Dato che l'articolo è successivamente stato pubblicato on-line dal sito principale del Sole 24 Ore, lo riporto qui sotto per i lettori del blog.
————————-
Nei prodotti tecnologici più recenti, il riconoscimento dei gesti e dei movimenti dell'utente, che accomuna dispositivi così diversi come l'iPad di Apple e il Kinect di Microsoft, è il grande protagonista dell'innovazione nell'interfaccia utente. L'interazione gestuale, sia essa rilevata attraverso uno schermo multitouch ed accelerometri oppure attraverso una telecamera con mappe di profondità che analizza il corpo dell'utente, promette di materializzare il sogno entrato nell'immaginario collettivo grazie a film di fantascienza come «Minority Report»: l'utente che dà ordini alle macchine come se fosse un direttore d'orchestra che comunica con i propri musicisti attraverso i gesti e il corpo.
Chi però sta progettando applicazioni per questi nuovi dispositivi si trova di fronte a una realtà meno allettante: le interfacce gestuali resuscitano problemi di usabilità che sulle vecchie interfacce grafiche erano stati risolti. E ne introducono anche di nuovi.
Il primo mito da sfatare è che la gestualità sia una modalità di interazione naturale e intuitiva per dare qualsiasi ordine a una macchina. È certamente suggestiva e divertente, non necessariamente naturale. Quando l'applicazione non è un videogioco, sono pochi i gesti spontanei che si possono sfruttare. Puntare con la mano verso un oggetto da selezionare oppure sfogliare per passare a una pagina successiva sono esempi di gesti efficaci, ma trasformare l'interfaccia delle applicazioni classiche (dal word processor ai siti di commercio elettronico) in un'interfaccia gestuale è tutt'altra cosa. Ad esempio, quali sono i gesti naturali per dire "salva", "salva con nome", "stampa", "confronta i prezzi", "commenta" o qualsiasi altro comando dei menu tradizionali? E anche quando si ha la fortuna di trovare un gesto noto da assegnare a un comando, il gesto è spesso dipendente dal contesto culturale e non può essere usato in applicazioni destinate a un pubblico internazionale. Ad esempio, il gesto con la mano che vuol dire "ok" nel mondo anglosassone, significa invece "soldi" in Giappone e Corea e serve addirittura a insultare l'interlocutore in Turchia e Venezuela.
Quando si rimane affascinati da Tom Cruise che gesticola elegantemente davanti al computer, non ci si cala nella propria vita quotidiana per chiedersi quanto complicato sarebbe imparare una vera e propria lingua dei segni per tutte le applicazioni non ludiche che utilizziamo. Per questi motivi, i designer non si pongono «Minority Report» come obiettivo, ma tipicamente propongono una più tradizionale interfaccia grafica a menu dove la gestualità svolge solo il limitato compito di sostituto del mouse all'interno di un paradigma classico.
E nemmeno questo obiettivo di minima è ancora stato pienamente raggiunto. Mentre nell'uso del mouse esistono delle azioni come lo spostamento del puntatore, il click oppure il drag-and-drop che si compiono sempre allo stesso modo nelle varie applicazioni, nelle interfacce gestuali la situazione è confusa. I diversi algoritmi di riconoscimento dei gesti utilizzati da diverse applicazioni possono richiedere variazioni spaziali o temporali nel compiere uno stesso gesto per riuscire a riconoscerlo, il che danneggia la trasferibilità di quanto appreso da un'applicazione all'altra e può rivelarsi particolarmente stressante quando abbiamo bisogno di usare tante applicazioni diverse saltando da una all'altra. A complicare la situazione, c'è il fatto che anche le risposte di interfacce diverse a uno stesso gesto possono differire: ad esempio, toccare un'immagine su app diverse per iPad può avere effetti come ingrandire, aprire un'altra pagina, ruotare la figura, far comparire un menu o anche nessuna reazione. Jakob Nielsen, il noto guru dell'usabilità, dice che quando guarda le prime app su iPad, gli sembra di tornare indietro agli anni '90, quando i primi web designer progettavano "selvaggiamente" le loro interfacce. «Qualsiasi cosa fosse graficamente disegnabile diventava un'interfaccia, che avesse senso o no – afferma Nielsen –. Ora è lo stesso con le app iPad: qualsiasi cosa visibile o toccabile può essere un elemento interattivo, senza nessuna aspettativa o standard». A distanza di un anno dal lancio dell'iPad, la situazione è fortunatamente migliorata, ma sono apparsi nuovi problemi di usabilità come le ambiguità nei gesti di swipe ed un eccesso di navigazsione richiesto agli utenti.
La situazione nel gaming è un po' più fortunata perché i giochi riproducono spesso situazioni del mondo fisico, dall'incontro di box e tennis alla corsa sullo skateboard eccetera, dove i movimenti che dobbiamo compiere (e i loro effetti) possono essere analoghi a quelli che faremmo e ci aspetteremmo se fossimo sul ring o sul campo da tennis. Ma un problema che tutte le interfacce gestuali – ludiche e non – hanno in comune (e che complica il lavoro del designer) è la facilità con cui l'utente dà involontariamente dei comandi all'interfaccia. Lo spettatore attento ricorderà che «Minority Report» conteneva una brevissima scena profetica: Tom Cruise stringe la mano a una persona che è entrata nella stanza, il computer interpreta quei movimenti come comandi e gli scombina il lavoro sullo schermo.
© 2011 Luca Chittaro, Nova100 – Il Sole 24 Ore.