L'altro ieri ho tenuto l'invited tutorial sul design di mobile apps del simposio internazionale ACM EICS. Fra le decine di aspetti che ho trattato, non poteva ovviamente mancare il tema della distrazione causata dall'uso del telefonino in condizioni di mobilità e le nuove sfida che essa presenta ai designer di interfacce utente.
Nelle applicazioni per PC, infatti, minimizzare la distrazione causata dall'uso di un'applicazione non faceva parte degli obbiettivi tipici dei progettisti, in quanto un utente che sta seduto a casa o in ufficio davanti al computer può permettersi di dedicare la totalità della sua attenzione all'applicazione usata. Un utente in condizioni di mobilità non gode di questo lusso e l'attenzione che deve prestare all'ambiente circostante (ad esempio, per non finire sotto un auto, per non perdere un annuncio importante sul proprio aereo o treno, per non fare imbestialire gli amici con cui si trova e che si vedono ignorati, etc. etc.) può essere talmente alta da rendere l'uso dell'app un compito secondario. E l'attenzione sottratta dall'app al compito primario di monitorare l'ambiente circostante può anche causare seri problemi di sicurezza come dimostrano questi video.
Al di là della linea guida generica di progettare le app mobili con l'obbiettivo di minimizzare l'attenzione che richiedono e la distrazione che causano, uno degli interessanti quesiti che la ricerca sull'interazione uomo-macchina mobile si sta da poco ponendo è: possiamo creare delle app che si adattano allo specifico contesto in cui l'utente si trova e ottimizzano automaticamente l'interfaccia per la situazione di mobilità attuale? Ad esempio, grazie all'accelerometro contenuto negli smartphone, le app possono capire quando l'utente sta camminando o è fermo e potrebbero quindi abilitare/disabilitare alcune funzioni troppo complesse oppure proporre un'interfaccia che le rende più facili da gestire in base alla specifica condizione di movimento.
A titolo di esempio, riassumo una ricerca presentata nell'ultima edizione della conferenza Mobile HCI da Enrico Rukzio e Bastian Schildbach. Quello che i due ricercatori volevano capire era se ingrandire automaticamente i bottoni dell'interfaccia ed il testo usato nell'interfaccia quando l'utente cammina può eliminare la maggior quantità di attenzione richiesta dallo schiacciare i bottoni o leggere testi mentre si è in movimento.
Come primo passo, lo studio ha quantificato cosa accade quando gli utenti svolgono questi compiti in movimento. Per motivi di sicurezza, i ricercatori hanno svolto il test nel cortile della propria università: è quindi presumibile che i numeri che ora riassumerò peggiorino ulteriormente nelle più tipiche condizioni di camminata in una strada cittadina. I risultati in condizioni di camminata protetta sono stati: per la selezione di bottoni, aumento del 31% del tempo richiesto ed aumento del 23% degli errori commessi rispetto al non essere mobili; per la lettura di brevi testi, aumento del 23% del tempo richiesto rispetto al non essere mobili.
Fatto ciò, i ricercatori hanno ripetuto l'esperimento provando versioni più grandi dei bottoni e dei testi (v. esempi dei fattori di ngrandimento nella foto in alto). Per quanto riguarda i bottoni, un ingrandimento del 40% ha permesso di recuperare quasi completamente la prestazione normale degli utenti. Per i testi, invece le conclusioni sono state negative e non si è ottenuto alcun recupero di performance (fra i vari fattori in gioco per quanto riguarda i testi, va anche notato che ingrandirli significativamente introduce esigenze di scrolling che complicano invece di semplificare la vita dell'utente mobile).