Guardami negli occhi, umanoide!

Tokyogirlboy
Le tecnologie di eye-tracking che permettono di rilevare dove esattamente sta guardando una persona e possono essere installate su un normale PC erano finora  note per applicazioni quali lo studio del comportamento degli utenti che visitano un sito Web (quali parti della pagina vengono guardate piu’ spesso? Quali piu’ a lungo? Quali mai? Dove si sposta lo sguardo dell’utente dopo aver visto un elemento specifico della pagina?…) oppure le interfacce per persone disabili che possono controllare soltanto lo sguardo e non il corpo nell’interagire con un computer.

Qualche settimana fa, in Giappone, ho avuto modo di assistere ad una presentazione  di un’applicazione dell’eye-tracking decisamente piu’ strana e che riguarda gli umanoidi, cioe’ quei personaggi animati che vengono sempre piu’ usati all’interno di interfacce utente e di cui avevo avuto modo di scrivere in un post precedente.

Chi ha avuto a che fare con personaggi virtuali sullo schermo avra’ notato che uno dei loro comportamenti poco realistici (rispetto all’interazione con persone in carne ed ossa) e’ quello di non rendersi conto di come e se li stiamo guardando e di continuare imperterriti in quello che stanno dicendo a prescindere da cio’ che facciamo noi. Bene, il ricercatore Helmut Prendinger, assieme ad un nutrito gruppo di suoi colleghi, ha avuto l’idea di usare i sistemi di eye-tracking per consentire agli umanoidi di monitorare dove stiamo guardando e cambiare il proprio comportamento di conseguenza. Se, ad esempio, un umanoide ci sta presentando un prodotto commerciale visualizzato sullo schermo e si accorge che ne stiamo guardando un altro,  si puo’ fermare e dirci cose del tipo "Ma forse ti interessa piu’ l’altro prodotto, vuoi che ti parli di quello?" oppure "Vedo che stai guardando l’altro prodotto, ma vorrei riportare la tua attenzione su questo". Oppure, mentre l’umanoide  sta dicendo qualcosa di emotivamente intenso, si accorge che stiamo guardando da tutt’altra parte e ci chiede di guardarlo perche’ ci sta dicendo qualcosa per "lui" o "lei" importante.

Il "lui" e la "lei" utilizzati nel progetto di ricerca sono quelli che potete vedere nella figurina in cima al post, nella foto qui sotto invece si vede un utente che interagisce con i due umanoidi mediante un PC dotato di eye-tracking:

Humanoid_gaze

Se volete vedere i due umanoidi in azione, date un’occhiata a questo video (N.B. il sistema di eye-tracking viene attivato dopo i primi due minuti e mezzo di video ed il video mette in evidenzia in blu il punto dove l’utente sta guardando). Se invece volete proprio tutti i dettagli su questa curiosa ricerca, potete leggere l’articolo tecnico che illustra la presentazione a cui ho assistito in Giappone.

Quando potremo iniziare a "guardare negli occhi" i personaggi virtuali anche sul PC di casa? Non e’ facile fare previsioni precise, ma sicuramente si puo’ dire che non accadra’ presto, perche’ i sistemi di eye-tracking sono attualmente molto costosi e richiedono anche un’accurata taratura.