Venerdi' scorso, Giacomo Rizzolatti (docente di Fisiologia umana all'Universita' di Parma), Pietro Pfanner (neuropsichiatra infantile) ed il sottoscritto sono stati ospiti
della trasmissione NovaLab24 su Radio24: il tema riguardava i neuroni specchio e le loro possibili applicazioni.
Il podcast con gli interventi integrali di tutti e 3 gli intervistati e' disponibile a questo link.
Nel seguito, riprendo ed espando il discorso su come i neuroni specchio stiano
iniziando ad influenzare anche l’area dell’interazione uomo-macchina.
Ricordo brevemente che i neuroni specchio, scoperti dal team guidato da Rizzolatti, sono quelli che si attivano quando un soggetto compie un'azione oppure quando osserva altri compierla. In tal senso, rispecchiano cio' che il soggetto vede fare ad altri soggetti come se lo stesse facendo lui.
Dal punto di vista dell’Interazione Uomo-Macchina, ogni nuova informazione sul funzionamento percettivo, cognitivo o motorio dell’essere umano è importante perché aiuta a progettare tecnologie sempre più a misura d’uomo. Ed il legame con le neuroscienze è diventato ancora più rilevante negli ultimi anni, con il passaggio dalla semplici considerazioni sull’usabilità a quelle più ampie sulla user experience, in cui si vanno a valutare anche aspetti complessi come le emozioni dell’utente.
In ambito commerciale, la valutazione della user experience è attualmente basata soprattutto su questionari somministrati all’utente per capire come questi ha vissuto l’interazione con lo strumento tecnologico (dal telefonino al sito Web). Ma l’utente non è sempre in grado di ricostruire a livello conscio e verbalizzare ciò che ha provato oppure può anche accadere che sia in grado di farlo ma non voglia rivelare alcuni dettagli emotivi allo sperimentatore, omettendoli o falsificandoli. Così, negli studi più avanzati in Interazione Uomo-Macchina si cerca di rilevare e caratterizzare l’attività cerebrale dell’utente per ottenere delle misurazioni oggettive. Ad esempio, posso far visitare ad un’utente un sito Web e registrare automaticamente dal suo cervello parametri che mi permettono di determinare il carico mentale richiesto dal sito o le emozioni che l’utente ha provato nella visita.
Ma l’approccio neurofisiologico allo studio dell’utente non è limitato all’interazione con siti Web. Ad esempio, la specifica teoria dei neuroni specchio è alla base di una ricerca che vuole creare un test per la valutazione su utente di robot antropomorfi. L’industria robotica si trova infatti di fronte al problema di come creare nuove fasce di mercato ai propri prodotti grazie ai robot antropomorfi: ad esempio, robot in grado di fare da badanti agli anziani sono di forte interesse, soprattutto in nazioni (come il Giappone) dove le persone considerano umiliante essere fisicamente manipolate da un/una badante umana. Se però un robot deve giocare ruoli di questo tipo nella società, diventa cruciale che la sua interazione con l’uomo (human-robot interaction o HRI) sia socialmente ottimale.
Il test, ideato dal gruppo di V.S. Ramachandran (uno degli scienziati più noti quando si parla di neuroni specchio ed autore del libro ‘‘Phantoms in the brain’’ e in italiano "Che cosa sappiamo della mente") alla University of California San Diego, è basato sulla seguente considerazione: se con l’elettroencefalogramma (EEG) riesco a misurare l’attivazione dei neuroni specchio nell’utente che guarda un robot, posso riuscire a capire in modo automatico se l’utente percepisce quel robot nello stesso modo in cui percepisce un essere umano. I ricercatori lo definiscono il “test di Turing” per lo sviluppo di robot veramente antropomorfi. Immaginiamo ad esempio di aver sviluppato vari prototipi di robot (con 3 dita oppure con 5 dita, con tipi diversi di faccia, con tipi diversi di braccia, e via dicendo). Facciamo muovere ognuno di questi robot di fronte all’utente e misuriamo l’EEG: i prototipi che fanno attivare i neuroni specchio sono quelli su cui continuare a lavorare per creare agenti robotici sociali, gli altri no.
Tecnicamente, gli esperimenti di Ramachandran (da cui sono tratte le fotografie sopra riportate, concernenti rispettivamente le azioni di una mano robotica e di una mano umana) sono basati sulla misurazione delle oscillazioni in banda Mu nell’EEG, che verrebbero ridotte dall’attivazione dei neuroni specchio, come descritto nell’articolo del gruppo californiano apparso sulla rivista scientifica Neurocomputing.