I robot percepiscono il tocco umano


I robot percepiscono il tocco umano

I robot morbidi potrebbero non essere in contatto con i sentimenti umani, ma stanno migliorando nel sentire il tocco umano.

I ricercatori della Cornell University hanno creato un metodo a basso costo per robot morbidi e deformabili per rilevare una serie di interazioni fisiche, dalle pacche ai pugni agli abbracci, senza fare affidamento sul tatto. Questa ricerca propone e valuta l'uso della classificazione delle immagini per un'interazione tattile dettagliata, per tutto il corpo umano-robot. Una telecamera posizionata sotto una pelle di robot traslucida cattura le ombre generate dal tocco umano e deduce gesti sociali dalle immagini catturate. Questo approccio consente una ricca interazione tattile con i robot senza la necessità di array di sensori utilizzati nelle skin tattili tradizionali dei robot sociali. Viene supportato anche l'uso dell'interazione tattile con robot non rigidi, raggiunge il rilevamento ad alta risoluzione per robot con diverse dimensioni e forma delle superfici ed elimina la necessità di contatto diretto con il robot.

Il documento del gruppo, “ShadowSense: Detecting Human Touch in a Social Robot Using Shadow Image Classification”, pubblicato negli Atti della Association for Computing Machinery on Interactive, Mobile, Wearable and Ubiquitous Technologies. (1) L'autrice principale del documento è la studentessa di dottorato, Yuhan Hu. (2)

La nuova tecnologia ShadowSense è l'ultimo progetto dello Human-Robot Collaboration and Companionship Lab, guidato dall'autore senior dell'articolo, Guy Hoffman, (3) professore associato presso la Sibley School of Mechanical and Aerospace Engineering. Secondo lo scienziato «Il tocco è una modalità di comunicazione così importante per la maggior parte degli organismi, ma è stata praticamente assente dall'interazione uomo-robot. Uno dei motivi è che il tocco di tutto il corpo richiedeva un numero enorme di sensori e quindi non era pratico da implementare. Questa ricerca offre un'alternativa a basso costo».

La tecnologia è nata come parte di una collaborazione con Hadas Kress-Gazit, (4) professoressa presso la Sibley School of Mechanical and Aerospace Engineering, e Kirstin Hagelskjaer Petersen, (5) assistente professoressa di ingegneria elettrica e informatica, per sviluppare robot gonfiabili che potrebbero guidare le persone verso la sicurezza durante le evacuazioni di emergenza. Un tale robot dovrebbe essere in grado di comunicare con gli esseri umani in condizioni e ambienti estremi. Immagina un robot che guida fisicamente qualcuno lungo un corridoio rumoroso e pieno di fumo rilevando la pressione della mano della persona.

Invece di installare un gran numero di sensori di contatto, che aggiungerebbero peso e cablaggio complesso al robot e sarebbero difficili da incorporare in una pelle deformante, il team ha adottato un approccio controintuitivo. Per valutare il tatto, il gruppo di ricercatori guardava alla vista.

«Posizionando una telecamera all'interno del robot, possiamo dedurre come la persona lo sta toccando e quale sia l'intento della persona semplicemente guardando le immagini dell'ombra», ha detto la professoressa Yuhan Hu. «Riteniamo che ci sia un potenziale interessante, perché ci sono molti robot sociali che non sono in grado di rilevare i gesti tattili».

Il robot prototipo è costituito da una morbida vescica gonfiabile di pelle di nylon tesa attorno a uno scheletro cilindrico, alto circa quattro piedi, che è montato su una base mobile. Sotto la pelle del robot c'è una fotocamera USB, che si collega a un laptop. I ricercatori hanno sviluppato un algoritmo basato sulla rete neurale che utilizza i dati di allenamento registrati in precedenza per distinguere tra sei gesti tattili - toccare con il palmo, pugni, toccare con due mani, abbracciare, indicare e non toccare affatto - con una precisione dall'87,5 al 96%, a seconda dell'illuminazione.

Il robot può essere programmato per rispondere a determinati tocchi e gesti, come rotolare via o inviare un messaggio tramite un altoparlante. E la pelle del robot ha il potenziale per essere trasformata in uno schermo interattivo.

«Raccogliendo dati sufficienti, un robot potrebbe essere addestrato a riconoscere un vocabolario ancora più ampio di interazioni, personalizzato per adattarsi al compito del robot», ha detto Yuhan Hu.

Il robot non deve nemmeno essere un robot. La tecnologia ShadowSense può essere incorporata in altri materiali, come i palloncini, trasformandoli in dispositivi sensibili al tocco.

Secondo il dottor Guy Hoffman «Sebbene la tecnologia abbia alcune limitazioni, ad esempio richiedendo una linea di vista dalla telecamera alla pelle del robot, questi vincoli potrebbero effettivamente innescare un nuovo approccio al design dei robot sociali che supporterebbe un sensore tattile visivo come quello che abbiamo proposto. In futuro, vorremmo sperimentare l'utilizzo di dispositivi ottici come lenti e specchi per abilitare fattori di forma aggiuntivi».

Oltre a fornire una soluzione semplice a una complessa sfida tecnica e rendere i robot più user-friendly da avviare, ShadowSense offre un comfort sempre più raro in questi tempi high-tech: la privacy.

«Se il robot può vederti solo sotto forma della tua ombra, può rilevare ciò che stai facendo senza acquisire immagini ad alta fedeltà del tuo aspetto», ha detto la dottoressa Hu. «Questo ti da un filtro fisico e protezione e fornisce conforto psicologico».

La capacità di interagire fisicamente e comprendere i movimenti e gli stati d'animo di una persona potrebbe in definitiva essere altrettanto importante per la persona quanto lo è per il robot.

«L'interazione tattile è un canale molto importante in termini di interazione uomo-uomo. È una modalità di comunicazione intima. E questo non è facilmente sostituibile», conclude Yuhan Hu.

Riferimenti:

(1) ShadowSense: Detecting Human Touch in a Social Robot Using Shadow Image Classification

(2) Yuhan Hu

(3) Guy Hoffman

(4) Hadas Kress-Gazit

(5) Kirstin Hagelskjaer Petersen

Autore traduzione riassuntiva e adattamento linguistico: Edoardo Capuano / Articolo originale: Soft robots use camera and shadows to sense human touch