robot

I segnali muscolari possono pilotare un robot

Tempo di lettura: 4 minuti

Albert Einstein ha notoriamente postulato che “l’unica cosa di valore reale è l’intuizione”, probabilmente una delle chiavi più importanti per comprendere l’intenzione e la comunicazione.

Ma l’intuitività è difficile da insegnare – soprattutto a una macchina. Cercando di migliorare questo aspetto, un team del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT ha ideato un metodo che ci avvicina ad una più stretta collaborazione uomo-robot. Il sistema, chiamato “Conduct-A-Bot”, utilizza i segnali dei muscoli umani provenienti da sensori indossabili per pilotare il movimento di un robot.

“Noi immaginiamo un mondo in cui le macchine aiutano le persone con il lavoro cognitivo e fisico, e per farlo si adattano alle persone piuttosto che il contrario”, dice Daniela Rus, professore del MIT e direttore del CSAIL, e co-autore di un articolo sul sistema.

Per consentire un lavoro di squadra senza soluzione di continuità tra persone e macchine, l’elettromiografia (EMG) e i sensori di movimento sono indossati su bicipiti, tricipiti e avambracci per misurare i segnali muscolari e il movimento. Gli algoritmi elaborano poi i segnali per rilevare i gesti in tempo reale, senza alcuna calibrazione offline o dati di allenamento per utente. Il sistema utilizza solo due o tre sensori indossabili, e nulla nell’ambiente, riducendo in gran parte la barriera per gli utenti occasionali che interagiscono con i robot.

Video Youtube ↓

Controlling Drone with Gestures

Mentre il Conduct-A-Bot potrebbe essere potenzialmente utilizzato per vari scenari, tra cui la navigazione dei menu su dispositivi elettronici o la supervisione di robot autonomi, per questa ricerca il team ha utilizzato un drone Parrot Bebop 2, anche se potrebbe essere utilizzato qualsiasi drone commerciale.

Rilevando azioni come gesti di rotazione, pugni serrati, braccia tese e avambracci attivati, il Conduct-A-Bot può muovere il drone a sinistra, a destra, in alto, in basso e in avanti, oltre a consentirgli di ruotare e fermarsi.

Se si è mosso verso destra verso il proprio amico, è probabile che essi possano interpretare il fatto di doversi muovere in quella direzione. Allo stesso modo, se agitavi la mano a sinistra, per esempio, il drone seguiva l’esempio e faceva una svolta a sinistra.

Nei test il drone ha risposto correttamente all’82% di oltre 1.500 gesti umani quando è stato controllato a distanza per volare attraverso i cerchi. Il sistema ha inoltre identificato correttamente circa il 94% dei gesti del cecedone quando il drone non era controllato.

“Comprendere i nostri gesti potrebbe aiutare i robot a interpretare meglio gli spunti non verbali che usiamo naturalmente nella vita di tutti i giorni”, dice Joseph DelPreto, autore principale di un nuovo articolo sul Conduct-A-Bot. “Questo tipo di sistema potrebbe aiutare a rendere l’interazione con un robot più simile a quella con un’altra persona, e rendere più facile per qualcuno iniziare a usare robot senza esperienza precedente o sensori esterni”.

Questo tipo di sistema potrebbe alla fine rivolgersi a una serie di applicazioni per la collaborazione uomo-robot, tra cui l’esplorazione a distanza, i robot personali di assistenza o le attività di produzione come la consegna di oggetti o il sollevamento di materiali.

Questi strumenti intelligenti sono anche coerenti con la distanza sociale, e potrebbero potenzialmente aprire un regno di futuro lavoro senza contatto. Ad esempio, si possono immaginare macchine controllate da esseri umani per pulire in sicurezza una stanza d’ospedale, o per consegnare farmaci, lasciando che noi umani stiamo a distanza di sicurezza.

COME FUNZIONA

I segnali muscolari possono spesso fornire informazioni su stati difficili da osservare dalla vista, come la rigidità articolare o la fatica.

Ad esempio, se si guarda un video di qualcuno che tiene in mano una grossa scatola, si può avere difficoltà a indovinare quanto sforzo o forza sia necessario – e una macchina avrebbe anche difficoltà a misurare questo solo dalla vista. L’uso di sensori muscolari apre la possibilità di stimare non solo il movimento, ma anche la forza e la coppia necessarie per eseguire quella traiettoria fisica.

Per il vocabolario dei gesti attualmente utilizzato per controllare il robot, i movimenti sono stati rilevati come segue:

  • Irrigidire la parte superiore del braccio per fermare il robot (simile a un leggero cigolio quando si vede qualcosa che non va): segnali muscolari bicipiti e tricipiti

  • Agitando la mano sinistra / destra e su / giù per spostare il robot lateralmente o verticalmente: segnali muscolari dell’avambraccio (con l’accelerometro dell’avambraccio che indica l’orientamento della mano)

  • Pugno che stringe per far avanzare il robot: segnali muscolari dell’avambraccio

  • Ruota in senso orario / antiorario per girare il robot: giroscopio dell’avambraccio

I classificatori di apprendimento macchina hanno poi rilevato i gesti utilizzando i sensori indossabili. I classificatori non supervisionati hanno elaborato i dati del muscolo e del movimento e li hanno raggruppati in tempo reale, per imparare a separare i gesti dagli altri movimenti. Una rete neurale ha anche previsto la flessione o l’estensione del polso dai segnali dei muscoli dell’avambraccio.

Il sistema si calibra essenzialmente sui segnali di ogni persona mentre questi compiono gesti che controllano il robot, rendendo più veloce e più facile per gli utenti occasionali iniziare ad interagire con i robot.

In futuro, il team spera di ampliare i test per includere più soggetti. E mentre i movimenti per il Conduct-A-Bot coprono i gesti comuni per il movimento dei robot, i ricercatori vogliono estendere il vocabolario per includere gesti più continui o definiti dall’utente. Alla fine, la speranza è che i robot imparino da queste interazioni per comprendere meglio i compiti e fornire una maggiore assistenza predittiva o aumentare la loro autonomia.

“Questo sistema si avvicina di un passo per permetterci di lavorare senza soluzione di continuità con i robot in modo che possano diventare strumenti più efficaci e intelligenti per le attività quotidiane”, dice DelPreto. “Poiché tali collaborazioni continuano a diventare sempre più accessibili e pervasive, le possibilità di beneficio sinergico continuano ad approfondirsi”.

DelPreto ha scritto il saggio insieme a Rus. L’hanno presentato virtualmente alla Conferenza Internazionale ACM/IEEE sull’interazione tra robot umani.

Fonte