Un interessantissimo progetto coinvolge l’Università di Padova nella collaborazione tra i team di due Dipartimenti, l’uno di Ingegneria della informazione, guidato dal prof. Emanuele Menegatti, l’altro del Dipartimento di Neuroscienze guidato dalla Prof. Alessandra Del Felice. Il progetto concerne la creazione di esoscheletri intelligenti che possano aiutare le persone, soprattutto anziane, a muoversi. Di esso ci ha raccontato il prof. Emanuele Menegatti, professore ordinario di Intelligent Robotics presso il Dipartimento di Ingegneria della informazione e direttore del IAS-Lab.
Trattasi di un progetto nazionale triennale, finanziato da fondi PNRR, per un ammontare di circa 120 milioni di euro, chiamato “Age-it – Ageing Well in an Aging Society”, in cui sono coinvolte 18 università, 7 aziende come Assicurazioni Generali, enti vari tra cui l’Inps. Gli specialisti sono medici per la parte di diagnostica, di marcatori dell’invecchiamento, di studio delle risposte del corpo a fronte dell’invecchiamento, cui si aggiungono statistici e ingegneri.
L’interesse comune è capire i meccanismi di invecchiamento della popolazione e predisporre dispositivi intelligenti di assistenza e aiuto, al fine di creare una società pronta alla sfida dell’invecchiamento, ovvero assicurare un invecchiamento sempre più attivo e in salute, da un lato, e assistito, dall’altro.
I robot e la robotica non nascono tuttavia per questo obiettivo, perché le tecnologie e i sensori nascono per essere autonomi, per essere isolati, per essere ripetitivi – consentire, per esempio, al robot di andare dal punto A al punto B indipendentemente da quanto si trovi lungo il suo percorso. Questo approccio è proprio anche degli esoscheletri attualmente in commercio, cioè programmati e progettati per muoversi da soli, ma non capaci di individuare oggetti o persone che possano incontrarsi nel percorso. Quello su cui il prof. Menegatti lavora è infatti come una persona possa comandare un robot in maniera naturale, ovvero come guidare il movimento del robot a partire dal movimento che la persona vuole fare. Per capire il movimento che la persona vuole fare si utilizza la neurorobotica, cioè
FOTO slide 1
Si possono avere robot di telepresenza, per esempio una persona paralizzata può visitare un museo dall’altra parte del mondo collegandosi a un robot che è disponibile dentro il museo e, tramite quello che vedono le telecamere del robot, osservare una opera direttamente in tempo reale. Ancora, una persona che è allettata a casa può mandare il robot in cucina e sentire quello che dicono i familiari e così partecipare all’attività della famiglia senza muoversi. Oppure esistono robot per il trasporto, ovvero sedie a rotelle intelligenti in cui l’utente non comanda la sedia a rotelle con il joystick o un altro dispositivo perché magari afflitto da una patologia talmente invalidante da non riuscirci, o esoscheletri appunto comandati dall’elettroencefalogramma e da segnali muscolari. La difficoltà rispetto a questi robot è che essi non devono muoversi da soli, ma devono essere guidati dalla persona che li sta controllando, e i segnali che escono dall’esterno, cioè del corpo del paziente sono di regola poco
Il team di ricerca non fa uso di tecnologie invasive quindi non si utilizzano impianti neurali – quali quelli proposti da E. Musk – ma si utilizzano sensori in superficie che si appoggiano sulla pelle e da lì si cerca di capire l’attivazione muscolare. Quei segnali sono però molto rumorosi e poco affidabili, e anche il numero di comandi attivabile è molto basso. Cioè: per esempio, se io controllo con un joystick, la sedia a rotelle do magari 3-4 comandi al secondo: alcuni joystick possono controllare quindi molto bene la direzione che si deve dare alla sedia. Più complesso è dare il comando da destra a sinistra con pochi cenni.
C’è poi il problema traslazionale cioè di riuscire a far uscire queste tecnologie dai laboratori e portarle nella vita reale. Per fare tutto questo il team di lavoro sta investigando, in particolare, l’apprendimento da parte dell’utente verso il controllo dei dispositivi, e i sistemi di intelligenza artificiale che permettono di decodificare meglio il pensiero dell’utente. Si tratta di dispositivi molto costosi, disponibili solo in strutture e centri ove devono essere supervisionati da personale specializzato.
Ecco che una delle attività guidate dal prof. Menegatti concerne la rilevazione della struttura dell’ambiente – cosa c’è attorno all’utente – per creare in tempo reale il movimento che l’esoscheletro deve fare. Il lavoro di ricerca parte da due aspetti.
Gli esoscheletri in vendita, di regola utilizzati da soldati e rispetto ai quali, ultimamente, l’interesse del mondo militare sta scemando, hanno dei limiti: un elevato costo pre-programmazione, e la indisponibilità di istruzioni sui materiali con cui sono costruiti, perché vi sono brevetti che li tutelano.
Il team di ricerca del prof. Menegatti ha creato un progetto open sourceche sia replicabile anche in paesi ove il reddito pro-capite è molto basso, ossia paesi emergenti che non hanno accesso a questa tecnologia. In più, i ricercatori hanno aggiunto il concetto di intelligenza per riconoscere gli ostacoli nell’ambiente e per interpretare i segnali del corpo della persona che li indossa.
Gli ostacoli sono riconosciuti tramite una telecamera 3d a bordo dell’esoscheletro che estrae quella che è chiamata la “nuvola di punti” ovvero una rappresentazione tridimensionale degli ostacoli davanti alla persona. (FOTO slide 3)
Elaborando le immagini il dispositivo riesce a capire cosa costituisce un ostacolo, qual è l’altezza e la larghezza dell’ostacolo, e dunque pianificare il movimento. Quindi esiste un software che calcola la traiettoria secondo un modello cinematico seguito dall’esoscheletro, capace anche di individuare ostacoli multipli e pianificare una sequenza di passi in una sola iterazione dell’algoritmo.
Sono esoscheletri compatti, economici e leggeri. L’elettronica che controlla tutti i motori dell’esoscheletro risponde parimenti all’obiettivo di realizzare qualcosa di completamente aperto e dunque replicabile, per cui la conoscenza viene condivisa con il resto della comunità accademica e delle persone che vogliono dunque contribuire al progetto e, in ultima analisi, abbattere i costi.
Come detto, un altro aspetto in cui il team sta lavorando è quello della intelligenza artificiale applicata a capire quali sono le intenzioni di movimento della persona. I segnali che devono cogliersi sono quelli celebrali dell’elettroencefalogramma e i segnali muscolari della elettromiografia. Per analizzare i due segnali insieme si è utilizzata la nuova tecnologia chiamata le reti neurali profonde – deep learning – attraverso cui i due segnali sono catturati insieme, indicando quali saranno i tipi di passo che la persona vuole fare. Questo tipo di informazione è più affidabile invece di usare le due informazioni in modo separato.
Per testare queste tecniche e questi dispositivi anche fuori dai laboratori di ricerca, il team di scienziati partecipa a Cybathlon, il campionato mondiale di neurorobotica organizzato dall’ETH di Zurigo per persone con disabilità fisiche che competono con l’aiuto di sistemi tecnologie di assistenza all’avanguardia. Lo scopo della competizione è promuovere la ricerca, lo sviluppo e l’implementazione di tali tecnologie al fine di renderle utilizzabili nella vita di tutti i giorni. I ricercatori hanno partecipato come squadra WHI team alla brain computer interface race ovvero la sfida di riuscire a comandare un software su un computer solamente usando i segnali cerebrali. Dal 2019, la squadra ha vinto due medaglie d’oro, due d’argento e una di bronzo. Pilota della squadra è Francesco Bettella, un atleta paraolimpico e dottorando presso il Centro di Neuroscienze dell’Università di Padova.
Nel 2024 due squadre, quella storica e una di studenti di ingegneria biomedica, dell’Università di Padova hanno partecipato alla competizione, vincendo una medaglia d’argento e una di bronzo. La squadra degli studenti ha anche vinto il premio della giuria.
Simona Pinton