Robotica
Il tatto dei Robot potrebbe essere veloce quanto quello umano
Tempo di lettura: < 1 minuto. Un sistema tattile artificiale sviluppato dall’Università di Uppsala permette ai robot di percepire il tatto con la rapidità degli umani.
![Zhibin Zhang](https://www.matricedigitale.it/wp-content/uploads/2024/05/image-131.jpg)
Un sistema artificiale sviluppato dai ricercatori dell’Università di Uppsala potrebbe permettere ai robot di percepire il tatto con la stessa rapidità degli esseri umani. Questo sistema, ispirato dalla neuroscienza, utilizza impulsi elettrici per processare le informazioni tattili dinamiche nello stesso modo del sistema nervoso umano.
Componenti del sistema tattile artificiale
Il sistema ha tre componenti principali:
- Pelle Elettronica (e-skin): Dotata di sensori che possono rilevare la pressione al tatto.
- Neuroni Artificiali: Convertono i segnali tattili analogici in impulsi elettrici.
- Processore: Elabora i segnali e identifica l’oggetto.
I test hanno coinvolto 22 oggetti diversi per la presa e 16 superfici diverse per il tocco.
Applicazioni e prospettive future
- Protesi: Una mano protesica con questa tecnologia potrebbe sentirsi come parte del corpo del portatore.
- Interazioni Umano-Robot: Le interazioni diventerebbero più sicure e naturali grazie al feedback tattile.
- Monitoraggio Medico: Potrebbe essere utilizzata per monitorare disfunzioni motorie causate da malattie come il Parkinson e l’Alzheimer, o per aiutare i pazienti a recuperare funzionalità perse dopo un ictus.
Obiettivi futuri
I ricercatori stanno anche esplorando la possibilità di sviluppare il sistema in modo che possa percepire dolore e calore, nonché distinguere i materiali, ad esempio legno o metallo. Un altro obiettivo è produrre pelle artificiale per un intero robot, con un numero sufficiente di recettori per permettere una destrezza simile a quella della mano umana.
Finanziamenti e collaborazioni
La ricerca è stata finanziata dal programma di ricerca e innovazione Horizon 2020 dell’Unione Europea, il Consiglio delle Ricerche Svedese, la Fondazione Svedese per la Ricerca Strategica, il programma di ricerca eSSENCE (Svezia), AI4Research (Università di Uppsala), la Fondazione Margaretha af Ugglas e l’infrastruttura nazionale per il supercalcolo in Svezia presso UPPMAX.
Robotica
Robot molecolari Autoassemblanti e Autodissocianti: innovazione nella nanotecnologia
Tempo di lettura: 2 minuti. I ricercatori di Tohoku e Kyoto sviluppano un controllore molecolare a DNA per robot molecolari autoassemblanti, avanzando nella nanotecnologia.
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/Screenshot-2024-06-15-103831.jpg)
I ricercatori delle università di Tohoku e Kyoto hanno sviluppato con successo un controllore molecolare a base di DNA che dirige autonomamente l’assemblaggio e la disassemblaggio di robot molecolari. Questa tecnologia pionieristica rappresenta un significativo passo avanti verso sistemi molecolari autonomi avanzati, con potenziali applicazioni in medicina e nanotecnologia.
Controllo Autonomo dei Robot Molecolari
Il nuovo controllore molecolare, composto da molecole di DNA artificialmente progettate e da enzimi, coesiste con i robot molecolari e li controlla emettendo specifiche molecole di DNA. Questo permette ai robot molecolari di autoassemblarsi e autodissociarsi automaticamente, senza bisogno di manipolazione esterna. Questa operazione autonoma è cruciale poiché consente ai robot molecolari di svolgere compiti in ambienti dove i segnali esterni non possono arrivare.
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/image-120-1024x594.jpg)
La ricerca, guidata dal professor Shin-ichiro M. Nomura della Graduate School of Engineering dell’Università di Tohoku e dal professor Ibuki Kawamata della Graduate School of Science dell’Università di Kyoto, ha coinvolto anche Kohei Nishiyama e Akira Kakugo. La precedente ricerca di Kakugo e colleghi aveva sviluppato robot molecolari di tipo swarm che si muovono individualmente, assemblandosi e disassemblandosi tramite manipolazione esterna. Tuttavia, grazie al nuovo controllore molecolare, i robot possono autoassemblarsi e autodissociarsi secondo una sequenza programmata.
Funzionamento del Controllore Molecolare
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/image-120-1-1024x603.jpg)
Il controllore molecolare avvia il processo emettendo un segnale di DNA specifico equivalente al comando “assembrati”. I microtubuli nella stessa soluzione, modificati con DNA e spinti da motori molecolari kinesinici, ricevono il segnale di DNA, allineano la loro direzione di movimento e si assemblano automaticamente in una struttura raggruppata. Successivamente, il controllore emette un segnale di “disassemblaggio”, causando la disassemblaggio automatico dei fasci di microtubuli. Questo cambiamento dinamico è stato ottenuto attraverso un controllo preciso del circuito molecolare, che funziona come un sofisticato processore di segnali.
Implicazioni future
L’avanzamento di questa tecnologia contribuirà allo sviluppo di sistemi molecolari autonomi più complessi e avanzati. I robot molecolari potranno svolgere compiti che non possono essere compiuti da soli, assemblandosi secondo i comandi e poi disperdendosi per esplorare obiettivi. Inoltre, questa ricerca ha ampliato le condizioni di attività dei robot molecolari integrando diversi gruppi molecolari, come il sistema di circuiti DNA e il sistema operativo delle proteine motrici.
Secondo Nomura, combinando il controllore molecolare con circuiti DNA sempre più sofisticati e precisi, dispositivi di amplificazione delle informazioni molecolari e tecnologie di progettazione biomolecolare, si prevede che i robot molecolari di tipo swarm elaboreranno automaticamente una gamma più diversificata di informazioni biomolecolari. Questo progresso potrebbe portare alla realizzazione di tecnologie innovative nella nanotecnologia e nel campo medico, come nanomacchine per il riconoscimento molecolare in situ e la diagnosi o sistemi intelligenti di somministrazione di farmaci.
I dettagli della scoperta sono stati pubblicati sulla rivista Science Advances il 31 maggio 2024.
Robotica
LLM usati per aiutare i robot nella navigazione
Tempo di lettura: 2 minuti. Il MIT utilizza grandi modelli linguistici per migliorare la navigazione dei robot, superando le limitazioni dei metodi visivi tradizionali.
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/aldebaran33_Researchers_use_large_language_models_to_help_robot_4c51de60-6bf5-4139-9b15-c51745befa8a.jpg)
La recente ricerca condotta dal MIT, in collaborazione con il MIT-IBM Watson AI Lab, esplora una metodologia innovativa per migliorare la navigazione dei robot utilizzando i grandi modelli linguistici (LLM). Questo approccio mira a superare le limitazioni delle tecniche tradizionali basate su rappresentazioni visive, che richiedono grandi quantità di dati visivi e un notevole sforzo umano per la costruzione dei modelli.
Soluzione a un problema di visione con il linguaggio
Gli attuali approcci alla navigazione dei robot utilizzano molteplici modelli di machine learning, ognuno specializzato in una parte del compito. Questi metodi necessitano di grandi quantità di dati visivi, spesso difficili da ottenere. I ricercatori del MIT hanno ideato una soluzione che converte le rappresentazioni visive in descrizioni testuali, che vengono poi elaborate da un grande modello linguistico per determinare le azioni che il robot deve compiere.
Il metodo proposto sfrutta modelli di captioning per ottenere descrizioni testuali delle osservazioni visive del robot. Queste descrizioni vengono combinate con le istruzioni linguistiche dell’utente e inserite in un modello linguistico, che decide il passo successivo per la navigazione. Questo approccio permette di generare rapidamente una grande quantità di dati di addestramento sintetici, utilizzando meno risorse computazionali rispetto alle tecniche basate su immagini complesse.
Vantaggi dell’utilizzo del linguaggio
Nonostante il metodo non superi le tecniche basate sulla visione in termini di prestazioni, presenta diversi vantaggi. La generazione di dati testuali richiede meno risorse computazionali, permettendo di creare rapidamente grandi quantità di dati di addestramento sintetici. Inoltre, il linguaggio può colmare il divario tra gli ambienti simulati e il mondo reale, dove le immagini generate al computer possono differire significativamente dalle scene reali.
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/image-118-3-1024x339.jpg)
Le rappresentazioni testuali sono più comprensibili per gli esseri umani, facilitando l’identificazione dei punti di fallimento del robot. Questo metodo può essere applicato a una varietà di compiti e ambienti, poiché utilizza un unico tipo di input: il linguaggio. Tuttavia, un limite di questa metodologia è la perdita di informazioni che sarebbero catturate da modelli basati sulla visione, come le informazioni sulla profondità.
Prospettive future
I ricercatori intendono esplorare ulteriormente la combinazione delle rappresentazioni basate sul linguaggio con i metodi basati sulla visione, che ha mostrato miglioramenti nelle capacità di navigazione dei robot. Un’area di interesse futuro è lo sviluppo di un modello di captioning orientato alla navigazione per migliorare ulteriormente le prestazioni. Inoltre, si vuole indagare la capacità dei grandi modelli linguistici di mostrare consapevolezza spaziale e come ciò possa supportare la navigazione basata sul linguaggio.
Questa ricerca, supportata dal MIT-IBM Watson AI Lab, rappresenta un passo significativo verso l’integrazione di tecniche linguistiche e visive per migliorare la navigazione dei robot, rendendola più efficiente e comprensibile grazie agli LLM.
Robotica
Grazie a un ratto virtuale renderemo i robot più agili?
Tempo di lettura: 2 minuti. Neuroscienziati di Harvard e Google DeepMind hanno creato un ratto virtuale per studiare il controllo del movimento cerebrale, con applicazioni nella robotica.
![harvard](https://www.matricedigitale.it/wp-content/uploads/2023/07/image-38.png)
L’agilità con cui umani e animali si muovono è un miracolo evolutivo che nessun robot è ancora riuscito a emulare perfettamente e, per esplorare il mistero di come il cervello controlla e coordina questi movimenti, neuroscienziati di Harvard hanno creato un ratto virtuale con un cervello artificiale capace di muoversi come un vero roditore.
Il progetto del ratto virtuale
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/image-105-3.jpg)
Bence Ölveczky, professore nel Dipartimento di Biologia Organismica ed Evolutiva, ha guidato un gruppo di ricercatori in collaborazione con gli scienziati del laboratorio AI DeepMind di Google per costruire un modello digitale biomeccanicamente realistico di un ratto. Utilizzando dati ad alta risoluzione registrati da ratti reali, hanno addestrato una rete neurale artificiale – il “cervello” del ratto virtuale – a controllare il corpo virtuale in un simulatore fisico chiamato MuJoco, dove sono presenti gravità e altre forze. I risultati sono promettenti.
Risultati promettenti
I ricercatori di Harvard e Google hanno scoperto che le attivazioni nella rete di controllo virtuale prevedevano accuratamente l’attività neurale misurata dai cervelli di ratti reali che producevano gli stessi comportamenti. Questo rappresenta un nuovo approccio per studiare come il cervello controlla il movimento, sfruttando i progressi nel deep reinforcement learning e nell’AI, così come il tracciamento 3D dei movimenti negli animali che si comportano liberamente.
Collaborazione fruttuosa
“La collaborazione è stata fantastica,” ha detto Ölveczky. “DeepMind aveva sviluppato una pipeline per addestrare agenti biomeccanici a muoversi in ambienti complessi. Non avevamo le risorse per eseguire simulazioni del genere e addestrare queste reti.” Lavorare con i ricercatori di Harvard è stata “un’opportunità davvero entusiasmante,” ha detto Matthew Botvinick, co-autore e Senior Director of Research di Google DeepMind.
Applicazioni nel controllo robotico
Questi simulazioni potrebbero avviare una nuova area di neuroscienze virtuali in cui animali simulati con AI, addestrati a comportarsi come quelli reali, offrono modelli trasparenti per studiare i circuiti neurali e come tali circuiti sono compromessi nelle malattie. Mentre il laboratorio di Ölveczky è interessato a domande fondamentali su come funziona il cervello, la piattaforma potrebbe essere utilizzata, ad esempio, per progettare migliori sistemi di controllo robotico.
Passi futuri
Il prossimo passo potrebbe essere quello di dare all’animale virtuale l’autonomia di risolvere compiti simili a quelli incontrati dai ratti reali. “Dai nostri esperimenti, abbiamo molte idee su come tali compiti sono risolti e come gli algoritmi di apprendimento che sottendono l’acquisizione di abilità sono implementati,” ha continuato Ölveczky. “Vogliamo iniziare a usare i ratti virtuali per testare queste idee e aiutare ad avanzare la nostra comprensione di come i cervelli reali generano comportamenti complessi.”
- Smartphone1 settimana fa
Honor 200 Pro vs. Google Pixel 8 Pro: quale scegliere?
- Smartphone1 settimana fa
Realme GT 6 vs POCO F6: quale scegliere?
- Smartphone1 settimana fa
Galaxy A42 5G, S20 FE e A52s si aggiornano: One UI 6.1.1 arriva presto
- Smartphone1 settimana fa
Samsung dice addio a A51, A41 e M01: resiste l’S21 Ultra
- Tech1 settimana fa
Prezzi di Samsung Galaxy Buds 3, Watch 7 e Watch Ultra Online. Sono dolori
- Tech1 settimana fa
Prezzo del Galaxy Z Flip 6 in Europa, novità Watch e One UI 7
- Smartphone1 settimana fa
OnePlus Ace 3 Pro: oltre 230.000 Pre-Ordini in Cina
- Sicurezza Informatica6 giorni fa
Samsung Galaxy S24 batte in Europa le spedizioni dell’S23