Robotica
La radioterapia robotica per il trattamento delle malattie oculari
Tempo di lettura: 2 minuti. Scopri come la radioterapia robotica innovativa sta migliorando il trattamento della degenerazione maculare umida, riducendo il numero di iniezioni necessarie e risparmiando sui costi sanitari.
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/aldebaran33_robot-radiotherapy-improve-treatments-eye-disease_97f36088-035f-494b-a9b3-4d5511ccc596.jpg)
Un robot personalizzato ha dimostrato di migliorare il trattamento della degenerazione maculare neovascolare legata all’età (AMD) umida, una grave malattia oculare. Questo dispositivo innovativo somministra una dose di radiazione minimamente invasiva, riducendo significativamente il numero di iniezioni necessarie per controllare la malattia.
Degenerazione maculare umida legata all’Età
Descrizione della malattia
La degenerazione maculare legata all’età (AMD) umida è una malattia debilitante che colpisce il macula, la parte dell’occhio responsabile della visione centrale dettagliata. La AMD umida si verifica quando nuovi vasi sanguigni anomali crescono nella macula, iniziando a perdere sangue e fluidi, causando una rapida e permanente perdita della vista.
Prevalenza e impatti
Globalmente, circa 196 milioni di persone sono affette da AMD. Nel Regno Unito, la Royal College of Ophthalmologists stima che oltre 700.000 persone convivano con questa malattia. Con l’invecchiamento della popolazione, il numero di casi di AMD è destinato ad aumentare del 60% entro il 2035.
Trattamenti attuali
Attualmente, la AMD umida viene trattata con iniezioni regolari nell’occhio. Queste iniezioni, che costano tra £500 e £800 ciascuna, migliorano inizialmente la visione del paziente, ma non curano la malattia. Di conseguenza, i pazienti richiedono iniezioni a lungo termine ogni 1-3 mesi, rendendo queste iniezioni uno dei trattamenti più comuni del NHS.
Innovazione nella Radioterapia Robotica
Nuovo trattamento
Il nuovo trattamento sviluppato utilizza un robot per somministrare tre fasci di radiazioni altamente focalizzati nell’occhio malato. Questo approccio mirato riduce il numero di iniezioni necessarie per controllare la malattia.
Vantaggi economici
Uno studio pubblicato su The Lancet ha rilevato che il dispositivo robotico controllato riduce il costo delle iniezioni di £565 per paziente nei primi due anni, risparmiando potenzialmente milioni per il NHS. Dr. Helen Dakin dell’Università di Oxford ha affermato che i risparmi derivanti dalla riduzione delle iniezioni superano i costi della radioterapia robotica.
Efficacia del trattamento
La radioterapia robotica ha dimostrato di stabilizzare meglio la malattia, riducendo il numero di iniezioni necessarie di circa un quarto. Questo nuovo metodo è stato ben accolto dai pazienti, che apprezzano la riduzione delle visite ospedaliere e delle iniezioni oculari.
Collaborazione e ricerca
Studi e finanziamenti
Il progetto è stato finanziato congiuntamente dal National Institute for Health and Care Research (NIHR) e dal Medical Research Council (MRC), coinvolgendo 411 partecipanti in 30 ospedali NHS. La ricerca è stata condotta da King’s College London in collaborazione con King’s College Hospital NHS Foundation Trust, l’Università di Oxford, l’Università di Bristol e la Queen’s University di Belfast.
Risultati e prospettive future
Questo studio, definito una “svolta” da un commento commissionato da Lancet, rappresenta un significativo passo avanti nel trattamento della AMD umida. La speranza è che questa innovazione riduca il carico di trattamento per i pazienti e consenta al NHS di utilizzare le risorse risparmiate per trattare altri pazienti.
Robotica
Robot molecolari Autoassemblanti e Autodissocianti: innovazione nella nanotecnologia
Tempo di lettura: 2 minuti. I ricercatori di Tohoku e Kyoto sviluppano un controllore molecolare a DNA per robot molecolari autoassemblanti, avanzando nella nanotecnologia.
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/Screenshot-2024-06-15-103831.jpg)
I ricercatori delle università di Tohoku e Kyoto hanno sviluppato con successo un controllore molecolare a base di DNA che dirige autonomamente l’assemblaggio e la disassemblaggio di robot molecolari. Questa tecnologia pionieristica rappresenta un significativo passo avanti verso sistemi molecolari autonomi avanzati, con potenziali applicazioni in medicina e nanotecnologia.
Controllo Autonomo dei Robot Molecolari
Il nuovo controllore molecolare, composto da molecole di DNA artificialmente progettate e da enzimi, coesiste con i robot molecolari e li controlla emettendo specifiche molecole di DNA. Questo permette ai robot molecolari di autoassemblarsi e autodissociarsi automaticamente, senza bisogno di manipolazione esterna. Questa operazione autonoma è cruciale poiché consente ai robot molecolari di svolgere compiti in ambienti dove i segnali esterni non possono arrivare.
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/image-120-1024x594.jpg)
La ricerca, guidata dal professor Shin-ichiro M. Nomura della Graduate School of Engineering dell’Università di Tohoku e dal professor Ibuki Kawamata della Graduate School of Science dell’Università di Kyoto, ha coinvolto anche Kohei Nishiyama e Akira Kakugo. La precedente ricerca di Kakugo e colleghi aveva sviluppato robot molecolari di tipo swarm che si muovono individualmente, assemblandosi e disassemblandosi tramite manipolazione esterna. Tuttavia, grazie al nuovo controllore molecolare, i robot possono autoassemblarsi e autodissociarsi secondo una sequenza programmata.
Funzionamento del Controllore Molecolare
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/image-120-1-1024x603.jpg)
Il controllore molecolare avvia il processo emettendo un segnale di DNA specifico equivalente al comando “assembrati”. I microtubuli nella stessa soluzione, modificati con DNA e spinti da motori molecolari kinesinici, ricevono il segnale di DNA, allineano la loro direzione di movimento e si assemblano automaticamente in una struttura raggruppata. Successivamente, il controllore emette un segnale di “disassemblaggio”, causando la disassemblaggio automatico dei fasci di microtubuli. Questo cambiamento dinamico è stato ottenuto attraverso un controllo preciso del circuito molecolare, che funziona come un sofisticato processore di segnali.
Implicazioni future
L’avanzamento di questa tecnologia contribuirà allo sviluppo di sistemi molecolari autonomi più complessi e avanzati. I robot molecolari potranno svolgere compiti che non possono essere compiuti da soli, assemblandosi secondo i comandi e poi disperdendosi per esplorare obiettivi. Inoltre, questa ricerca ha ampliato le condizioni di attività dei robot molecolari integrando diversi gruppi molecolari, come il sistema di circuiti DNA e il sistema operativo delle proteine motrici.
Secondo Nomura, combinando il controllore molecolare con circuiti DNA sempre più sofisticati e precisi, dispositivi di amplificazione delle informazioni molecolari e tecnologie di progettazione biomolecolare, si prevede che i robot molecolari di tipo swarm elaboreranno automaticamente una gamma più diversificata di informazioni biomolecolari. Questo progresso potrebbe portare alla realizzazione di tecnologie innovative nella nanotecnologia e nel campo medico, come nanomacchine per il riconoscimento molecolare in situ e la diagnosi o sistemi intelligenti di somministrazione di farmaci.
I dettagli della scoperta sono stati pubblicati sulla rivista Science Advances il 31 maggio 2024.
Robotica
LLM usati per aiutare i robot nella navigazione
Tempo di lettura: 2 minuti. Il MIT utilizza grandi modelli linguistici per migliorare la navigazione dei robot, superando le limitazioni dei metodi visivi tradizionali.
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/aldebaran33_Researchers_use_large_language_models_to_help_robot_4c51de60-6bf5-4139-9b15-c51745befa8a.jpg)
La recente ricerca condotta dal MIT, in collaborazione con il MIT-IBM Watson AI Lab, esplora una metodologia innovativa per migliorare la navigazione dei robot utilizzando i grandi modelli linguistici (LLM). Questo approccio mira a superare le limitazioni delle tecniche tradizionali basate su rappresentazioni visive, che richiedono grandi quantità di dati visivi e un notevole sforzo umano per la costruzione dei modelli.
Soluzione a un problema di visione con il linguaggio
Gli attuali approcci alla navigazione dei robot utilizzano molteplici modelli di machine learning, ognuno specializzato in una parte del compito. Questi metodi necessitano di grandi quantità di dati visivi, spesso difficili da ottenere. I ricercatori del MIT hanno ideato una soluzione che converte le rappresentazioni visive in descrizioni testuali, che vengono poi elaborate da un grande modello linguistico per determinare le azioni che il robot deve compiere.
Il metodo proposto sfrutta modelli di captioning per ottenere descrizioni testuali delle osservazioni visive del robot. Queste descrizioni vengono combinate con le istruzioni linguistiche dell’utente e inserite in un modello linguistico, che decide il passo successivo per la navigazione. Questo approccio permette di generare rapidamente una grande quantità di dati di addestramento sintetici, utilizzando meno risorse computazionali rispetto alle tecniche basate su immagini complesse.
Vantaggi dell’utilizzo del linguaggio
Nonostante il metodo non superi le tecniche basate sulla visione in termini di prestazioni, presenta diversi vantaggi. La generazione di dati testuali richiede meno risorse computazionali, permettendo di creare rapidamente grandi quantità di dati di addestramento sintetici. Inoltre, il linguaggio può colmare il divario tra gli ambienti simulati e il mondo reale, dove le immagini generate al computer possono differire significativamente dalle scene reali.
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/image-118-3-1024x339.jpg)
Le rappresentazioni testuali sono più comprensibili per gli esseri umani, facilitando l’identificazione dei punti di fallimento del robot. Questo metodo può essere applicato a una varietà di compiti e ambienti, poiché utilizza un unico tipo di input: il linguaggio. Tuttavia, un limite di questa metodologia è la perdita di informazioni che sarebbero catturate da modelli basati sulla visione, come le informazioni sulla profondità.
Prospettive future
I ricercatori intendono esplorare ulteriormente la combinazione delle rappresentazioni basate sul linguaggio con i metodi basati sulla visione, che ha mostrato miglioramenti nelle capacità di navigazione dei robot. Un’area di interesse futuro è lo sviluppo di un modello di captioning orientato alla navigazione per migliorare ulteriormente le prestazioni. Inoltre, si vuole indagare la capacità dei grandi modelli linguistici di mostrare consapevolezza spaziale e come ciò possa supportare la navigazione basata sul linguaggio.
Questa ricerca, supportata dal MIT-IBM Watson AI Lab, rappresenta un passo significativo verso l’integrazione di tecniche linguistiche e visive per migliorare la navigazione dei robot, rendendola più efficiente e comprensibile grazie agli LLM.
Robotica
Grazie a un ratto virtuale renderemo i robot più agili?
Tempo di lettura: 2 minuti. Neuroscienziati di Harvard e Google DeepMind hanno creato un ratto virtuale per studiare il controllo del movimento cerebrale, con applicazioni nella robotica.
![harvard](https://www.matricedigitale.it/wp-content/uploads/2023/07/image-38.png)
L’agilità con cui umani e animali si muovono è un miracolo evolutivo che nessun robot è ancora riuscito a emulare perfettamente e, per esplorare il mistero di come il cervello controlla e coordina questi movimenti, neuroscienziati di Harvard hanno creato un ratto virtuale con un cervello artificiale capace di muoversi come un vero roditore.
Il progetto del ratto virtuale
![](https://www.matricedigitale.it/wp-content/uploads/2024/06/image-105-3.jpg)
Bence Ölveczky, professore nel Dipartimento di Biologia Organismica ed Evolutiva, ha guidato un gruppo di ricercatori in collaborazione con gli scienziati del laboratorio AI DeepMind di Google per costruire un modello digitale biomeccanicamente realistico di un ratto. Utilizzando dati ad alta risoluzione registrati da ratti reali, hanno addestrato una rete neurale artificiale – il “cervello” del ratto virtuale – a controllare il corpo virtuale in un simulatore fisico chiamato MuJoco, dove sono presenti gravità e altre forze. I risultati sono promettenti.
Risultati promettenti
I ricercatori di Harvard e Google hanno scoperto che le attivazioni nella rete di controllo virtuale prevedevano accuratamente l’attività neurale misurata dai cervelli di ratti reali che producevano gli stessi comportamenti. Questo rappresenta un nuovo approccio per studiare come il cervello controlla il movimento, sfruttando i progressi nel deep reinforcement learning e nell’AI, così come il tracciamento 3D dei movimenti negli animali che si comportano liberamente.
Collaborazione fruttuosa
“La collaborazione è stata fantastica,” ha detto Ölveczky. “DeepMind aveva sviluppato una pipeline per addestrare agenti biomeccanici a muoversi in ambienti complessi. Non avevamo le risorse per eseguire simulazioni del genere e addestrare queste reti.” Lavorare con i ricercatori di Harvard è stata “un’opportunità davvero entusiasmante,” ha detto Matthew Botvinick, co-autore e Senior Director of Research di Google DeepMind.
Applicazioni nel controllo robotico
Questi simulazioni potrebbero avviare una nuova area di neuroscienze virtuali in cui animali simulati con AI, addestrati a comportarsi come quelli reali, offrono modelli trasparenti per studiare i circuiti neurali e come tali circuiti sono compromessi nelle malattie. Mentre il laboratorio di Ölveczky è interessato a domande fondamentali su come funziona il cervello, la piattaforma potrebbe essere utilizzata, ad esempio, per progettare migliori sistemi di controllo robotico.
Passi futuri
Il prossimo passo potrebbe essere quello di dare all’animale virtuale l’autonomia di risolvere compiti simili a quelli incontrati dai ratti reali. “Dai nostri esperimenti, abbiamo molte idee su come tali compiti sono risolti e come gli algoritmi di apprendimento che sottendono l’acquisizione di abilità sono implementati,” ha continuato Ölveczky. “Vogliamo iniziare a usare i ratti virtuali per testare queste idee e aiutare ad avanzare la nostra comprensione di come i cervelli reali generano comportamenti complessi.”
- Smartphone1 settimana fa
Samsung One UI 7.0 e One UI 6.1: novità e miglioramenti
- Tech1 settimana fa
Prezzo del Galaxy Z Flip 6 in Europa, novità Watch e One UI 7
- Smartphone6 giorni fa
Aggiornamenti e novità per i Galaxy A54, A05s, Watch 6 e S24
- Editoriali1 settimana fa
Julian Assange patteggia ed è libero. L’Italia deve vergognarsi
- Sicurezza Informatica1 settimana fa
Samsung Galaxy S24 batte in Europa le spedizioni dell’S23
- Smartphone6 giorni fa
Samsung Galaxy S25 Ultra: design nuovo e specifiche potenti
- Smartphone1 settimana fa
Si aggiorna Galaxy A23 5G mentre c’è dubbio sul futuro dell’A52
- Smartphone5 giorni fa
Novità SmartTag 2 e per il Galaxy S25 Ultra