Intelligenza Artificiale
Goldman Sachs: Intelligenza Artificiale è troppo costosa e inaffidabile?
Tempo di lettura: 2 minuti. Opinioni contrastanti in Goldman Sachs sugli investimenti in AI, i loro costi elevati e l’affidabilità, e le sfide energetiche legate alla tecnologia.
Corporazioni e investitori stanno spendendo miliardi di dollari nello sviluppo dell’intelligenza artificiale (AI). Modelli di linguaggio avanzati come GPT-4o richiedono centinaia di milioni di dollari per essere addestrati, e le prossime generazioni di modelli stanno già superando il miliardo di dollari. Tuttavia, Goldman Sachs, una delle principali istituzioni finanziarie globali, si interroga sull’effettiva redditività di questi investimenti nel campo dell’intelligenza artificiale.
Analisi dei costi e dei benefici
Opinioni contrastanti degli Esperti
Un rapporto di Sequoia Capital stima che l’intera industria dell’AI debba generare 600 miliardi di dollari annualmente solo per coprire le spese iniziali. Mentre colossi come Nvidia, Microsoft e Amazon investono enormi somme per primeggiare nella corsa all’AI, Goldman Sachs ha intervistato diversi esperti per valutare se questi investimenti daranno effettivamente i loro frutti.
Gli esperti sono divisi in due gruppi. Un gruppo è scettico, affermando che l’AI offrirà solo ritorni limitati all’economia americana e che non risolverà problemi complessi in modo più economico rispetto alle tecnologie attuali. L’altro gruppo è più ottimista, sostenendo che il ciclo di spesa in capitali per le tecnologie AI sembra promettente, seguendo un percorso simile a quello delle tecnologie precedenti.
Prospettive di Impatto Economico
Daron Acemoglu, professore al MIT, stima che l’impatto dell’AI generativa sull’economia sarà limitato, contribuendo solo a un aumento dello 0,5% della produttività e dell’1% del PIL. Questo contrasta nettamente con le stime degli economisti di Goldman Sachs, che prevedono un incremento del 9% della produttività e del 6,1% del PIL. Acemoglu è scettico sul fatto che l’attuale tendenza di aumentare dati e potenza di calcolo ai modelli AI accelererà il raggiungimento dell’intelligenza generale artificiale (AGI).
Opinioni di Kash Rangan ed Eric Sheridan
Kash Rangan ed Eric Sheridan, analisti senior di ricerca azionaria presso Goldman Sachs, ritengono che, sebbene i ritorni sugli investimenti in AI richiedano più tempo del previsto, alla fine saranno remunerativi. Rangan spiega che ogni ciclo computazionale segue una progressione nota come IPA: infrastruttura prima, piattaforme dopo e applicazioni alla fine. Attualmente, il ciclo AI è nella fase di costruzione dell’infrastruttura, quindi trovare l’applicazione killer richiederà tempo.
Sheridan aggiunge che questo ciclo di spesa in capitali sembra più promettente rispetto ai cicli precedenti perché le aziende consolidate, piuttosto che le startup, lo stanno guidando, riducendo il rischio che la tecnologia non diventi mainstream. Queste aziende hanno accesso a enormi risorse di capitale e reti di distribuzione, permettendo loro di sperimentare come i dollari di capitale potrebbero eventualmente generare un ritorno.
Sfide e Limiti
Disponibilità di Chip e Consumo Energetico
Nonostante le opinioni contrastanti, Goldman Sachs riconosce due principali sfide per l’AI: la disponibilità di chip e il consumo energetico. La carenza di GPU AI sembra essere superata, grazie a Nvidia che può ora consegnare chip con un tempo di consegna di due o tre mesi anziché undici. Tuttavia, il consumo energetico dei data center è ora il principale fattore limitante. Una singola moderna GPU AI può utilizzare fino a 3,7 MWh di energia all’anno, con tutte le GPU vendute l’anno scorso che consumano abbastanza elettricità per alimentare oltre 1,3 milioni di famiglie americane. Le grandi corporazioni stanno persino considerando l’uso di centrali nucleari modulari per soddisfare le esigenze energetiche dei loro enormi data center AI.
Solo il tempo dirà se l’AI esploderà come Internet e l’e-commerce o se fallirà come le TV 3D, la realtà virtuale e il metaverso. Qualunque sia il caso, si prevede che lo sviluppo dell’AI continuerà. Goldman Sachs afferma: “Vediamo ancora spazio per il tema dell’Intelligenza Artificiale, sia perché l’AI inizia a mantenere le promesse, sia perché le bolle impiegano molto tempo a scoppiare”.
Intelligenza Artificiale
Mozilla e Apple commissionano studi sull’AI
Tempo di lettura: 3 minuti. Mozilla esamina i limiti dell’accesso ai modelli AI da parte dei ricercatori e la concentrazione di potere nelle mani delle Big Tech. Apple rivela i limiti logici degli attuali modelli di AI nel risolvere semplici problemi matematici.
L’intelligenza artificiale (AI) è al centro di innovazioni tecnologiche fondamentali, ma solleva domande critiche sul controllo e sull’accesso ai modelli avanzati. Da un lato, Mozilla ha commissionato studi per esaminare come i grandi player tecnologici, come Google e OpenAI, limitino l’accesso agli strumenti AI, dall’altro, Apple ha dimostrato i limiti logici degli attuali modelli di AI, incapaci di risolvere problemi matematici scolastici di base.
Accesso ai modelli AI: il problema dell’innovazione concentrata
Mozilla ha pubblicato due rapporti chiave che affrontano l’accesso agli strumenti AI da parte di ricercatori esterni e la crescente concentrazione di potere nelle mani di poche aziende tecnologiche. Il primo studio, intitolato “External Researcher Access to Closed Foundation Models”, evidenzia come i ricercatori indipendenti abbiano difficoltà ad accedere ai modelli di base sviluppati da giganti come Google o OpenAI. Questi modelli, che formano il cuore di molte applicazioni AI, sono spesso riservati a progetti allineati agli interessi aziendali, limitando la ricerca pubblica e indipendente. Anche quando l’accesso è concesso, i costi elevati e la mancanza di trasparenza impediscono un’analisi approfondita.
Il secondo rapporto, “Stopping Big Tech From Becoming Big AI”, esplora come le grandi aziende tecnologiche controllino i principali strumenti necessari per sviluppare l’AI, come potenza di calcolo, dati e infrastrutture cloud. Questa concentrazione ostacola l’innovazione, poiché le piccole imprese non riescono a competere. Il rapporto propone interventi governativi per prevenire la creazione di un monopolio dell’AI simile a quello osservato nei mercati digitali negli ultimi venti anni.
Apple: i limiti matematici dell’intelligenza artificiale
Dall’altra parte, uno studio condotto da Apple ha rivelato le gravi carenze dei modelli linguistici avanzati (LLM) nell’affrontare problemi matematici elementari. Il rapporto intitolato “GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models” ha testato i modelli di AI su una serie di 8.000 problemi matematici scolastici. Il semplice cambiamento della formulazione dei problemi, senza alterare la logica, ha causato cali significativi nelle prestazioni dei modelli, con riduzioni fino al 65.7%.
Questo risultato mostra che gli LLM non risolvono i problemi attraverso una vera comprensione logica, ma si affidano a modelli di riconoscimento di schemi. La loro incapacità di gestire variazioni semantiche semplici mette in discussione l’efficacia dell’AI attuale, che sembra ancora lontana dall’ottenere capacità di ragionamento avanzato, come la manipolazione simbolica utilizzata in algebra e programmazione.
Sia lo studio di Mozilla sull’accesso ai modelli di AI, sia la ricerca di Apple sui limiti logici di questi strumenti, evidenziano problematiche cruciali nel campo dell’intelligenza artificiale. Da un lato, pochi giganti tecnologici stanno monopolizzando l’accesso e lo sviluppo delle tecnologie AI, soffocando l’innovazione e limitando la ricerca indipendente. Dall’altro, i modelli AI attuali, nonostante i progressi, mostrano ancora gravi limiti nella loro capacità di ragionare e risolvere problemi matematici di base.
Intelligenza Artificiale
UroBot: LLM che supera i medici nella diagnosi urologica
Tempo di lettura: 3 minuti. UroBot, il chatbot AI sviluppato dal DKFZ, supera i medici esperti nell’accuratezza delle risposte in ambito urologico.
Recentemente, il Centro Tedesco di Ricerca sul Cancro (DKFZ) ha annunciato uno straordinario progresso nel campo della medicina assistita dall’intelligenza artificiale. In collaborazione con l’Ospedale Universitario di Mannheim, il team ha sviluppato UroBot, un chatbot basato su intelligenza artificiale che ha dimostrato di poter rispondere a domande specialistiche in urologia con una precisione superiore rispetto ai medici esperti. UroBot è stato testato su un ampio spettro di quesiti clinici, rispondendo con una precisione dell’88,4%, un risultato che lo rende superiore a modelli di linguaggio generici come GPT-4o e alla media delle prestazioni degli urologi umani.
UroBot e la complessità delle linee guida urologiche
Con il progresso dell’oncologia personalizzata, le linee guida per il trattamento urologico sono diventate estremamente complesse. Questo rende sempre più difficile per i medici rimanere aggiornati su tutte le opzioni terapeutiche disponibili, soprattutto nei contesti clinici dove il tempo è limitato. La necessità di un sistema di supporto basato su intelligenza artificiale, capace di offrire secondi pareri e assistenza in decisioni complesse, è evidente.
UroBot nasce proprio da questa esigenza. Basato sul modello GPT-4o di OpenAI, il chatbot è stato migliorato con l’ausilio di una metodologia chiamata retrieval-augmented generation (RAG). Questo metodo permette a UroBot di consultare centinaia di documenti rilevanti, tra cui le linee guida della European Society of Urology, per fornire risposte accurate e giustificate da fonti affidabili.
Le prestazioni di UroBot rispetto agli urologi umani
Durante i test, UroBot è stato valutato su 200 domande provenienti dall’esame specialistico dell’European Board of Urology. La sua capacità di fornire risposte corrette ha superato di 10,8 punti percentuali il modello GPT-4o standard, dimostrando che l’integrazione delle linee guida urologiche migliora significativamente la performance. Inoltre, l’accuratezza del chatbot è stata verificata con attenzione dagli esperti clinici, i quali hanno potuto constatare la sua affidabilità e consistenza.
Con una precisione del 88,4%, UroBot non solo ha superato il modello GPT-4o (77,6%), ma ha anche mostrato prestazioni superiori rispetto alla media degli urologi umani, che è di circa il 68,7%. Questa differenza indica il potenziale dell’intelligenza artificiale nel fornire assistenza clinica nelle decisioni complesse, riducendo l’incertezza diagnostica e migliorando la qualità della cura.
L’importanza dell’intelligenza artificiale nella medicina futura
Titus Brinker, leader del progetto al DKFZ, ha evidenziato l’importanza di sistemi come UroBot nell’assistenza medica del futuro. Con l’aumento della complessità nelle decisioni terapeutiche e la necessità di personalizzare i trattamenti oncologici, l’uso di modelli di linguaggio in grado di consultare le linee guida mediche sarà cruciale per garantire cure basate su evidenze scientifiche. UroBot, con la sua precisione e verificabilità, rappresenta un passo avanti nell’uso di tecnologie AI per migliorare l’assistenza clinica.
L’evoluzione di UroBot e le future applicazioni
La squadra di ricerca ha reso pubblici i codici sorgente e le istruzioni per l’uso di UroBot, per promuovere ulteriori sviluppi nel campo dell’urologia e in altre discipline mediche. Questo rende possibile l’adattamento di UroBot a diverse specialità, potenzialmente estendendo i benefici dell’intelligenza artificiale a molte altre aree della medicina.
Intelligenza Artificiale
Modello computazionale curerà malattie neurodegenerative?
Tempo di lettura: 3 minuti. Modelli computazionali avanzati simulano la crescita neuronale, offrendo nuove opportunità per il trattamento delle malattie neurodegenerative.
L’approfondimento dei modelli di crescita neuronale attraverso strumenti di simulazione sta offrendo nuove opportunità per la comprensione dello sviluppo del cervello e il trattamento delle malattie neurodegenerative. La ricerca, come dimostrato nell’articolo “Calibration of stochastic, agent-based neuron growth models” pubblicato sul Journal of Mathematical Biology, presenta un sofisticato modello computazionale basato su agenti (ABM) che mira a simulare accuratamente la crescita dei neuroni, partendo da premesse biologiche, per arrivare alla calibrazione dei dati reali.
L’approccio descritto in questo studio si basa su un processo stocastico e viene risolto mediante approssimazioni Bayesiane, rendendo possibile la determinazione delle incertezze nei parametri biologici. In particolare, l’algoritmo riesce a rappresentare in modo realistico le diverse fasi di crescita neuronale, quali l’estensione e la ramificazione dei dendriti, il tutto influenzato dalla disponibilità di risorse interne e dall’interazione con segnali guida esterni. Ciò consente una comprensione più profonda dei meccanismi che regolano la formazione delle reti neurali e offre potenziali applicazioni nello studio di patologie neurologiche.
Crescita Neurale: modelli stocastici e biologici
Il modello proposto utilizza simulazioni 3D agent-based per la crescita neuronale, in cui gli agenti rappresentano segmenti cilindrici corrispondenti a porzioni di dendriti e assoni, iniziando dal soma (corpo cellulare). La crescita è determinata da regole stocastiche basate su dati biologici e risorse disponibili, con un’attenzione particolare al consumo di tubulina, proteina essenziale per la costruzione del citoscheletro. Il modello analizza il comportamento di “elongazione” o “retracting” dei coni di crescita neuronale, enfatizzando come i fattori esterni e le risorse interne determinino la complessità delle ramificazioni neurali.
Lo studio conferma che i neuroni, durante la fase di crescita, mostrano una competizione per le risorse che influenza la morfologia finale, come documentato da esperimenti precedenti (Hirokawa et al., 2010). Le simulazioni hanno riprodotto accuratamente le complesse strutture ramificate dei neuroni sensoriali, aprendo la strada a una comprensione dettagliata della neurogenesi.
La simulazione della crescita neurale nel contesto del Trattamento delle Malattie
Parallelamente, l’Università di Surrey ha recentemente sviluppato un nuovo metodo di simulazione che imita la crescita neuronale del cervello umano, con un chiaro obiettivo applicativo nella cura delle malattie neurodegenerative come l’Alzheimer e il Parkinson. La simulazione proposta rappresenta un grande passo avanti nel fornire modelli che possano essere utilizzati per testare nuovi farmaci e trattamenti terapeutici, senza dover ricorrere esclusivamente a modelli biologici complessi e spesso costosi.
Il nuovo approccio computazionale potrebbe accelerare notevolmente lo sviluppo di terapie mirate, dato che è capace di simulare non solo la crescita, ma anche le interazioni neuronali in un ambiente controllato. Questo tipo di simulazioni è essenziale per comprendere le cause alla base della degenerazione neuronale e per testare nuovi interventi.
L’integrazione di modelli stocastici basati su agenti con la simulazione della crescita neuronale offre una nuova frontiera per lo studio e il trattamento delle malattie neurodegenerative. Queste tecniche non solo permettono una maggiore comprensione dei processi biologici alla base della neurogenesi, ma forniscono anche strumenti fondamentali per il testing di nuovi approcci terapeutici. La sinergia tra biologia computazionale e applicazioni cliniche potrà offrire un futuro più promettente per il trattamento delle malattie del sistema nervoso centrale.
- OSINT1 settimana fa
Dibattito politico: in estate vincono Salvini e Meloni mentre Schlein è in vacanza
- Sicurezza Informatica5 giorni fa
Cyber-attacco “nucleare” contro l’Iran è la risposta di Israele?
- Editoriali2 giorni fa
Nucleare per l’AI: si muovono “gli squali” delle Big Tech in Italia
- Sicurezza Informatica1 settimana fa
Perchè è importante fare backup nel cloud?
- Sicurezza Informatica7 giorni fa
OilRig colpisce i “fratelli” degli Emirati Arabi Uniti e del Golfo
- OSINT5 giorni fa
Tommaso Cerno sbanca X: La Verità e Manifesto i più graditi
- Smartphone4 giorni fa
Samsung Galaxy S25 porterà l’ascesa di Apple nel 2025?
- Tech1 settimana fa
Android 16 e Android 15 migliorano produttività e multitasking