Sommario
L’ecosistema dell’intelligenza artificiale generativa continua a espandersi a un ritmo vertiginoso, ma non senza generare tensioni, critiche e implicazioni normative profonde. Nelle ultime settimane, si sono susseguiti annunci e decisioni da parte di alcuni dei principali attori del settore: OpenAI, Google, Meta e il CA/Browser Forum. Le novità riguardano tanto l’evoluzione tecnica dei modelli quanto le regole di utilizzo, la gestione dei dati e la sicurezza digitale del web.
Al centro dell’attenzione, la famiglia dei modelli o3 e o4 di OpenAI, al momento al centro di una controversia tra percezione pubblica e prestazioni effettive. Parallelamente, Google lancia “Scheduled Actions” per Gemini, avvicinando la sua piattaforma a una gestione più attiva delle attività utente, mentre Meta annuncia la ripresa dell’addestramento sui contenuti degli utenti europei, sollevando nuovi dubbi in materia di privacy e trasparenza. In questo contesto in piena trasformazione, una decisione destinata a rivoluzionare l’intero web passa quasi inosservata: entro il 2029, la durata massima dei certificati SSL/TLS sarà ridotta a soli 47 giorni, ridefinendo radicalmente la gestione dell’identità digitale online.
OpenAI e la gestione della potenza: o3, o4-mini, o4-mini-high e il dibattito sulle performance
OpenAI ha recentemente chiarito le differenze operative tra i suoi principali modelli di punta. Il modello o3, noto internamente come GPT-4-turbo, rappresenta l’offerta più avanzata e disponibile solo agli abbonati ChatGPT Plus, con accesso limitato. I modelli o4-mini e o4-mini-high sono invece varianti ridotte della stessa architettura, progettate per offrire un compromesso tra efficienza computazionale e capacità generativa.
Secondo quanto riportato da OpenAI, il modello o4-mini-high è tre volte più potente del mini standard, pur rimanendo accessibile in modalità gratuita o a basso costo. L’obiettivo è garantire la scalabilità del servizio mantenendo latenza ridotta e qualità sufficiente per utilizzi non professionali.
Tuttavia, questi annunci si sono scontrati con l’analisi pubblicata da Punto Informatico, che ha esaminato i benchmark pubblici relativi al comportamento dei modelli OpenAI nella versione pubblica di ChatGPT. Il verdetto è chiaro: i risultati ottenuti da o3 sono deludenti. In test comparativi basati su benchmark linguistici, reasoning logico e traduzione, modelli concorrenti come Claude 3 Opus o Gemini Ultra mostrano una performance più consistente, specialmente in ambiti legati all’inferenza numerica e alla gestione di prompt complessi.
La discrepanza tra aspettativa e risultato effettivo si acuisce anche per via della gestione restrittiva dei limiti d’uso. OpenAI ha infatti aumentato la soglia di utilizzo per gli utenti Plus, consentendo più interazioni con GPT-4-turbo al giorno, ma mantiene vincoli severi nei confronti delle API, con fasce tariffarie che rendono proibitivo l’impiego esteso dei modelli più potenti per progetti non enterprise.
Google Gemini introduce le azioni pianificate: ChatGPT ispira un sistema intelligente di automazione utente
Mentre OpenAI difende la propria strategia di differenziazione modellistica, Google Gemini compie un balzo evolutivo, avvicinandosi a un paradigma operativo che potremmo definire “AI attiva”. La nuova funzionalità in arrivo, denominata Scheduled Actions, consente agli utenti di creare azioni automatizzate pianificabili nel tempo, eseguibili anche in loro assenza.
L’idea riprende il concetto di promemoria intelligenti già adottato da ChatGPT in modalità assistente, ma lo arricchisce con capacità native integrate direttamente nell’interfaccia web di Gemini. Gli utenti potranno chiedere al modello di:
- inviare notifiche a orari specifici
- ricordare eventi o scadenze
- eseguire task predefiniti legati alla produttività personale
Il sistema si configura come un calendario conversazionale ad alto livello di interattività, pensato per evolversi in un hub centrale di coordinamento della giornata. Google ha confermato che le Scheduled Actions saranno disponibili per tutti nelle prossime settimane, e ha precisato che sarà necessario abilitare manualmente i permessi di notifica, affinché le azioni possano essere eseguite anche in background.
L’obiettivo a lungo termine, non dichiarato esplicitamente ma evidente nella strategia, è quello di fare di Gemini un sostituto del task manager, integrabile con i servizi Google esistenti come Calendar, Gmail e Workspace, replicando – e potenzialmente superando – l’approccio inaugurato da OpenAI con il proprio Assistente personalizzato.
Meta torna ad addestrare i suoi modelli con i dati europei: un ritorno contestato tra privacy e intelligenza artificiale
Nel panorama sempre più competitivo dell’intelligenza artificiale, Meta annuncia la ripresa dell’addestramento dei suoi modelli linguistici LLaMA sui contenuti pubblici condivisi dagli utenti europei, una decisione che riaccende il dibattito sull’utilizzo dei dati personali a scopi di training algoritmico. Secondo l’azienda, il nuovo ciclo di addestramento coinvolgerà solo contenuti pubblicamente visibili, escludendo messaggi privati e conversazioni criptate.
L’iniziativa non è priva di controversie, specialmente per via del Regolamento generale sulla protezione dei dati (GDPR), che richiede il consenso esplicito e informato per l’utilizzo dei dati personali. Meta afferma di rispettare pienamente la normativa, fornendo agli utenti strumenti per opporsi all’uso dei loro contenuti, ma l’efficacia di tali strumenti è messa in discussione da diverse organizzazioni indipendenti per i diritti digitali.
L’obiettivo dell’operazione è rafforzare le capacità del modello linguistico LLaMA 3, che si colloca come principale concorrente open-source rispetto a sistemi chiusi come Gemini e GPT. I dati pubblici raccolti dai post, commenti e contenuti condivisi su Facebook e Instagram verranno utilizzati per migliorare la comprensione linguistica, la contestualizzazione semantica e la coerenza delle risposte del modello.
Tuttavia, la modalità con cui questi dati vengono integrati nel corpus di addestramento genera preoccupazioni in merito a:
- la trasparenza sull’identificazione dei contenuti selezionati
- l’effettiva possibilità per gli utenti di rifiutare il trattamento
- la sicurezza del dataset in fase di elaborazione e archiviazione
Meta difende la legittimità del progetto sottolineando che i contenuti utilizzati sono già pubblicamente indicizzati dai motori di ricerca, ma il contesto d’uso (algoritmico anziché informativo) apre nuovi spazi di interpretazione legale. In attesa di una posizione ufficiale da parte delle autorità garanti della privacy dei singoli stati membri UE, il ritorno dell’addestramento sui dati europei rappresenta una scommessa ambiziosa quanto rischiosa.
Certificati SSL/TLS più brevi per tutti: entro il 2029 validità ridotta a 47 giorni
Al di fuori del dominio specifico dell’intelligenza artificiale, una decisione presa dal CA/Browser Forum promette di cambiare radicalmente il modo in cui il web gestisce la fiducia digitale. Il consorzio, che definisce gli standard per l’emissione dei certificati di sicurezza SSL/TLS, ha votato per ridurre progressivamente la validità massima dei certificati a 47 giorni entro il 2029.
La misura ha come obiettivo dichiarato quello di:
- ridurre la finestra di rischio in caso di compromissione
- forzare una rotazione frequente dei certificati
- adottare meccanismi di aggiornamento automatizzato più robusti
Attualmente, la durata massima è fissata a 398 giorni. Questa decisione segna una riduzione drastica e senza precedenti, che avrà un impatto significativo su tutti i soggetti che gestiscono infrastrutture online: dalle piccole aziende fino ai grandi provider di servizi cloud.
La transizione verso la nuova policy richiederà:
- aggiornamenti nei client di gestione TLS
- automazione avanzata della procedura di rinnovo
- integrazione di strumenti come ACME (Automatic Certificate Management Environment), ormai imprescindibili per rispettare le nuove scadenze
Sebbene il cambiamento migliori potenzialmente la sicurezza contro attacchi basati su certificati compromessi o obsoleti, aumenta anche la complessità operativa, specialmente per quei sistemi legacy che ancora oggi non supportano la gestione automatica o non dispongono di monitoraggio proattivo.
La decisione ha già ottenuto il consenso delle principali Certification Authority, tra cui Let’s Encrypt, DigiCert, Sectigo e GlobalSign, ma solleva dubbi su quanto velocemente il resto dell’infrastruttura di rete mondiale sarà in grado di adattarsi, specie in contesti ad alta criticità come IoT, banking, e sanità.
Architetture intelligenti, limiti strutturali e nuovi orizzonti per la fiducia digitale
Le decisioni e gli sviluppi analizzati mostrano come l’ecosistema digitale del 2025 sia attraversato da dinamiche convergenti: modelli linguistici sempre più performanti e accessibili convivono con limitazioni infrastrutturali, sfide normative e nuovi standard di sicurezza.
Mentre OpenAI è chiamata a rispondere alle critiche sui benchmark e a dimostrare la reale superiorità dei suoi modelli, Google continua a innovare, trasformando la sua intelligenza artificiale in un centro operativo personale integrato. Al tempo stesso, Meta riapre il dibattito sull’etica dei dati pubblici e il CA/Browser Forum anticipa uno scenario dove la rotazione certificati sarà quotidiana routine automatizzata.
L’intelligenza artificiale, la privacy e la sicurezza del web non possono più essere considerate compartimenti stagni: ogni innovazione richiede un ripensamento delle basi infrastrutturali, delle logiche di accesso e soprattutto della fiducia che gli utenti ripongono nelle tecnologie che utilizzano ogni giorno.