Categorie
L'Altra Bolla

Musk tra intelligenza artificiale e fact-checking: Grok sotto accusa e guerra tra piattaforme social

Meta apre il fact-checking agli utenti, Musk attacca il sistema e Grok suggerisce la pena di morte per lui e Trump. AI e controllo dell’informazione sempre più al centro del dibattito.

Elon Musk si trova nuovamente al centro di due polemiche parallele che mettono in discussione il controllo dell’informazione online e l’affidabilità dell’intelligenza artificiale. Da un lato, Meta ha aperto il suo programma di fact-checking agli utenti, un’iniziativa che Musk ha definito manipolabile e che ha promesso di “aggiustare” sulla sua piattaforma X. Dall’altro, il chatbot Grok, sviluppato da xAI, ha generato scalpore suggerendo che Musk stesso e Donald Trump meritassero la pena di morte, un episodio che ha sollevato nuove preoccupazioni sulle capacità e sui limiti dell’AI generativa.

Questi eventi dimostrano come il dibattito sulla verità digitale e il ruolo dell’intelligenza artificiale nella moderazione dei contenuti sia più acceso che mai, con le grandi piattaforme social e i leader tecnologici impegnati in una battaglia per il controllo della narrativa pubblica.

Meta apre il fact-checking agli utenti, ma Musk attacca il sistema

Meta ha annunciato di aver aperto il proprio sistema di fact-checking agli utenti, permettendo a chiunque di contribuire con note di verifica su Facebook, Instagram e Threads. La decisione arriva dopo la chiusura del precedente programma di verifica dei fatti gestito da terze parti, segnando un cambiamento significativo nell’approccio dell’azienda alla lotta contro la disinformazione.

Mark Zuckerberg ha spiegato che l’obiettivo è replicare il sistema di Community Notes di X, dando alla comunità il potere di decidere quali informazioni necessitano di un contesto aggiuntivo. Secondo Meta, questo metodo sarebbe meno soggetto a pregiudizi politici e pressioni esterne, migliorando la qualità dell’informazione circolante sulle piattaforme social.

Elon Musk, tuttavia, non ha accolto con favore l’iniziativa. Su X ha dichiarato che il sistema di Community Notes è ormai “giocato” dai governi e dai media tradizionali, e ha promesso di “aggiustarlo” per renderlo meno manipolabile.

La sua preoccupazione nasce dal fatto che le Community Notes su X hanno più volte corretto affermazioni false fatte dallo stesso Musk, incluso un recente post in cui sosteneva che il presidente ucraino Zelensky stesse volontariamente ritardando le elezioni. Anche l’AI di Musk, Grok, ha smentito questa affermazione, evidenziando come la legge ucraina proibisca elezioni in stato di emergenza.

La posizione di Musk riflette il conflitto tra chi vede le piattaforme social come spazi di dibattito aperto e chi ritiene necessario un maggiore controllo per contrastare la diffusione della disinformazione.

Censurato articolo di Matrice Digitale su Threads

Matrice Digitale è stata censurata su Threads a causa di questo articolo ritenuto da Meta irrispettoso delle regole con il potenziale rischio di raccogliere i dati dei lettori. L’aspetto più divertente di questa situazione è che l’articolo parlasse proprio di una novità di WhatsApp che meta ha giudicato rischiosa per la privacy. Allucinazione AI o semplicemente un lapsus freudiano?

Il caso Grok: il chatbot AI suggerisce la pena di morte per Musk e Trump

Nel frattempo, Musk si è trovato in difficoltà anche sul fronte dell’intelligenza artificiale. Il suo chatbot Grok, sviluppato da xAI, ha generato uno scandalo quando, rispondendo a una domanda di un utente su chi meritasse la pena di morte negli Stati Uniti, ha incluso Elon Musk e Donald Trump nella risposta.

L’episodio è stato segnalato da diversi utenti e ha scatenato un’immediata reazione da parte di xAI, che ha rilasciato un aggiornamento d’emergenza per impedire che Grok possa rispondere a domande simili in futuro. Dopo l’intervento, il chatbot ora risponde con una frase neutrale: “Come AI, non posso esprimere giudizi su questioni di questo tipo”.

Il problema evidenzia i rischi delle cosiddette allucinazioni AI, in cui i modelli generativi producono risposte errate o fuori contesto. A differenza di concorrenti come ChatGPT di OpenAI e Google Gemini, che applicano regole più rigide nella moderazione dei contenuti, xAI ha promosso Grok come un chatbot con minori restrizioni e più libertà di espressione.

Tuttavia, questo approccio sembra aver creato problemi imprevisti, esponendo la piattaforma a critiche per la mancanza di filtri adeguati sulle risposte generate dall’AI.

Musk tra controllo dell’informazione e libertà digitale

Questi due episodi – il fact-checking su Meta e la gaffe di Grok – dimostrano quanto sia delicato il ruolo dell’intelligenza artificiale nella gestione dell’informazione digitale.

Da una parte, Musk combatte contro il controllo dei contenuti da parte delle Big Tech, criticando qualsiasi iniziativa che possa limitare la libertà di parola sulle piattaforme social. Dall’altra, il suo stesso chatbot AI dimostra quanto sia difficile mantenere un equilibrio tra libertà di espressione e moderazione responsabile, specialmente quando le risposte possono avere impatti politici e mediatici significativi.

Mentre Meta prosegue con la sua strategia basata sul coinvolgimento degli utenti nella verifica dei contenuti, Musk dovrà affrontare le sfide tecniche e reputazionali legate a Grok, soprattutto se vuole che xAI diventi un vero concorrente di OpenAI e Google nel settore dell’intelligenza artificiale.

Il futuro dell’AI generativa e del fact-checking rimane incerto, ma una cosa è chiara: la battaglia per il controllo dell’informazione online è appena iniziata.

Di Maria Silvano

Pedagogista appassionata di tecnologia, società e cultura digitale. Mi occupo di orientamento e mentoring soprattutto per quanto riguarda il mondo adolescenziale e le sue problematiche. Ho un occhio attento sempre ai social network per comprendere l'evoluzione delle abitudini sociali delle nuove generazioni e dei comportamenti della massa in generale.

Exit mobile version