L'Altra Bolla
Meta Thrive contro i suicidi, ma usa foto di minori per l’IA
Tempo di lettura: 2 minuti. Meta lancia il programma “Thrive” contro i contenuti suicidi e affronta critiche per la raccolta di foto di bambini australiani per l’addestramento dell’IA senza consenso.
Recentemente, Meta ha lanciato iniziative legate alla gestione dei dati che hanno sollevato discussioni globali nel bene e nel male: da un lato ha introdotto Thrive, un programma per condividere dati relativi a contenuti suicidi e di autolesionismo tra piattaforme social, mentre dall’altro è stata criticata per l’uso di foto pubbliche di minori australiani per l’addestramento dei propri modelli di intelligenza artificiale senza un’opzione di consenso esplicito.
Meta lancia il programma “Thrive” per affrontare i contenuti suicidi
Meta ha collaborato con la Mental Health Coalition per lanciare Thrive, un programma che consente alle piattaforme social, tra cui Snap e TikTok, di condividere segnali relativi a contenuti che violano le norme sui suicidi e l’autolesionismo. L’iniziativa mira a impedire la diffusione di contenuti pericolosi tra piattaforme diverse, utilizzando un sistema di condivisione di “hash”, ovvero codici numerici che rappresentano immagini o video violenti, senza rivelare informazioni personali sugli utenti.
Tra aprile e giugno 2024, Meta ha rimosso più di 12 milioni di contenuti relativi a suicidi o autolesionismo su Facebook e Instagram. Questo programma rappresenta un passo avanti nella prevenzione della diffusione di contenuti dannosi attraverso una collaborazione tra diverse piattaforme tecnologiche.
Meta utilizza foto di bambini australiani per l’addestramento dell’IA
Parallelamente, Meta è stata al centro di una controversia in Australia, dove è emerso che l’azienda sta raccogliendo foto e post pubblici dagli account di utenti australiani per addestrare i propri modelli di intelligenza artificiale. Diversamente dall’Unione Europea, gli australiani non hanno la possibilità di rifiutare esplicitamente questo utilizzo dei loro dati. Durante un’inchiesta, è stato confermato che Meta raccoglie foto di bambini dalle pagine pubbliche dei profili dei genitori per addestrare le sue IA, suscitando preoccupazioni in merito alla privacy.
Questa pratica ha sollevato interrogativi sull’uso di immagini di minori, in particolare per quegli utenti che hanno creato i propri account prima dei 18 anni. Sebbene Meta affermi di non raccogliere i dati di chi è attualmente minorenne, le immagini di coloro che lo erano all’epoca della creazione del loro account sono potenzialmente soggette a questa raccolta.
Mentre Meta si impegna a combattere contenuti dannosi come quelli legati ai suicidi, le sue pratiche di raccolta dati per l’addestramento dell’intelligenza artificiale sollevano gravi questioni sulla privacy. L’introduzione di strumenti come Thrive rappresenta un progresso nella protezione degli utenti, ma le critiche sulle politiche di raccolta dei dati pubblici richiedono maggiore attenzione, specialmente per quanto riguarda i minori.
L'Altra Bolla
Innovazioni e regolamenti: Bluesky, WhatsApp, Australia e Discord
Tempo di lettura: 3 minuti. Bluesky e AI, WhatsApp e Meta AI, normative australiane e aggiornamenti Discord: scopri come innovazione ed etica ridefiniscono il 2024 tecnologico.
Dall’uso dei post di Bluesky per addestrare modelli di intelligenza artificiale, agli sforzi di WhatsApp per integrare Meta AI, passando per le nuove regolamentazioni australiane contro le big tech e le migliorie di Discord, il panorama tecnologico globale continua a evolversi tra innovazione e dibattiti etici.
Bluesky: post pubblici e la controversia sull’addestramento AI
Bluesky, alternativa decentralizzata a X, è al centro di una polemica sull’utilizzo non autorizzato dei post pubblici per addestrare modelli di intelligenza artificiale. Il problema si è acuito con la pubblicazione di dataset contenenti milioni di contenuti della piattaforma su Hugging Face, una piattaforma per lo sviluppo di AI open-source.
Nonostante la rimozione di alcuni dataset, altri, spesso privi di anonimizzazione, continuano a proliferare. La questione solleva interrogativi sull’adeguatezza delle normative come il GDPR, che non coprono del tutto il trattamento dei dati in contesti decentralizzati come Bluesky. Questo episodio mette in evidenza i limiti della regolamentazione attuale e la necessità di soluzioni più robuste per proteggere la privacy degli utenti.
WhatsApp e Meta AI: nuove funzionalità per la verifica dei messaggi
WhatsApp sta testando una funzionalità che consente di inoltrare messaggi a Meta AI per verificarne il contenuto e l’autenticità. Questa opzione, attualmente in fase di sviluppo su Android, permette agli utenti di aggiungere domande specifiche per ottenere risposte contestualizzate dall’intelligenza artificiale.
L’obiettivo è fornire strumenti che aiutino a combattere disinformazione e truffe, un problema sempre più rilevante sulle piattaforme di messaggistica. Se implementata con successo, questa funzione potrebbe rappresentare un nuovo standard per la sicurezza online nelle applicazioni di messaggistica.
Australia contro le big tech: multe milionarie per le piattaforme social
L’Australia ha introdotto nuove regolamentazioni che obbligano colossi tecnologici come Meta e Google a compensare i media locali per i contenuti condivisi sulle loro piattaforme. Se non rispettate, queste aziende rischiano multe che superano milioni di dollari.
La normativa segue una legge del 2021 che già imponeva pagamenti ai media australiani per il traffico generato dai contenuti, una misura che aveva portato a un breve blocco delle notizie su Facebook in Australia. Tuttavia, Meta ha dichiarato che non rinnoverà gli accordi di compensazione, riducendo progressivamente la visibilità dei contenuti di news.
Questo regolamento rappresenta un ulteriore passo nella strategia australiana per regolare le piattaforme tecnologiche, in linea con misure come il divieto per i minori di 16 anni di accedere ai social media e le sanzioni per il mancato controllo delle truffe online.
Discord: aggiornamenti di dicembre e pausa invernale
Discord ha annunciato miglioramenti nella stabilità, reattività e correzione di bug per le sue piattaforme con le Patch Notes di dicembre 2024. La società, che terminerà l’anno con una pausa per il team tecnico, ha incoraggiato gli utenti a segnalare eventuali problemi tramite i canali dedicati, promettendo di integrare nuove funzionalità nel 2025.
Tra le aree migliorate spiccano:
- Una maggiore efficienza nell’uso delle risorse di sistema per garantire prestazioni ottimali.
- Bug fix per funzioni legate alla chat vocale e ai server.
- Ottimizzazioni nell’interfaccia utente per una navigazione più intuitiva.
Questi aggiornamenti sottolineano l’impegno di Discord nel mantenere alta la qualità del servizio, in un contesto sempre più competitivo tra piattaforme di comunicazione.
Dalla gestione etica dei dati su Bluesky all’integrazione di AI su WhatsApp, fino alle regolamentazioni in Australia e alle migliorie di Discord, il 2024 si chiude con riflessioni su innovazione, etica e responsabilità delle big tech. Questi sviluppi mostrano come il settore tecnologico continui a essere al centro di dibattiti cruciali per il futuro digitale.
L'Altra Bolla
Bluesky dichiara guerra alle false identità con nuove verifiche
Tempo di lettura: 2 minuti. Bluesky adotta misure contro le false identità con nuove politiche di verifica. Scopri come la piattaforma punta a garantire autenticità e trasparenza.
Bluesky, il social media emergente che sta guadagnando popolarità, ha annunciato un importante aggiornamento delle sue politiche per contrastare le false identità sulla piattaforma. Dopo aver rilevato numerosi account falsi che imitavano utenti popolari, Bluesky ha deciso di adottare misure più severe per proteggere l’autenticità degli utenti e prevenire abusi.
Nuove regole per la verifica e la trasparenza
A differenza di altre piattaforme come X (precedentemente Twitter), dove è sufficiente acquistare un badge di verifica, Bluesky richiede che gli utenti colleghino i loro account a siti web di proprietà, un processo meno immediato ma più affidabile. Per aiutare personalità pubbliche e aziende a verificare la propria identità, Bluesky sta collaborando attivamente con loro.
Inoltre, la piattaforma ha introdotto linee guida che obbligano gli account parodistici o fan account a dichiarare chiaramente la loro natura. Gli account che non rispettano questa regola rischiano la rimozione.
Protezione contro l’abuso di username
Un problema emerso riguarda la disponibilità degli username dopo che un account è stato verificato. Questo processo può creare confusione e favorire l’abuso da parte di impostori. Bluesky sta lavorando per limitare questi episodi, impedendo cambiamenti rapidi di identità da parte degli utenti per eludere i divieti.
Implicazioni per la crescita della piattaforma
Bluesky si trova in una fase di espansione esponenziale e affronta sfide simili a quelle già vissute da altre piattaforme come Threads e X. La verifica dell’identità è fondamentale per prevenire la diffusione di disinformazione e frodi. Tuttavia, c’è il rischio che queste politiche possano influire sulla privacy degli utenti che necessitano dell’anonimato per motivi di sicurezza.
Verso una piattaforma più sicura e autentica
Bluesky intende bilanciare il bisogno di trasparenza con la protezione della privacy, rendendo la piattaforma un luogo più sicuro e affidabile per la comunicazione online senza false identità. Le prossime mosse potrebbero includere ulteriori strumenti di autenticazione, ma per ora la sfida rimane quella di implementare queste politiche senza compromettere l’esperienza utente.
L'Altra Bolla
Social media: Meta e TikTok contro frodi e money mule
Tempo di lettura: 2 minuti. Le frodi sui social media crescono: scam centers e money mule su Instagram e TikTok minacciano la sicurezza online.
L’utilizzo illecito delle piattaforme social media per attività criminali è in costante crescita soprattutto per quanto riguarda le frodi. Da un lato, i cosiddetti scam centers, vere e proprie organizzazioni criminali che sfruttano le vulnerabilità degli utenti, hanno trovato un terreno fertile su piattaforme come Facebook e Instagram. Dall’altro, TikTok e Instagram sono spesso utilizzati per reclutare money mule, individui coinvolti nel riciclaggio di denaro.
Secondo Meta, gli scam centers operano principalmente nel Sud-Est asiatico, dove decine di migliaia di persone vengono costrette a partecipare a truffe online come il pig butchering, una tecnica che prevede la costruzione di relazioni digitali con le vittime per indurle a investire in schemi fraudolenti, spesso legati a criptovalute. Un rapporto dell’US Institute of Peace ha stimato che queste operazioni coinvolgono oltre 300.000 lavoratori sfruttati, con perdite globali per le vittime pari a 64 miliardi di dollari nel 2023.
Meta ha collaborato attivamente con forze dell’ordine locali per contrastare queste reti criminali, rimuovendo oltre 2 milioni di account sospetti nel corso del 2024. Parallelamente, TikTok ha intensificato i controlli sui contenuti, bloccando quasi il 96% dei video legati a frodi prima che venissero segnalati dagli utenti. Tuttavia, la portata del problema richiede una risposta globale più strutturata e un maggiore coinvolgimento delle istituzioni internazionali.
Money mule: il lato oscuro del lusso su Instagram e TikTok
Parallelamente agli scam centers, Instagram e TikTok sono diventati strumenti privilegiati per il reclutamento di money mule, persone utilizzate per trasferire denaro illecito tra conti bancari. Attraverso post che mostrano uno stile di vita lussuoso e promesse di guadagni facili, i criminali attirano individui spesso ignari delle implicazioni legali.
Le conseguenze per chi si lascia coinvolgere possono essere devastanti: pene detentive fino a 14 anni per complicità in riciclaggio di denaro, il congelamento dei conti bancari e il blocco dell’accesso al credito. Storie come quella di Derai, un giovane britannico, illustrano il rischio di agire inconsapevolmente come intermediari per fondi illeciti. Nonostante le sue buone intenzioni, il suo coinvolgimento ha portato al congelamento dei suoi conti per sei anni, compromettendo gravemente la sua situazione finanziaria.
Le piattaforme social hanno avviato iniziative per contrastare il fenomeno, come l’uso di messaggi di allerta che segnalano potenziali truffe agli utenti. Tuttavia, il reclutamento di money mule evidenzia una falla più profonda nell’ecosistema digitale, dove i contenuti manipolatori continuano a proliferare grazie a strategie sempre più sofisticate.
La lotta contro queste attività richiede non solo maggiore consapevolezza da parte degli utenti, ma anche la collaborazione tra piattaforme tecnologiche, banche e governi. Solo un’azione coordinata potrà arginare l’uso illecito dei social media, proteggendo le persone più vulnerabili da frodi e sfruttamento.
-
Smartphone1 settimana ago
Realme GT 7 Pro vs Motorola Edge 50 Ultra: quale scegliere?
-
Smartphone1 settimana ago
OnePlus 13 vs Google Pixel 9 Pro XL: scegliere o aspettare?
-
Smartphone1 settimana ago
Samsung Galaxy Z Flip 7: il debutto dell’Exynos 2500
-
Smartphone7 giorni ago
Redmi Note 14 Pro+ vs 13 Pro+: quale scegliere?
-
Sicurezza Informatica5 giorni ago
BadBox su IoT, Telegram e Viber: Germania e Russia rischiano
-
Economia1 settimana ago
Controversie e investimenti globali: Apple, Google e TikTok
-
Sicurezza Informatica13 ore ago
Nvidia, SonicWall e Apache Struts: vulnerabilità critiche e soluzioni
-
Sicurezza Informatica1 settimana ago
Vulnerabilità cavi USB-C, Ivanti, WPForms e aggiornamenti Adobe