L'Altra Bolla
Reddit: modello AI contro le molestie
Tempo di lettura: 2 minuti. Reddit: modello AI per rilevare le molestie, addestrato su contenuti violatori e azioni dei moderatori per migliorare la piattaforma
Un recente teardown di Android Authority ha rivelato che Reddit intende utilizzare un modello di intelligenza artificiale (AI) per individuare comportamenti di molestie sulla sua piattaforma. Questo modello AI, un Large Language Model (LLM), è addestrato su contenuti precedentemente segnalati per aver violato i termini di servizio di Reddit.
Innovazione nella Moderazione
Il teardown della versione 2024.10.0 dell’app Reddit per Android ha messo in luce l’uso di questo LLM per il rilevamento delle molestie. Reddit ha anche aggiornato la sua pagina di supporto una settimana fa, menzionando l’utilizzo di un modello AI come parte del suo filtro anti-molestie. Questo filtro si basa su azioni dei moderatori e contenuti rimossi dagli strumenti interni e dai team di controllo di Reddit.
Potenziale Impatto
Questo strumento aggiuntivo potrebbe rivelarsi prezioso per i moderatori nella lotta ai contenuti indesiderati su Reddit. Resta da vedere quanto efficacemente questo modello AI sarà in grado di individuare i contenuti che meritano di essere segnalati.
Cos’è Reddit?
Reddit è una piattaforma online di social media e di aggregazione di contenuti dove gli utenti possono condividere, discutere e votare su vari argomenti, chiamati “subreddit”, che vanno dalla politica alla cultura popolare, dalla tecnologia all’arte, e molto altro ancora. Fondato nel 2005 da Steve Huffman e Alexis Ohanian, Reddit è diventato uno dei siti web più popolari al mondo, con milioni di utenti attivi e migliaia di subreddit su una vasta gamma di argomenti.
Le caratteristiche principali di Reddit includono:
- Subreddit: I subreddit sono comunità online dedicate a argomenti specifici, dove gli utenti possono pubblicare contenuti, fare domande, condividere notizie e partecipare a discussioni. Ci sono subreddit su praticamente ogni argomento immaginabile, e gli utenti possono iscriversi ai subreddit che trovano interessanti.
- Upvote e Downvote: Gli utenti possono votare su contenuti e commenti, assegnando loro un “upvote” se li trovano utili o interessanti, o un “downvote” se li ritengono irrilevanti o inappropriati. Questo sistema di votazione influisce sulla visibilità dei contenuti sulla piattaforma, con i contenuti più votati che salgono nella classifica dei subreddit e sulla homepage di Reddit.
- Thread di commenti: Ogni post su Reddit ha un thread di commenti associato, dove gli utenti possono rispondere, fare domande e discutere del contenuto pubblicato. I commenti sono organizzati in ordine cronologico e possono essere votati dagli altri utenti.
- Karma: Gli utenti accumulano “karma” sulla piattaforma in base ai voti ricevuti sui loro contenuti e commenti. Il karma non ha alcun valore tangibile, ma può essere considerato come una sorta di reputazione o status all’interno della comunità Reddit.
- Moderazione comunitaria: I subreddit sono gestiti da moderatori, che sono membri della comunità incaricati di applicare le regole del subreddit, rimuovere contenuti inappropriati e mantenere l’ordine all’interno della comunità. La moderazione è solitamente svolta in modo collaborativo, con i moderatori che lavorano insieme alla comunità per garantire un ambiente sano e rispettoso.
Reddit è diventato un luogo di incontro per milioni di persone in tutto il mondo, offrendo un mix unico di contenuti, discussioni e interazioni sociali su una vasta gamma di argomenti. La sua natura decentralizzata e basata sulla comunità lo rende un luogo vibrante e diversificato per esplorare interessi comuni e scoprire nuove idee.
L'Altra Bolla
Innovazioni e regolamenti: Bluesky, WhatsApp, Australia e Discord
Tempo di lettura: 3 minuti. Bluesky e AI, WhatsApp e Meta AI, normative australiane e aggiornamenti Discord: scopri come innovazione ed etica ridefiniscono il 2024 tecnologico.
Dall’uso dei post di Bluesky per addestrare modelli di intelligenza artificiale, agli sforzi di WhatsApp per integrare Meta AI, passando per le nuove regolamentazioni australiane contro le big tech e le migliorie di Discord, il panorama tecnologico globale continua a evolversi tra innovazione e dibattiti etici.
Bluesky: post pubblici e la controversia sull’addestramento AI
Bluesky, alternativa decentralizzata a X, è al centro di una polemica sull’utilizzo non autorizzato dei post pubblici per addestrare modelli di intelligenza artificiale. Il problema si è acuito con la pubblicazione di dataset contenenti milioni di contenuti della piattaforma su Hugging Face, una piattaforma per lo sviluppo di AI open-source.
Nonostante la rimozione di alcuni dataset, altri, spesso privi di anonimizzazione, continuano a proliferare. La questione solleva interrogativi sull’adeguatezza delle normative come il GDPR, che non coprono del tutto il trattamento dei dati in contesti decentralizzati come Bluesky. Questo episodio mette in evidenza i limiti della regolamentazione attuale e la necessità di soluzioni più robuste per proteggere la privacy degli utenti.
WhatsApp e Meta AI: nuove funzionalità per la verifica dei messaggi
WhatsApp sta testando una funzionalità che consente di inoltrare messaggi a Meta AI per verificarne il contenuto e l’autenticità. Questa opzione, attualmente in fase di sviluppo su Android, permette agli utenti di aggiungere domande specifiche per ottenere risposte contestualizzate dall’intelligenza artificiale.
L’obiettivo è fornire strumenti che aiutino a combattere disinformazione e truffe, un problema sempre più rilevante sulle piattaforme di messaggistica. Se implementata con successo, questa funzione potrebbe rappresentare un nuovo standard per la sicurezza online nelle applicazioni di messaggistica.
Australia contro le big tech: multe milionarie per le piattaforme social
L’Australia ha introdotto nuove regolamentazioni che obbligano colossi tecnologici come Meta e Google a compensare i media locali per i contenuti condivisi sulle loro piattaforme. Se non rispettate, queste aziende rischiano multe che superano milioni di dollari.
La normativa segue una legge del 2021 che già imponeva pagamenti ai media australiani per il traffico generato dai contenuti, una misura che aveva portato a un breve blocco delle notizie su Facebook in Australia. Tuttavia, Meta ha dichiarato che non rinnoverà gli accordi di compensazione, riducendo progressivamente la visibilità dei contenuti di news.
Questo regolamento rappresenta un ulteriore passo nella strategia australiana per regolare le piattaforme tecnologiche, in linea con misure come il divieto per i minori di 16 anni di accedere ai social media e le sanzioni per il mancato controllo delle truffe online.
Discord: aggiornamenti di dicembre e pausa invernale
Discord ha annunciato miglioramenti nella stabilità, reattività e correzione di bug per le sue piattaforme con le Patch Notes di dicembre 2024. La società, che terminerà l’anno con una pausa per il team tecnico, ha incoraggiato gli utenti a segnalare eventuali problemi tramite i canali dedicati, promettendo di integrare nuove funzionalità nel 2025.
Tra le aree migliorate spiccano:
- Una maggiore efficienza nell’uso delle risorse di sistema per garantire prestazioni ottimali.
- Bug fix per funzioni legate alla chat vocale e ai server.
- Ottimizzazioni nell’interfaccia utente per una navigazione più intuitiva.
Questi aggiornamenti sottolineano l’impegno di Discord nel mantenere alta la qualità del servizio, in un contesto sempre più competitivo tra piattaforme di comunicazione.
Dalla gestione etica dei dati su Bluesky all’integrazione di AI su WhatsApp, fino alle regolamentazioni in Australia e alle migliorie di Discord, il 2024 si chiude con riflessioni su innovazione, etica e responsabilità delle big tech. Questi sviluppi mostrano come il settore tecnologico continui a essere al centro di dibattiti cruciali per il futuro digitale.
L'Altra Bolla
Bluesky dichiara guerra alle false identità con nuove verifiche
Tempo di lettura: 2 minuti. Bluesky adotta misure contro le false identità con nuove politiche di verifica. Scopri come la piattaforma punta a garantire autenticità e trasparenza.
Bluesky, il social media emergente che sta guadagnando popolarità, ha annunciato un importante aggiornamento delle sue politiche per contrastare le false identità sulla piattaforma. Dopo aver rilevato numerosi account falsi che imitavano utenti popolari, Bluesky ha deciso di adottare misure più severe per proteggere l’autenticità degli utenti e prevenire abusi.
Nuove regole per la verifica e la trasparenza
A differenza di altre piattaforme come X (precedentemente Twitter), dove è sufficiente acquistare un badge di verifica, Bluesky richiede che gli utenti colleghino i loro account a siti web di proprietà, un processo meno immediato ma più affidabile. Per aiutare personalità pubbliche e aziende a verificare la propria identità, Bluesky sta collaborando attivamente con loro.
Inoltre, la piattaforma ha introdotto linee guida che obbligano gli account parodistici o fan account a dichiarare chiaramente la loro natura. Gli account che non rispettano questa regola rischiano la rimozione.
Protezione contro l’abuso di username
Un problema emerso riguarda la disponibilità degli username dopo che un account è stato verificato. Questo processo può creare confusione e favorire l’abuso da parte di impostori. Bluesky sta lavorando per limitare questi episodi, impedendo cambiamenti rapidi di identità da parte degli utenti per eludere i divieti.
Implicazioni per la crescita della piattaforma
Bluesky si trova in una fase di espansione esponenziale e affronta sfide simili a quelle già vissute da altre piattaforme come Threads e X. La verifica dell’identità è fondamentale per prevenire la diffusione di disinformazione e frodi. Tuttavia, c’è il rischio che queste politiche possano influire sulla privacy degli utenti che necessitano dell’anonimato per motivi di sicurezza.
Verso una piattaforma più sicura e autentica
Bluesky intende bilanciare il bisogno di trasparenza con la protezione della privacy, rendendo la piattaforma un luogo più sicuro e affidabile per la comunicazione online senza false identità. Le prossime mosse potrebbero includere ulteriori strumenti di autenticazione, ma per ora la sfida rimane quella di implementare queste politiche senza compromettere l’esperienza utente.
L'Altra Bolla
Social media: Meta e TikTok contro frodi e money mule
Tempo di lettura: 2 minuti. Le frodi sui social media crescono: scam centers e money mule su Instagram e TikTok minacciano la sicurezza online.
L’utilizzo illecito delle piattaforme social media per attività criminali è in costante crescita soprattutto per quanto riguarda le frodi. Da un lato, i cosiddetti scam centers, vere e proprie organizzazioni criminali che sfruttano le vulnerabilità degli utenti, hanno trovato un terreno fertile su piattaforme come Facebook e Instagram. Dall’altro, TikTok e Instagram sono spesso utilizzati per reclutare money mule, individui coinvolti nel riciclaggio di denaro.
Secondo Meta, gli scam centers operano principalmente nel Sud-Est asiatico, dove decine di migliaia di persone vengono costrette a partecipare a truffe online come il pig butchering, una tecnica che prevede la costruzione di relazioni digitali con le vittime per indurle a investire in schemi fraudolenti, spesso legati a criptovalute. Un rapporto dell’US Institute of Peace ha stimato che queste operazioni coinvolgono oltre 300.000 lavoratori sfruttati, con perdite globali per le vittime pari a 64 miliardi di dollari nel 2023.
Meta ha collaborato attivamente con forze dell’ordine locali per contrastare queste reti criminali, rimuovendo oltre 2 milioni di account sospetti nel corso del 2024. Parallelamente, TikTok ha intensificato i controlli sui contenuti, bloccando quasi il 96% dei video legati a frodi prima che venissero segnalati dagli utenti. Tuttavia, la portata del problema richiede una risposta globale più strutturata e un maggiore coinvolgimento delle istituzioni internazionali.
Money mule: il lato oscuro del lusso su Instagram e TikTok
Parallelamente agli scam centers, Instagram e TikTok sono diventati strumenti privilegiati per il reclutamento di money mule, persone utilizzate per trasferire denaro illecito tra conti bancari. Attraverso post che mostrano uno stile di vita lussuoso e promesse di guadagni facili, i criminali attirano individui spesso ignari delle implicazioni legali.
Le conseguenze per chi si lascia coinvolgere possono essere devastanti: pene detentive fino a 14 anni per complicità in riciclaggio di denaro, il congelamento dei conti bancari e il blocco dell’accesso al credito. Storie come quella di Derai, un giovane britannico, illustrano il rischio di agire inconsapevolmente come intermediari per fondi illeciti. Nonostante le sue buone intenzioni, il suo coinvolgimento ha portato al congelamento dei suoi conti per sei anni, compromettendo gravemente la sua situazione finanziaria.
Le piattaforme social hanno avviato iniziative per contrastare il fenomeno, come l’uso di messaggi di allerta che segnalano potenziali truffe agli utenti. Tuttavia, il reclutamento di money mule evidenzia una falla più profonda nell’ecosistema digitale, dove i contenuti manipolatori continuano a proliferare grazie a strategie sempre più sofisticate.
La lotta contro queste attività richiede non solo maggiore consapevolezza da parte degli utenti, ma anche la collaborazione tra piattaforme tecnologiche, banche e governi. Solo un’azione coordinata potrà arginare l’uso illecito dei social media, proteggendo le persone più vulnerabili da frodi e sfruttamento.
-
Smartphone1 settimana ago
Realme GT 7 Pro vs Motorola Edge 50 Ultra: quale scegliere?
-
Smartphone1 settimana ago
OnePlus 13 vs Google Pixel 9 Pro XL: scegliere o aspettare?
-
Smartphone1 settimana ago
Samsung Galaxy Z Flip 7: il debutto dell’Exynos 2500
-
Smartphone7 giorni ago
Redmi Note 14 Pro+ vs 13 Pro+: quale scegliere?
-
Sicurezza Informatica5 giorni ago
BadBox su IoT, Telegram e Viber: Germania e Russia rischiano
-
Economia1 settimana ago
Controversie e investimenti globali: Apple, Google e TikTok
-
Sicurezza Informatica13 ore ago
Nvidia, SonicWall e Apache Struts: vulnerabilità critiche e soluzioni
-
Sicurezza Informatica1 settimana ago
Vulnerabilità cavi USB-C, Ivanti, WPForms e aggiornamenti Adobe