L'Altra Bolla
LinkedIn, presto un assistente AI per facilitare la ricerca di lavoro
Tempo di lettura: < 1 minuto. LinkedIn sembra essere al lavoro su un nuovo strumento AI che potrebbe aiutare a semplificare il processo di ricerca e candidatura per un lavoro.
LinkedIn sembra essere al lavoro su un nuovo strumento AI che potrebbe aiutare a semplificare il processo di ricerca e candidatura per un lavoro. Secondo una nuova fuga di notizie, l’azienda di proprietà di Microsoft sembra avere un nuovo assistente “LinkedIn Coach” in fase di test che potrebbe supportarti durante i processi di candidatura, insegnarti nuove competenze e aiutarti a creare una rete sulla tua rete LinkedIn.
La fuga di notizie su LinkedIn Coach
La notizia proviene dal ricercatore di app Nima Owji, che scopre funzionalità di vari sviluppatori che non sono ancora state implementate. In un’email, la portavoce di LinkedIn, Amanda Purvis, ha detto a The Verge che l’azienda è “sempre alla ricerca” di nuovi modi per migliorare l’esperienza utente sulla piattaforma. Purvis ha aggiunto che l’azienda “avrà presto di più da condividere”.
Come funziona LinkedIn Coach
L’immagine che Owji sembra aver preso da LinkedIn suggerisce che gli utenti chiedano al chatbot cose come “Come funziona Coach?” o “Qual è la cultura di Microsoft?”. Poiché LinkedIn è di proprietà di Microsoft, è prevedibile che gli assistenti alimentati da AI facciano la loro comparsa sulla piattaforma social professionale in un certo momento.
Microsoft e i chatbot
Microsoft sta inserendo chatbot in tutto, da Bing al generatore di documenti Office Copilot, per il quale ha appena annunciato un prezzo elevato la scorsa settimana. L’azienda ha anche appena lanciato un chatbot di codifica per GitHub in beta.
L'Altra Bolla
Innovazioni e regolamenti: Bluesky, WhatsApp, Australia e Discord
Tempo di lettura: 3 minuti. Bluesky e AI, WhatsApp e Meta AI, normative australiane e aggiornamenti Discord: scopri come innovazione ed etica ridefiniscono il 2024 tecnologico.
Dall’uso dei post di Bluesky per addestrare modelli di intelligenza artificiale, agli sforzi di WhatsApp per integrare Meta AI, passando per le nuove regolamentazioni australiane contro le big tech e le migliorie di Discord, il panorama tecnologico globale continua a evolversi tra innovazione e dibattiti etici.
Bluesky: post pubblici e la controversia sull’addestramento AI
Bluesky, alternativa decentralizzata a X, è al centro di una polemica sull’utilizzo non autorizzato dei post pubblici per addestrare modelli di intelligenza artificiale. Il problema si è acuito con la pubblicazione di dataset contenenti milioni di contenuti della piattaforma su Hugging Face, una piattaforma per lo sviluppo di AI open-source.
Nonostante la rimozione di alcuni dataset, altri, spesso privi di anonimizzazione, continuano a proliferare. La questione solleva interrogativi sull’adeguatezza delle normative come il GDPR, che non coprono del tutto il trattamento dei dati in contesti decentralizzati come Bluesky. Questo episodio mette in evidenza i limiti della regolamentazione attuale e la necessità di soluzioni più robuste per proteggere la privacy degli utenti.
WhatsApp e Meta AI: nuove funzionalità per la verifica dei messaggi
WhatsApp sta testando una funzionalità che consente di inoltrare messaggi a Meta AI per verificarne il contenuto e l’autenticità. Questa opzione, attualmente in fase di sviluppo su Android, permette agli utenti di aggiungere domande specifiche per ottenere risposte contestualizzate dall’intelligenza artificiale.
L’obiettivo è fornire strumenti che aiutino a combattere disinformazione e truffe, un problema sempre più rilevante sulle piattaforme di messaggistica. Se implementata con successo, questa funzione potrebbe rappresentare un nuovo standard per la sicurezza online nelle applicazioni di messaggistica.
Australia contro le big tech: multe milionarie per le piattaforme social
L’Australia ha introdotto nuove regolamentazioni che obbligano colossi tecnologici come Meta e Google a compensare i media locali per i contenuti condivisi sulle loro piattaforme. Se non rispettate, queste aziende rischiano multe che superano milioni di dollari.
La normativa segue una legge del 2021 che già imponeva pagamenti ai media australiani per il traffico generato dai contenuti, una misura che aveva portato a un breve blocco delle notizie su Facebook in Australia. Tuttavia, Meta ha dichiarato che non rinnoverà gli accordi di compensazione, riducendo progressivamente la visibilità dei contenuti di news.
Questo regolamento rappresenta un ulteriore passo nella strategia australiana per regolare le piattaforme tecnologiche, in linea con misure come il divieto per i minori di 16 anni di accedere ai social media e le sanzioni per il mancato controllo delle truffe online.
Discord: aggiornamenti di dicembre e pausa invernale
Discord ha annunciato miglioramenti nella stabilità, reattività e correzione di bug per le sue piattaforme con le Patch Notes di dicembre 2024. La società, che terminerà l’anno con una pausa per il team tecnico, ha incoraggiato gli utenti a segnalare eventuali problemi tramite i canali dedicati, promettendo di integrare nuove funzionalità nel 2025.
Tra le aree migliorate spiccano:
- Una maggiore efficienza nell’uso delle risorse di sistema per garantire prestazioni ottimali.
- Bug fix per funzioni legate alla chat vocale e ai server.
- Ottimizzazioni nell’interfaccia utente per una navigazione più intuitiva.
Questi aggiornamenti sottolineano l’impegno di Discord nel mantenere alta la qualità del servizio, in un contesto sempre più competitivo tra piattaforme di comunicazione.
Dalla gestione etica dei dati su Bluesky all’integrazione di AI su WhatsApp, fino alle regolamentazioni in Australia e alle migliorie di Discord, il 2024 si chiude con riflessioni su innovazione, etica e responsabilità delle big tech. Questi sviluppi mostrano come il settore tecnologico continui a essere al centro di dibattiti cruciali per il futuro digitale.
L'Altra Bolla
Bluesky dichiara guerra alle false identità con nuove verifiche
Tempo di lettura: 2 minuti. Bluesky adotta misure contro le false identità con nuove politiche di verifica. Scopri come la piattaforma punta a garantire autenticità e trasparenza.
Bluesky, il social media emergente che sta guadagnando popolarità, ha annunciato un importante aggiornamento delle sue politiche per contrastare le false identità sulla piattaforma. Dopo aver rilevato numerosi account falsi che imitavano utenti popolari, Bluesky ha deciso di adottare misure più severe per proteggere l’autenticità degli utenti e prevenire abusi.
Nuove regole per la verifica e la trasparenza
A differenza di altre piattaforme come X (precedentemente Twitter), dove è sufficiente acquistare un badge di verifica, Bluesky richiede che gli utenti colleghino i loro account a siti web di proprietà, un processo meno immediato ma più affidabile. Per aiutare personalità pubbliche e aziende a verificare la propria identità, Bluesky sta collaborando attivamente con loro.
Inoltre, la piattaforma ha introdotto linee guida che obbligano gli account parodistici o fan account a dichiarare chiaramente la loro natura. Gli account che non rispettano questa regola rischiano la rimozione.
Protezione contro l’abuso di username
Un problema emerso riguarda la disponibilità degli username dopo che un account è stato verificato. Questo processo può creare confusione e favorire l’abuso da parte di impostori. Bluesky sta lavorando per limitare questi episodi, impedendo cambiamenti rapidi di identità da parte degli utenti per eludere i divieti.
Implicazioni per la crescita della piattaforma
Bluesky si trova in una fase di espansione esponenziale e affronta sfide simili a quelle già vissute da altre piattaforme come Threads e X. La verifica dell’identità è fondamentale per prevenire la diffusione di disinformazione e frodi. Tuttavia, c’è il rischio che queste politiche possano influire sulla privacy degli utenti che necessitano dell’anonimato per motivi di sicurezza.
Verso una piattaforma più sicura e autentica
Bluesky intende bilanciare il bisogno di trasparenza con la protezione della privacy, rendendo la piattaforma un luogo più sicuro e affidabile per la comunicazione online senza false identità. Le prossime mosse potrebbero includere ulteriori strumenti di autenticazione, ma per ora la sfida rimane quella di implementare queste politiche senza compromettere l’esperienza utente.
L'Altra Bolla
Social media: Meta e TikTok contro frodi e money mule
Tempo di lettura: 2 minuti. Le frodi sui social media crescono: scam centers e money mule su Instagram e TikTok minacciano la sicurezza online.
L’utilizzo illecito delle piattaforme social media per attività criminali è in costante crescita soprattutto per quanto riguarda le frodi. Da un lato, i cosiddetti scam centers, vere e proprie organizzazioni criminali che sfruttano le vulnerabilità degli utenti, hanno trovato un terreno fertile su piattaforme come Facebook e Instagram. Dall’altro, TikTok e Instagram sono spesso utilizzati per reclutare money mule, individui coinvolti nel riciclaggio di denaro.
Secondo Meta, gli scam centers operano principalmente nel Sud-Est asiatico, dove decine di migliaia di persone vengono costrette a partecipare a truffe online come il pig butchering, una tecnica che prevede la costruzione di relazioni digitali con le vittime per indurle a investire in schemi fraudolenti, spesso legati a criptovalute. Un rapporto dell’US Institute of Peace ha stimato che queste operazioni coinvolgono oltre 300.000 lavoratori sfruttati, con perdite globali per le vittime pari a 64 miliardi di dollari nel 2023.
Meta ha collaborato attivamente con forze dell’ordine locali per contrastare queste reti criminali, rimuovendo oltre 2 milioni di account sospetti nel corso del 2024. Parallelamente, TikTok ha intensificato i controlli sui contenuti, bloccando quasi il 96% dei video legati a frodi prima che venissero segnalati dagli utenti. Tuttavia, la portata del problema richiede una risposta globale più strutturata e un maggiore coinvolgimento delle istituzioni internazionali.
Money mule: il lato oscuro del lusso su Instagram e TikTok
Parallelamente agli scam centers, Instagram e TikTok sono diventati strumenti privilegiati per il reclutamento di money mule, persone utilizzate per trasferire denaro illecito tra conti bancari. Attraverso post che mostrano uno stile di vita lussuoso e promesse di guadagni facili, i criminali attirano individui spesso ignari delle implicazioni legali.
Le conseguenze per chi si lascia coinvolgere possono essere devastanti: pene detentive fino a 14 anni per complicità in riciclaggio di denaro, il congelamento dei conti bancari e il blocco dell’accesso al credito. Storie come quella di Derai, un giovane britannico, illustrano il rischio di agire inconsapevolmente come intermediari per fondi illeciti. Nonostante le sue buone intenzioni, il suo coinvolgimento ha portato al congelamento dei suoi conti per sei anni, compromettendo gravemente la sua situazione finanziaria.
Le piattaforme social hanno avviato iniziative per contrastare il fenomeno, come l’uso di messaggi di allerta che segnalano potenziali truffe agli utenti. Tuttavia, il reclutamento di money mule evidenzia una falla più profonda nell’ecosistema digitale, dove i contenuti manipolatori continuano a proliferare grazie a strategie sempre più sofisticate.
La lotta contro queste attività richiede non solo maggiore consapevolezza da parte degli utenti, ma anche la collaborazione tra piattaforme tecnologiche, banche e governi. Solo un’azione coordinata potrà arginare l’uso illecito dei social media, proteggendo le persone più vulnerabili da frodi e sfruttamento.
-
Smartphone1 settimana ago
Realme GT 7 Pro vs Motorola Edge 50 Ultra: quale scegliere?
-
Smartphone1 settimana ago
OnePlus 13 vs Google Pixel 9 Pro XL: scegliere o aspettare?
-
Smartphone1 settimana ago
Samsung Galaxy Z Flip 7: il debutto dell’Exynos 2500
-
Smartphone6 giorni ago
Redmi Note 14 Pro+ vs 13 Pro+: quale scegliere?
-
Sicurezza Informatica4 giorni ago
BadBox su IoT, Telegram e Viber: Germania e Russia rischiano
-
Economia1 settimana ago
Controversie e investimenti globali: Apple, Google e TikTok
-
Sicurezza Informatica9 ore ago
Nvidia, SonicWall e Apache Struts: vulnerabilità critiche e soluzioni
-
Sicurezza Informatica5 giorni ago
PUMAKIT: analisi del RootKit malware Linux