ChatGPT conferma violazione dati, aumentano preoccupazioni sulla sicurezza

da Livio Varriale
0 commenti 1 minuti leggi

ChatGPT, la popolare applicazione di intelligenza artificiale sviluppata da OpenAI, ha recentemente subito una violazione dei dati, sollevando preoccupazioni sulla sicurezza dei suoi utenti e sul futuro dell’intelligenza artificiale.

Un successo immediato

Dalla sua introduzione alla fine del 2022, ChatGPT è diventato rapidamente popolare tra scrittori e sviluppatori di software. Nonostante alcune risposte imperfette, l’app ha raggiunto oltre 100 milioni di utenti mensili entro gennaio, con circa 13 milioni di persone che utilizzavano la tecnologia quotidianamente.

Annunci

La violazione dei dati

La violazione dei dati di ChatGPT è stata causata da una vulnerabilità nella libreria open-source Redis. Ciò ha permesso agli utenti di vedere la cronologia delle chat di altri utenti attivi. OpenAI ha risolto il problema in pochi giorni dalla sua scoperta.

Implicazioni sulla sicurezza e privacy

Sebbene la violazione dei dati sia stata gestita rapidamente e abbia avuto un impatto limitato, l’incidente mette in evidenza i rischi futuri per chatbot e utenti. Già ora esistono preoccupazioni sulla privacy legate all’uso dei chatbot, poiché l’intelligenza artificiale memorizza grandi quantità di dati che possono essere utilizzati per generare risposte a domande e richieste.

Restrizioni sull’uso dell’IA

A causa delle preoccupazioni sulla privacy, alcune aziende e interi paesi stanno adottando restrizioni sull’uso di ChatGPT. JPMorgan Chase ha limitato l’utilizzo dell’app dai suoi dipendenti, mentre l’Italia ha temporaneamente bloccato l’applicazione nel paese citando la protezione dei dati personali dei cittadini e la conformità al GDPR.

OpenAI e la sicurezza futura

OpenAI sta prendendo misure per prevenire future violazioni dei dati all’interno dell’applicazione, offrendo un programma di bug bounty fino a $20.000 per chi scopre vulnerabilità non segnalate. Tuttavia, il programma non copre i problemi legati alla sicurezza del modello o alle “allucinazioni” del chatbot.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara