Jerry Cuomo, CTO di IBM Automation, ha recentemente pubblicato un post sul blog in cui elenca ciò che ritiene siano diversi rischi associati all’uso di ChatGPT per le imprese.
Dettagli dei rischi
Secondo il post, ci sono diverse aree di rischio chiave che le aziende dovrebbero considerare prima di utilizzare ChatGPT. Cuomo conclude che solo i dati non sensibili sono sicuri con ChatGPT. Afferma: “Una volta che i tuoi dati entrano in ChatGPT, non hai controllo o conoscenza di come vengono utilizzati”. Questo tipo di perdita involontaria di dati potrebbe anche mettere le aziende in una posizione legale difficile se i dati di partner, clienti o clienti vengono esposti al pubblico dopo essere stati inseriti nei dati di addestramento di ChatGPT.
Cuomo cita ulteriormente rischi per la proprietà intellettuale e la possibilità che le perdite possano mettere le aziende in violazione degli accordi open-source. Secondo il post di IBM: “Se informazioni sensibili di terze parti o interne all’azienda vengono inserite in ChatGPT, diventano parte del modello di dati del chatbot e possono essere condivise con altri che pongono domande pertinenti”. Tuttavia, in risposta a questa affermazione, un intermediario delle relazioni pubbliche di OpenAI ha dichiarato via email: “i dati non verranno condivisi con altri che pongono domande pertinenti”.
Ulteriori informazioni
Il rappresentante ha inoltre fatto riferimento alla documentazione esistente sulle funzionalità di privacy di ChatGPT, incluso un post sul blog che dettaglia la capacità degli utenti web di disattivare la loro cronologia delle chat. L’API di ChatGPT ha la condivisione dei dati disattivata di default, secondo OpenAI. Tuttavia, i critici hanno sottolineato che le conversazioni nella versione web vengono salvate di default. Gli utenti devono anche scegliere di non salvare le loro conversazioni e di non utilizzare i loro dati per addestrare il modello. Al momento, non esiste un’opzione per conservare le conversazioni senza accettare di condividere i dati.