Hai creato un’action figure con ChatGPT? Attenzione: potresti aver condiviso dati sensibili senza accorgertene.
Il mese scorso, molti utenti hanno condiviso sui social versioni stilizzate di sé stessi trasformate in action figure, create grazie a ChatGPT. Il trend è diventato virale in poche ore ma dietro il gioco creativo, si nasconde un lato poco discusso: il rischio per la privacy.
Per ottenere un risultato realistico, l’utente deve caricare una propria immagine, spesso in alta definizione. Quello che pochi sanno è che ogni foto contiene metadati invisibili: data, ora, posizione GPS, modello del dispositivo e perfino coordinate geografiche. Tutte queste informazioni vengono trasmesse alla piattaforma.
In più, caricando l’immagine si autorizza implicitamente OpenAI a raccogliere dettagli sull’ambiente dello scatto, come lo sfondo, gli oggetti presenti, o altre persone nella foto. Tutti dati che, se combinati, offrono una fotografia digitale molto più completa di quanto si immagini.
Secondo le politiche di utilizzo, OpenAI dichiara di non usare intenzionalmente i contenuti caricati per addestrare i propri modelli. Ma specifica anche che le immagini possono essere conservate e analizzate con lo scopo di migliorare i servizi. In parole semplici: ogni immagine potrebbe contribuire all’evoluzione dell’AI.
Per tutelarsi, è possibile disattivare l’uso dei dati per l’addestramento dei modelli nelle impostazioni di ChatGPT. Inoltre, è fortemente consigliato non caricare foto con informazioni sensibili, rimuovere i metadati prima dell’upload e non collegare contenuti generati al proprio nome o profilo social.
Foto: Shutterstock