ReutersReuters

Il comitato per la protezione dei dati della Ue afferma che ChatGPT non rispetta ancora gli standard di accuratezza dei dati

Gli sforzi di OpenAI per produrre output meno falsi dal punto di vista fattuale dal suo chatbot ChatGPT non sono sufficienti a garantire la piena conformità con le norme dell'Unione europea in materia di dati, ha detto una task force (link) presso il garante della privacy della Ue.

"Sebbene le misure adottate per rispettare il principio di trasparenza siano utili per evitare interpretazioni errate dell'output di ChatGPT, non sono sufficienti per rispettare il principio di accuratezza dei dati", ha detto la task force in un rapporto pubblicato venerdì sul suo sito web.

L'organismo che riunisce le autorità di vigilanza sulla privacy europee ha istituito la task force su ChatGPT l'anno scorso, dopo che i regolatori nazionali, guidati dall'autorità italiana, avevano sollevato preoccupazioni sul servizio di intelligenza artificiale ampiamente utilizzato.

OpenAI non ha risposto immediatamente a una richiesta di commento da parte di Reuters.

Le varie indagini avviate dagli organismi nazionali di vigilanza sulla privacy in alcuni Stati membri sono ancora in corso, si legge nel rapporto, aggiungendo che non è ancora possibile fornire una descrizione completa dei risultati. I risultati devono essere intesi come un "denominatore comune" tra le autorità nazionali.

L'accuratezza dei dati è uno dei principi guida delle norme della Ue in materia di protezione dei dati. (link)

"In effetti, a causa della natura probabilistica del sistema, l'attuale approccio di formazione porta a un modello che può anche produrre risultati distorti o inventati", si legge nel rapporto.

"Inoltre, è probabile che gli output forniti da ChatGPT vengano considerati dagli utenti finali come accurati, comprese le informazioni relative alle persone, a prescindere dalla loro effettiva accuratezza"

Accedi o crea un account gratuito per leggere queste notizie