OpenAI affronta una crisi della privacy: ChatGPT inventa bugie mortali, le autorità di regolamentazione europee chiedono conto all'azienda
Il chatbot di OpenAI, ChatGPT, è di nuovo al centro di denunce per violazione della privacy in Europa dopo aver inventato menzogne mortali su un utente. La denuncia è stata presentata dal gruppo di difesa dei diritti alla privacy Noyb, sostenuto da un norvegese rimasto scioccato nello scoprire che ChatGPT aveva creato una falsa storia in cui sosteneva di aver ucciso due bambini e tentato di ucciderne un terzo.
Questo incidente evidenzia i rischi che ChatGPT generi informazioni inaccurate, sollevando notevoli preoccupazioni in merito alla protezione dei dati e alle responsabilità in materia di privacy. Noyb sostiene che le azioni di ChatGPT violano la Regolamento generale sulla protezione dei dati (GDPR) dell'Unione Europea, in particolare per quanto riguarda l'accuratezza e la correzione dei dati personali.
“Caso di omicidio inventato” sconvolge la comunità locale
L'uomo in questione, Arve Hjalmar Holmen, è rimasto sconcertato quando ha iniziato una conversazione con ChatGPT, chiedendo all'IA alcune informazioni su di sé. Invece di fornire dettagli accurati, l'IA ha inventato una versione completamente falsa, sostenendo che Holmen fosse stato condannato per l'omicidio di due figli e per il tentativo di ucciderne un terzo. Sebbene la risposta dell'IA fosse in parte veritiera riguardo al numero e al sesso dei figli, la storia inventata dell'omicidio è stata profondamente inquietante.
Noyb sottolinea che, nonostante la parziale accuratezza di alcuni dettagli, come il sesso dei bambini e la residenza della famiglia, la falsa accusa di omicidio ha causato un notevole disagio emotivo a Holmen.
Privacy e accuratezza dei dati: una dura prova per il GDPR
Il team legale di Noyb sostiene che il GDPR impone chiaramente l'accuratezza dei dati personali e che gli individui hanno il diritto di richiederne la correzione in caso di inesattezze. La breve clausola di esclusione di responsabilità inclusa da OpenAI, che afferma che l'IA potrebbe sbagliarsi, non la esonera da ogni responsabilità. OpenAI deve assumersi la responsabilità per aver generato informazioni false.
Ai sensi del GDPR, i titolari del trattamento dei dati (in questo caso, OpenAI) devono garantire che tutti i dati personali trattati siano accurati e che gli utenti dispongano di un meccanismo chiaro per correggere gli errori. Tuttavia, ChatGPT non offre attualmente un mezzo per correggere le informazioni false, il che potrebbe esporre l'azienda a potenziali sanzioni. Infatti, le violazioni del GDPR possono comportare multe fino al 4% del fatturato annuo globale di un'azienda.
I regolatori europei rafforzano la responsabilità legale
Questo caso ha attirato notevole attenzione da parte delle autorità di regolamentazione europee, sempre più preoccupate per i contenuti generati dall'IA. Noyb ha presentato un reclamo in Norvegia, sollecitando le autorità di regolamentazione competenti a condurre un'indagine approfondita sulle pratiche di OpenAI. Sono in corso anche altri casi correlati. Ad esempio, Autorità di controllo della privacy polacca non ha ancora rilasciato una risposta formale al ChatGPT di OpenAI da settembre 2023.
Sebbene alcuni Paesi abbiano adottato un approccio più cauto, affermando di non avere fretta di vietare del tutto gli strumenti di intelligenza artificiale generativa, i pericoli posti dalle informazioni contraffatte potrebbero spingere le autorità di regolamentazione a cambiare posizione. OpenAI ha già dovuto affrontare azioni normative in diversi Paesi, tra cui l'Italia, dove l'azienda è stata temporaneamente bloccata e multata di 15 milioni di euro nel 2023 per non aver rispettato pienamente le normative sulla protezione dei dati.
Problemi di fabbricazione dell'intelligenza artificiale: dall'etica alle sfide legali
Questo caso sottolinea ancora una volta i potenziali rischi posti dall'intelligenza artificiale quando si tratta di fabbricare informazioni, soprattutto dal punto di vista etico e legale. NoybGli avvocati di sostengono che le aziende di intelligenza artificiale non possono semplicemente fare affidamento su clausole di esclusione di responsabilità per sottrarsi alla responsabilità. "Non si può semplicemente aggiungere una clausola di esclusione di responsabilità dicendo 'potremmo sbagliarci' e poi ignorare il danno causato", hanno affermato.
Con la crescente diffusione degli strumenti di intelligenza artificiale, cresce la preoccupazione per il loro potenziale danno alla privacy e alla reputazione degli individui. Le aziende che operano nel settore dell'intelligenza artificiale devono assumersi maggiori responsabilità, non solo evitando la diffusione di informazioni false, ma anche garantendo che tali informazioni non vengano fabbricate in anticipo.
Regolamentazione e responsabilità future: come gestirà OpenAI le sfide della privacy?
Il nuovo reclamo di Noyb rappresenta non solo una sfida per OpenAI, ma anche un problema comune che le aziende di intelligenza artificiale di tutto il mondo si trovano ad affrontare: come garantire che la loro tecnologia non comporti conseguenze legali ed etiche dovute a informazioni contraffatte. Con le autorità di regolamentazione europee che stanno rafforzando i controlli sugli strumenti di intelligenza artificiale, il modo in cui OpenAI risponderà a queste sfide avrà un impatto significativo sulla sua conformità nel mercato globale.
In futuro, potremmo assistere a un aumento dei reclami sulla privacy e delle azioni normative, costringendo le aziende di intelligenza artificiale a dare priorità alla protezione dei dati e ai diritti degli utenti nella progettazione dei loro prodotti. Trovare un equilibrio tra innovazione e tutela della privacy sta rapidamente diventando una questione critica che le aziende di intelligenza artificiale devono affrontare.