L’Italia è in prima linea nella lotta all’intelligenza artificiale? Il paese ha annunciato venerdì di bloccare
Chatbot GPT per problemi di utilizzo dei dati, due mesi dopo aver bandito Replika, un altro programma commercializzato come a “amico virtuale”.
In un comunicato, il Garante per la protezione dei dati personali italiano avverte che la sua decisione ha “effetto immediato” e accusa ChatGPT di non rispettare le normative europee e di non avere un sistema per verificare l’età degli utenti minorenni. Questa decisione comporterà “la limitazione temporanea del trattamento dei dati degli utenti italiani nei confronti di OpenAI”l’azienda dietro l’app, aggiunge.
L’assenza di un filtro
L’Autorità italiana sottolinea nel suo comunicato stampa che ChatGPT “ha subito una perdita di dati il 20 marzo relativa alle conversazioni degli utenti e alle informazioni sui pagamenti degli abbonati al servizio di pagamento”. Anche lei lo incolpa “l’assenza di una nota informativa per gli utenti, i cui dati sono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione in massa dei dati personali, con l’obiettivo di far funzionare gli algoritmi che fanno funzionare la piattaforma”.
Inoltre, sebbene il robot sia destinato a persone di età superiore ai 13 anni, “l’Autorità sottolinea il fatto che l’assenza di qualsiasi filtro per la verifica dell’età degli utenti espone i minori a risposte assolutamente non coerenti con il loro livello di sviluppo”.
Disinformazione e malware
Lo stesso ente aveva bloccato ai primi di febbraio l’applicazione Replika, che propone di chattare con un avatar su misura. Alcuni utenti si erano lamentati di aver ricevuto messaggi e immagini troppo ardite, vicine alle molestie sessuali.
Questa volta, l’Autorità chiede a OpenAI di farlo “comunicare entro 20 giorni le misure adottate” Per porre rimedio a questa situazione, “pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato annuo mondiale”il massimo previsto dal Regolamento Europeo sui Dati Personali (GDPR).
Questo caso dimostra che il GDPR, che ha già comportato miliardi di dollari di multe per i giganti della tecnologia, potrebbe anche diventare il nemico delle nuove IA che generano contenuti. Anche l’Unione Europea sta preparando un disegno di legge per regolamentare l’intelligenza artificiale, che potrebbe essere finalizzato alla fine del 2023 o all’inizio del 2024, per essere applicato qualche anno dopo.
“Una misura eccellente”
“L’Italia sta facendo un grande passo. Infatti, ChatGPT ha una potenza tale che non puoi smettere di usarlo”reagisce Stéphane Roder, CEO di AI Builders, una società di strategia di Data IA. “Viene quindi purtroppo utilizzato in molte aziende su documenti interni che di fatto vengono inviati direttamente a ChatGPT che li ingerisce ed è in grado di farli uscire per un altro utilizzo su altra richiesta esterna all’azienda senza che essa non abbia mezzi di controllo”. Lo specialista aggiunge: “È assolutamente necessario fare lo stesso in Francia”.
L’ospite delle 8:20: la grande intervista
ascolta più tardi
Difensore della musica freelance. Pioniere del cibo. Premiato evangelista zombi. Analista.