L’Italia blocca l’app AI ChatGPT: cosa è successo?

Spicca per AI (Artificial Intelligence) e Italia in particolare ChatGPT. A quanto pare, il garante della privacy Chabot lo ha bloccato perché non rispettava le norme sulla privacy.

Questa notizia è riportata anche nell’ufficiale di watcher.guru Cinguettio Conto, che è il seguente:

Problemi di intelligenza artificiale: perché l’Italia ha bloccato ChatGPT?

Questo venerdì, il Garante per la protezione dei dati personali italiano ha imposto un divieto temporaneo al trattamento dei dati degli utenti italiani, con effetto immediato. OpenAIChatGPT è una società americana che sviluppa e gestisce la piattaforma.

L’Autorità ha aperto un’inchiesta nei confronti della società “scoperta”, inizialmente una Onlus Sam Altmann E ora al timone Satya Nadella. Nello specifico, il provvedimento prevede:

“La garanzia della privacy si riferisce all’assenza di informazioni per gli utenti e tutti gli interessati raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione in forma aggregata dei dati personali per finalità di “formazione”. Meccanismi alla base dell’operazione del sito.”

In altre parole, l’Italia accusa il software di raccogliere dati personali senza alcuna giustificazione. A questo proposito, alcuni recenti audit hanno dimostrato che le informazioni fornite da ChatGPT non sempre corrispondono ai dati reali, quindi Trattamento improprio dei dati personali.

ChatGPT non ha la verifica dell’età degli utenti

Tutto inizia con ChatGPT, il miglior software di intelligenza artificiale relazionale di cui è capace Simulare ed elaborare conversazioni umaneIl 20 marzo ha subito una perdita di dati (violazione dei dati) relativa alle conversazioni degli utenti e alle informazioni di pagamento degli abbonati al servizio a pagamento.

READ  Donorumma ignora i fischi di chiusura sul foglio bianco on

Inoltre, la commissione sottolinea anche che i termini pubblicati da OpenAI, nonostante siano rivolti a persone di età superiore ai 13 anni, mancano di filtri per verificare l’età degli utenti.

Secondo l’autorità, espone i minori in quanto non conforme Risposte totalmente inappropriate Per quanto riguarda il loro livello di sviluppo e consapevolezza di sé.

OpenAI, che non ha una sede nell’Unione ma ha nominato un rappresentante nello Spazio Economico Europeo, deve riferire entro 20 giorni sui passi compiuti per dare attuazione alla richiesta dell’Osservatorio pena una sanzione fino a 20 milioni di euro. Fino al 4% del fatturato annuo globale.

L’applicazione ChatGPT AI risponde alle azioni intraprese in Italia

Al momento, il software ChatGPT non è informato del suo destino. Infatti, quando alcuni utenti hanno provato a chiedere al chatbot informazioni sul blocco interessato in Italia, hanno ricevuto la seguente risposta:

“Sono spiacente di apprendere che il Garante Privacy italiano mi ha bloccato. Tuttavia, a titolo di esempio, non sono riuscito a contattare il Garante della Privacy né a conoscere le specifiche decisioni da lui prese in merito alle mie attività in Italia. Se hai bisogno di aiuto, sono qui per rispondere a domande o fornire informazioni sulla mia capacità di elaborazione del linguaggio naturale.

Potrebbero essere necessarie alcune ore prima che il blocco abbia effetto, come ha fatto Pratilica L’app, altri chatbot sono pericolosi per i minori e non sono autorizzati a utilizzare i dati personali degli utenti italiani.

In questo momento, il problema riguarda principalmente le aziende che si abbonano per integrare il software nel proprio lavoro. Tuttavia, il garante non ha chiarito all’interno del comunicato se riguarderà anche le edizioni Black Plus o solo quella a cui è possibile accedere senza pagare.

READ  L'ambasciata turca a Roma ha descritto i critici di Erdogan in Italia

Non solo Italia, Musk mette in guardia anche su AI e ChatGPT

Recentemente, Elon Musk Ha anche affermato di ritenere necessaria una pausa dall’IA. In particolare, il genio di Tesla ha dichiarato:

“L’intelligenza artificiale pone profondi rischi alla società e all’umanità: ecco perché è importante prendersi una pausa di sei mesi e smettere di addestrare sistemi altamente avanzati”.

Oltre a Elon Musk, a lanciare l’allarme sull’IA è un folto gruppo di ricercatori e manager, 1.000 in totale, che hanno firmato una lettera aperta. Stop all’intelligenza artificiale.

La lettera aperta è stata pubblicata dall’organizzazione no-profit Future of Life. Oltre alla firma di Elon Musk, la missiva ha anche altre firme famose, motivo per cui il suo contenuto è stato preso sul serio.

Infatti, il documento è stato firmato da un co-fondatore di Apple Steve Wozniak e i gestori di Pinterest e Skype, tra gli altri. Tuttavia, non tutti i servizi di intelligenza artificiale sono vulnerabili agli attacchi, ma solo i sistemi più avanzati GPT-4Il chatbot di OpenAI che può decifrare gli esami con barzellette e arguzia.

Nella lettera aperta si legge infatti:

“I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando c’è la certezza che i loro effetti saranno positivi e i loro rischi gestibili. Una corsa per creare e schierare potenti menti digitali che non possono essere comprese, previste o controllate da nessuno, nemmeno dai loro creatori.”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *