News Security ChatGPT bloccato in Italia per preoccupazioni relative alla privacy degli utenti

La sezione security di Inforge raccoglie le ultime notizie dal mondo della sicurezza informatica e della privacy online.
Stato
Discussione chiusa ad ulteriori risposte.
Ultima modifica:
chatgpt block.jpg


Cerchiamo di fare chiarezza sulla questione ChatGPT visto che ne sono state dette di tutti i colori e si fa parecchia confusione su chi ha fatto cosa e perché.

Queste sono alcune delle domande a cui andremo a rispondere:
  • Cosa ha fatto il Garante della Privacy?
  • Perché è sempre l'Italia?
  • OpenAI è una povera vittima della burocrazia?
  • E' un problema tutto italiano o c'entra anche l'Europa?





1    Cosa è successo con il Garante della Privacy e ChatGPT?



In data 31/03/2023 un comunicato stampa del Garante della Privacy comunica il seguente provvedimento d'urgenza, pertanto non è particolarmente raffinato nel linguaggio, ed è probabile che saranno chiarite ulteriormente le motivazioni nei giorni successivi.

Stop a ChatGPT finché non rispetterà la disciplina privacy. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria.

ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.

Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Roma, 31 marzo 2023

Da questo comunicato si chiede all'azienda OpenAI operante in Europa di "cessare provvisoriamente il trattamento dei dati degli utenti italiani" questo il testo del provvedimento:
RILEVATO, da una verifica effettuata in merito, che non viene fornita alcuna informativa agli utenti, né agli interessati i cui dati sono stati raccolti da OpenAI, L.L.C. e trattati tramite il servizio di ChatGPT;

RILEVATA l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT;

RILEVATO che il trattamento di dati personali degli interessati risulta inesatto in quanto le informazioni fornite da ChatGPT non sempre corrispondono al dato reale;

RILEVATO, inoltre, l’assenza di qualsivoglia verifica dell’età degli utenti in relazione al servizio ChatGPT che, secondo i termini pubblicati da OpenAI L.L.C., è riservato a soggetti che abbiano compiuto almeno 13 anni;

CONSIDERATO che l’assenza di filtri per i minori di età di 13 anni espone gli stessi a risposte assolutamente inidonee rispetto al grado di sviluppo e autoconsapevolezza degli stessi;

RITENUTO pertanto che nella situazione sopra delineata, il trattamento dei dati personali degli utenti, compresi i minori, e degli interessati i cui dati sono utilizzati dal servizio si ponga in violazione degli artt. 5, 6, 8, 13 e 25 del Regolamento;

RAVVISATA, pertanto, la necessità di disporre, ai sensi dell’art. 58, par. 2, lett. f), del Regolamento - in via d’urgenza e nelle more del completamento della necessaria istruttoria rispetto a quanto sin qui emerso nei confronti di OpenAI L.L.C., società statunitense sviluppatrice e gestrice di ChatGPT, la misura della limitazione provvisoria del trattamento;

Quindi il garante rileva delle problematiche e tre violazioni diverse:
  • (a) aver raccolto i dati personali di miliardi di persone per addestrare i propri algoritmi senza informarli di questa circostanza e, verosimilmente senza disporre di un’idonea base giuridica.
  • (b) raccogliere i dati personali degli utenti nel corso delle conversazioni senza informarli della sorte di questi dati.
  • (c) generare contenuti, in risposta alle domande, che talvolta attribuiscono alle persone fatti e circostanze inesatte e non veritiere proponendo così una rappresentazione distorta della loro identità personale.
Se per la C ci possono essere delle opinioni contrastanti e metodi di facile risoluzione (tipo un disclaimer che dice "mi sto inventando quanto ho scritto").
E per la B è altrettanto vero che è necessario dire "tutte le cose che voi scrivete vengono usate per X, Y, Z [es: fini diagnostici, miglioramento del servizio] e vengono cancellate e anonimizzate".

La "A" è più complessa. In quanto ChatGPT, proprio perché è "Pre-Trained" ha inghiottito dati personali (almeno questo secondo il Garante della Privacy) per poi usarli per apprendere e darci gli output predittivi che abbiamo tanto apprezzato in questi mesi.

Quindi è onere di OpenAI dimostrare che non vi è stato uso improprio dei dati personali degli utenti sia durante l'uso del servizio sia precedentemente nella sua creazione.


2    Ma cosa dice il GDPR a riguardo?



Tutto ciò si basa sulle leggi che ben conosciamo sulla tutela dei dati personali dei cittadini dell'UE, il famosissimo GDPR. ChatGPT è stato "allenato" grazie al Web Scraping che è specificatamente regolato precisamente dall'Articolo 6.

Quando si possono usare dati ottenuti tramite Web Scraping secondo il GDPR?

  1. Consenso: Ovvero quando ho un consenso esplicito dell'utente. Capite bene che questa modalità è pressoché impossibile quando si parla di web scraping. E' come se qualcuno dovesse farvi accettare un modulo di consenso prima di salvarsi da qualche parte quello che legge nel web su di voi. Da un punto di vista pratico è irrealizzabile.
  2. Contratto: Ovvero quando c'è un contratto tra me e l'utente interessato e quei dati mi servono per erogare il servizio. Ai fini della nostra trattazione, sostanzialmente questa modalità è molto simile alla prima.
  3. Obbligo Legale: Ovvero se per qualsiasi motivo la legge mi obbliga a farlo. Queste sono sempre cose molto specifiche e precise, che raramente possono essere utilizzate come argomentazioni per legittimare le proprie attività.
  4. Interesse Vitale: Quando l'attività di raccolta dati è fatta per preservare un interesse vitale di quella persona. Per intenderci in modo semplice, se arrivate in fin di vita al pronto soccorso, anche senza il vostro consenso, l'ospedale può andarsi a recuperare ogni dato che trova per cercare di salvarvi la vita.
  5. Obbligo Pubblico: Tendenzialmente questo si applica ad un pubblico ufficiale, che è autorizzato a raccogliere i dati che gli servono per svolgere i suoi compiti. Un po' come la guardia di finanza che non ha bisogno del vostro consenso.
  6. Interesse Legittimo: Questo punto è estremamente vago ed è quello che può essere argomentato dalle aziende sul perché hanno fatto quello che hanno fatto.

Attualmente quindi vi è palesemente un vuoto normativo, non solo sul funzionamento dei Large Language Models (se i loro output devono rispettare determinati criteri) ma anche come vengono creati questi LLM e se violano la privacy degli utenti nella loro genesi. Visto che attualmente operano FUORI dall'attuale quadro normativo.

I motori di ricerca, ad esempio, hanno delle deroghe specifiche per operare. Rispettando comunque il GDPR e per esempio il diritto all'oblio. Una raccolta di dati così massiccia è palese che non sia perfettamente in linea col GDPR, starà all'azienda dimostrare eventualmente l'interesse legittimo o che tecnicamente non utilizza dati personali per far funzionare GPT4.


3    E che diritto ha il Garante di bloccare ChatGPT in Italia?



Nessuno, infatti non ha assolutamente bloccato ChatGPT in Italia, è stato un provvedimento preso dalla stessa azienda. Il Garante ha detto "Se OpenAI riesce a continuare ad erogare il servizio trattando legalmente i dati degli utenti italiani può operare anche durante l'istruttoria".



L'azienda potrebbe aver deciso di procedere così per due motivi principali:
  • O non può operare senza usare i dati degli utenti (e quindi ha ammesso di fatto una colpa) e dovranno fare delle modifiche al servizio.
  • O seguendo il principio di autotutela per evitare polemiche o addirittura danni economici hanno preferito chiudere e dare tutti i chiarimenti durante l'istruttoria.
Microsoft possiede il 49% di OpenAI e questo non è da dimenticare. Queste aziende rischiano sempre di finire nell'occhio del ciclone e sotto la lente di ingrandimento delle istituzioni (cosa che non gradiscono particolarmente).


4    E intanto l'Europa che fa?



Il parlamento Europeo sta lavorando ad un AI Act per regolamentare proprio questo tipo di attività. Verosimilmente gli altri paesi valuteranno l'istruttoria italiana per capire se è legittima o meno l'osservazione mossa dal nostro garante. La cosa si sposterà sul piano europeo se dovessero emergere complicazioni. La situazione è molto simile a quanto successo con Google Analytics.

Early 2022 was awash with news about Austria finding Google Analytics Universal Analytics violates Chapter V (regarding International Data Transfers) of Europe’s General Data Protection Regulation (GDPR) due to the Schrems II decision. As the year continued to roll on, Austria was joined by decisions in France, Italy, and Denmark. Other Data Protection Agencies have not been silent on the matter. Guidance has been issued out of Norway and the Netherlands cautioning against use and recommending looking at alternative vendors.

Negli anni precedenti, ignorare certe piattaforme ad esempio i Social Network, ha portato a problematiche enormi per stabilire delle regole sul loro funzionamento. Ad esempio lo scandalo di Cambridge Analytica. Nessun paese quindi vuole arrivare impreparato, visto l'enorme interesse per questo tipo di tecnologie da parte di utenti e aziende.

Sicuramente è più facile regolamentare prima che attendere l'uso in massa di determinati strumenti e poi chiedere uno stop totale in quanto tutto ciò su cui si basano è potenzialmente illegale o dover garantire straordinarie libertà ad un settore che magari poteva essere direzionato subito verso la tutela dell'utente finale (vedi l'uso massiccio dei cookies e le problematiche relative alla loro gestione e rimozione).


5    Ma io voglio usare ChatGPT lo stesso



Attualmente usando una banalissima VPN (ProtonVPN, NordVPN o altre) è possibile connettersi ugualmente a ChatGPT e utilizzarlo comunque.
 
  • Mi piace
Reazioni: demtor e DjCanigia
Il Garante della Privacy italiano ha disposto un blocco di Chat GPT, che potrà rimanere inattiva fino a quando non rispetterà tutti i criteri previsti dalla normativa sulla privacy. L'autorità ha quindi aperto un'istruttoria verso OpenAI, a causa del trattamento dei dati personali di questa intelligenza artificiale.
vorrei sapere cosa ne pensate solo a me non funziona?
usando un vpn posso risolvere?
 
Vergogna tutta italiana, come sempre. Facciamo ridere.

Ad ogni modo si con VPN passa la paura, io ho già messo l'estensione nel browser e vado a meraviglia
 
  • Geniale
Reazioni: emina
Salve a tutti. Mi sono documentato a riguardo. Il Garante della Privacy italiano ha bloccato temporaneamente il servizio offerto da OpenAI per i seguenti motivi:
  1. assenza di una base giuridica per la massiccia raccolta e conservazione dei dati
  2. mancanza di un filtro per gli utenti minorenni ( ChatGPT richiede un età minima di 13 anni )
 
  • Mi piace
Reazioni: Max Fridman
Secondo me è una decisione un po' estrema, ma comprensibile. Ad essere sincero io reputo che rilasciare aperte al pubblico tutte queste IA non sia corretto, soprattutto tenendo in considerazione la mole di informazioni che raccolgono e che molti utenti ci mettono dentro anche informazioni personali/sensibili.

Dal mio punto di vista si sarebbe prima dovuto normare e standardizzare l'utilizzo di queste tecnologie e definire cosa possano e non possano fare, e poi solo dopo renderle fruibili su una così larga scala. Per cui non mi meraviglia troppo ciò che ha fatto il garante e anzi, per certi versi ne condivido anche la visione.
 
Only fans va benissimo e tutta la pornografia che circola anche a 11 anni , mentre uno strumento di informazione non va bene , saranno fatti miei se informarmi da un telegiornale o qualche burattino che un terzo mi obbliga a sentire solo la sua opinione ... meglio che ti dimetti Pasquale Stazione RIDICOLO.
 
  • Love
Reazioni: emina e DjCanigia
Only fans va benissimo e tutta la pornografia che circola anche a 11 anni , mentre uno strumento di informazione non va bene , saranno fatti miei se informarmi da un telegiornale o qualche burattino che un terzo mi obbliga a sentire solo la sua opinione ... meglio che ti dimetti Pasquale Stazione RIDICOLO.
Aggiungerei anche tutti i social, i quali non solo subiscono data breach frequentemente ma vendono anche dati personali e sensibili.
Ripeto vergogna Italiana, uno strumento che può aiutare a fare mille cose come aiutare a studiare, lavorare o comunque anche solo formare non va bene invece tutto ciò che gira sui social tra pedofilia/privacy zero/vendita dati sensibili ecc.. vanno benissimo.
Che bella l'Italia
 
Il Garante della Privacy italiano ha disposto un blocco di Chat GPT
AHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAHAHAAHAAHAHAH

molto divertente.

per quanto possa essere utile, l'utilizzo di una vpn potrebbe aggirare ma non risolverà il problema della mancata conformità ai regolamenti sulla privacy.

brevemente fa ridere, in quanto nel 2023 solo le persone anziane o poco informate non riuscirebbero a installare un vpn gratuito (opera browser) e riuscire ad accedere al chatgpt
 
  • Mi piace
Reazioni: emina e DjCanigia
Facciamo una precisazione però: il garante non ha bloccato niente.

Il garante ha chiesto spiegazioni circa la mancanza di privacy policies adeguate, la mancanza di controllo se chi accede ha più di 13 anni, e quali siano le motivazioni legali per raccogliere i dati degli utenti in accordo con il GDPR.
E ha dato ad OpenAI 20 giorni per rettificare la situazione.

OpenAI come tutta risposta ha bloccato il mercato italiano, e poi è andata a piangere dai media che il garante è cattivo.

Per una volta il garante italiano ha fatto il suo lavoro, facendo domande pertinenti. Sono abbastanza sicuro che altre entità europee seguiranno, affinché OpenAI chiarisca le sue policy. La cosa sorprendente è che il garante italiano sia arrivato per primo.

OpenAI incommentabile, ma cosa ci si aspetta da un'azienda che di "open" ha solo il nome per ragioni di marketing?
 
Facciamo una precisazione però: il garante non ha bloccato niente.

Il garante ha chiesto spiegazioni circa la mancanza di privacy policies adeguate, la mancanza di controllo se chi accede ha più di 13 anni, e quali siano le motivazioni legali per raccogliere i dati degli utenti in accordo con il GDPR.
E ha dato ad OpenAI 20 giorni per rettificare la situazione.

OpenAI come tutta risposta ha bloccato il mercato italiano, e poi è andata a piangere dai media che il garante è cattivo.

Per una volta il garante italiano ha fatto il suo lavoro, facendo domande pertinenti. Sono abbastanza sicuro che altre entità europee seguiranno, affinché OpenAI chiarisca le sue policy. La cosa sorprendente è che il garante italiano sia arrivato per primo.

OpenAI incommentabile, ma cosa ci si aspetta da un'azienda che di "open" ha solo il nome per ragioni di marketing?
A dir la verità OpenAi rischia una multa di 20 milioni o fino al 4% del fatturato annuo.
Inoltre il garante stesso ha richiesto il blocco immediato.
OpenAi ha fatto ciò che gli è stato richiesto, ed inoltre ha esplicitamente detto che sarà sua Responsabilità non solo rimborsare gli utenti che hanno acquistato il plus, ma trovare accordi il prima possibile per poter riportare il servizio in Italia.
Ricordo che è un servizio totalmente gratuito, a discapito di tutti gli amici social dove si nascondono dietro la parola "free" ma che di gratis non hanno assolutamente nulla. E che soprattutto il 90% di quest'ultimi non rispetta la propria privacy policy, vendendo dati a destra e a sinistra (per iniziare).
 
Ricordo che è un servizio totalmente gratuito, a discapito di tutti gli amici social dove si nascondono dietro la parola "free" ma che di gratis non hanno assolutamente nulla. E che soprattutto il 90% di quest'ultimi non rispetta la propria privacy policy, vendendo dati a destra e a sinistra (per iniziare).
Sì ma non si possono paragonare i social a un servizio come ChatGPT. Gli scopi dei dati collezionati sono completamente differenti. Sono d'accordo che anche i social dovrebbero limitare la raccolta e vendita di dati, ma la differenza sta nel fatto che le AI questi dati li usano per fare training e restituire informazioni all'utente finale (che tra l'altro possono essere pure informazioni false o informazioni riservate, ndr).

Il punto focale del provvedimento, secondo me, è questo:
Nel provvedimento, il Garante privacy rileva [...] l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.
Serve normare questa tecnologia e definire cosa possa e cosa non possa elaborare, e soprattutto come ha detto @fennek credo che debbano spiegare in maniera più chiara e cristallina come vengano utilizzati ed elaborati questi dati. Sono consapevole che spiegare un sistema di learning non sia facile nè lineare, ma si deve comunque argomentare un minimo la logica di elaborazione.

Per chi volesse leggere il testo originale, il link sono i seguenti:

e poi è andata a piangere dai media che il garante è cattivo
Che poi su Twitter hanno pure sbagliato e hanno incolpato il governo italiano anzichè il garante lol
 
Inoltre il garante stesso ha richiesto il blocco immediato.

No, il garante ha chiesto di smettere di raccogliere i dati degli utenti finché non vengono chiarite le modalità di trattamento. Non ha mai chiesto di sospendere il servizio.

Ricordo che è un servizio totalmente gratuito, a discapito di tutti gli amici social dove si nascondono dietro la parola "free" ma che di gratis non hanno assolutamente nulla. E che soprattutto il 90% di quest'ultimi non rispetta la propria privacy policy, vendendo dati a destra e a sinistra (per iniziare).
Guarda, sfondi una porta aperta, fosse per me sulle homepage dei social dovrebbe esserci una etichetta tipo quelle delle sigarette "usare questo servizio nuove gravemente alla tua privacy, i tuoi dati saranno acquistabili dal miglior offerente". Non capisco perché tu pensi che OpenAI sia differente dagli altri social americani... Un servizio "gratuito" che riceve un sacco di valore dai dati degli utenti.
 
  • Mi piace
Reazioni: Max Fridman
Ho modificato il primo messaggio con un chiarimento che avevo preparato nei giorni scorsi, visti tutti i dubbi e gli equivoci emersi in questa discussione.

Sicuramente ci saranno altri sviluppi e non mancherò ad aggiornare il primo post con le novità che arriveranno durante l'istruttoria e magari anche da altri paesi UE.
 
No, il garante ha chiesto di smettere di raccogliere i dati degli utenti finché non vengono chiarite le modalità di trattamento. Non ha mai chiesto di sospendere il servizio.


Guarda, sfondi una porta aperta, fosse per me sulle homepage dei social dovrebbe esserci una etichetta tipo quelle delle sigarette "usare questo servizio nuove gravemente alla tua privacy, i tuoi dati saranno acquistabili dal miglior offerente". Non capisco perché tu pensi che OpenAI sia differente dagli altri social americani... Un servizio "gratuito" che riceve un sacco di valore dai dati degli utenti.
Non è ciò che penso, gli unici dati che raccoglie OpenAi sono, nome cognome, email e numero di telefono (sempre che siano stati inseriti quelli veritieri). Dati a mio avviso per niente interessanti per il marketing. (Ovviamente raccoglie anche le ricerche ma sappiamo bene che tipo di ricerche fa l'utente medio con chatgpt, quindi sono dati pressochè inutili per la vendita).

Al contrario i Social Network, raccolgono dati molto importanti per la ricerca di marketing, come i posti che visiti, quante volte apri il social, quali sono i tuoi interessi, cosa mangi, cosa bevi, le cose che ti piacciono di più e quelle che non sopporti. Hanno una vera e propria AI dietro che ti studia e impara a conoscerti fin dal primo login. Questi sono i dati che possono essere venduti a caro prezzo, non un nome/cognome o email/numero di telefono.

Se come valore intendi che "impara" avendo conversazioni, è ovvio, ma come fanno alexa, google assistant, cortana e siri. Se vogliamo avere un'intelligenza artificiale che abbia un intelligenza più vicino possibile alla nostra e che soprattutto è informata, deve poter imparare. Se no a che serve?

Comunque si il garante ha richiesto di sospendere la raccolta degli utenti italiani, e di conseguenza il servizio è stato sospeso visto che non c'è modo di utilizzare la piattaforma senza raccogliere dati almeno di diagnostica.

@0xbro mhm no non sono d'accordo non sto paragonando i dati raccolti dalle due società, è chiaro che utilizzano i dati per fare "training" ma come ho scritto sopra, non puoi puntare ad un AI senza dargli la capacità di imparare, è un controsenso. Inoltre è vero che possono dare informazioni sensibili e sbagliate, ma allora stessa cosa può fare google con una ricerca sul web, oppure tutti gli altri assistenti. Il bot spesso però afferma di poter sbagliare, e che le sue informazioni possono essere errate.

Per concludere, non ci vedo assolutamente nulla di pericoloso in tutti questi problemi di "privacy" sono tutte cose che il 90% dei siti online non rispettano.
Non capisco veramente perchè accanirsi cosi tanto ad una IA, una cosa utile finalmente in mezzo a tutta la discarica che c'è online.

E comunque io prendo di "mira" tanto i social network non perchè li odio, ma per il semplice motivo che da quando esistono hanno creato svariati problemi legati a privacy, stalking ecc... ma nessuno glielo ha mai fatto notare. Garante in primis.
La mia domanda è perchè instagram, facebook, TIK TOK, snapchat, twitter ecc.. possono fare ciò che vogliono con i dati di tutti, e invece chatgpt non può raccoglierli per scopi di training?
 
Ora bisogna sperare che le asprità sorte tra l'UE e OpenAI non si inaspriscano ulteriormente, perché comunque tantissimi professionisti italiani hanno già stipulato abbonamenti che nessuno gli renderà di sto passo, comunque un data breach capita a tutte le grosse aziende quello che comunque risulta problematico per questi servizi è proprio il fatto che essendo nuovi devono ancora essere regolamentati correttamente in Europa, per evitare futuri problemi di questo tipo, anche sul cosa possono archiviate e possedere e cosa no, altrimenti si sta in una sorta di far west in cui ogni tanto qualcuno viene punito per una legge interpretabile

Non è ciò che penso, gli unici dati che raccoglie OpenAi sono, nome cognome, email e numero di telefono (sempre che siano stati inseriti quelli veritieri). Dati a mio avviso per niente interessanti per il marketing. (Ovviamente raccoglie anche le ricerche ma sappiamo bene che tipo di ricerche fa l'utente medio con chatgpt, quindi sono dati pressochè inutili per la vendita).

Al contrario i Social Network, raccolgono dati molto importanti per la ricerca di marketing, come i posti che visiti, quante volte apri il social, quali sono i tuoi interessi, cosa mangi, cosa bevi, le cose che ti piacciono di più e quelle che non sopporti. Hanno una vera e propria AI dietro che ti studia e impara a conoscerti fin dal primo login. Questi sono i dati che possono essere venduti a caro prezzo, non un nome/cognome o email/numero di telefono.

Se come valore intendi che "impara" avendo conversazioni, è ovvio, ma come fanno alexa, google assistant, cortana e siri. Se vogliamo avere un'intelligenza artificiale che abbia un intelligenza più vicino possibile alla nostra e che soprattutto è informata, deve poter imparare. Se no a che serve?

Comunque si il garante ha richiesto di sospendere la raccolta degli utenti italiani, e di conseguenza il servizio è stato sospeso visto che non c'è modo di utilizzare la piattaforma senza raccogliere dati almeno di diagnostica.

@0xbro mhm no non sono d'accordo non sto paragonando i dati raccolti dalle due società, è chiaro che utilizzano i dati per fare "training" ma come ho scritto sopra, non puoi puntare ad un AI senza dargli la capacità di imparare, è un controsenso. Inoltre è vero che possono dare informazioni sensibili e sbagliate, ma allora stessa cosa può fare google con una ricerca sul web, oppure tutti gli altri assistenti. Il bot spesso però afferma di poter sbagliare, e che le sue informazioni possono essere errate.

Per concludere, non ci vedo assolutamente nulla di pericoloso in tutti questi problemi di "privacy" sono tutte cose che il 90% dei siti online non rispettano.
Non capisco veramente perchè accanirsi cosi tanto ad una IA, una cosa utile finalmente in mezzo a tutta la discarica che c'è online.

E comunque io prendo di "mira" tanto i social network non perchè li odio, ma per il semplice motivo che da quando esistono hanno creato svariati problemi legati a privacy, stalking ecc... ma nessuno glielo ha mai fatto notare. Garante in primis.
La mia domanda è perchè instagram, facebook, TIK TOK, snapchat, twitter ecc.. possono fare ciò che vogliono con i dati di tutti, e invece chatgpt non può raccoglierli per scopi di training?
Si, li in mezzo c'erano anche credenziali inerenti ai metodi di pagamento e anche ad altre analitiche di varia natura, onestamente io mi attengo a quello che è uscito dalla disciplinare, non mi incasino andando visionare i vari leak che si trovano nei vari portali dedicati a sta roba
 
  • Mi piace
Reazioni: DjCanigia
Si, li in mezzo c'erano anche credenziali inerenti ai metodi di pagamento e anche ad altre analitiche di varia natura, onestamente io mi attengo a quello che è uscito dalla disciplinare, non mi incasino andando visionare i vari leak che si trovano nei vari portali dedicati a sta roba
No non parlavo del data breach ma in generale, anche perchè se il problema fosse il data breach farebbe ancora più ridere, visto tutti quelli accaduti negli ultimi mesi (vedi lastpass, activision, whats app ecc..)
 
No non parlavo del data breach ma in generale, anche perchè se il problema fosse il data breach farebbe ancora più ridere, visto tutti quelli accaduti negli ultimi mesi (vedi lastpass, activision, whats app ecc..)
Si, lasciamo stare tutto quello che non sappiamo, se il Garante si è lamentato vuol dire che tra quello che veniva dichiarato e quello che veniva preso c'era una discreta discrepanza
 
  • Mi piace
Reazioni: DjCanigia
Si, lasciamo stare tutto quello che non sappiamo, se il Garante si è lamentato vuol dire che tra quello che veniva dichiarato e quello che veniva preso c'era una discreta discrepanza
Sono pronto a scommetterci che è sempre una questione di Business. OpenAi ha fatto troppo parlare di s'è, e sta iniziando a dare fastidio.
 
La mia domanda è perchè instagram, facebook, TIK TOK, snapchat, twitter ecc.. possono fare ciò che vogliono con i dati di tutti, e invece chatgpt non può raccoglierli per scopi di training?

Non possono, anche loro devono rispettare le leggi, e infatti ci sono varie procedure aperte contro quasi tutti. Se il tema privacy in Europa interessa davvero, consiglio di seguire (e donare!) a noyb.eu. Sono avvocati che si occupano di far rispettare il GDPR (e simili), in varie sedi europee. Il fondatore è Max Schrems, famoso dalla sentenza Schrems II della corte di giustizia europea. Fanno un lavoro fantastico, troppo poco conosciuto, e con pochissime risorse. Il blog è molto interessante, ed è una causa a cui vale davvero la pena donare dei soldi mensilmente.

Se come valore intendi che "impara" avendo conversazioni, è ovvio, ma come fanno alexa, google assistant, cortana e siri. Se vogliamo avere un'intelligenza artificiale che abbia un intelligenza più vicino possibile alla nostra e che soprattutto è informata, deve poter imparare. Se no a che serve?

Sono d'accordissimo! Ma è importante che la collezione dei dati avvenga in maniera che corrisponda alla legge.

OpenAi ha fatto troppo parlare di s'è, e sta iniziando a dare fastidio.

Anche, ci saranno pure delle motivazioni reali, ma in parte la spinta a fare dei controlli è stata sicuramente guidata da manine che stanno più in alto

Uhm, ma dare fastidio a chi? In Italia non c'è nessuno che possa anche solo lontanamente competere con OpenAI, e comunque insinuare che il garante non agisca in maniera indipendente è un'accusa molto grave, che se non comprovata da fatti reali è al limite della diffamazione.

Il Garante ha fatto il suo lavoro, facendo notare che OpenAI non soddisfa tutti i regolamenti italiani ed europei. OpenAI avrebbe potuto risolvere i problemi, invece ha deciso di chiudere i battenti. Mi sembra un comportamento che evidenzia bene che la raccolta di massa dei dati era l'unico scopo di OpenAI, appena gli è stato fatto notare che non è regolare, hanno deciso di sparire.
 
Non possono, anche loro devono rispettare le leggi, e infatti ci sono varie procedure aperte contro quasi tutti. Se il tema privacy in Europa interessa davvero, consiglio di seguire (e donare!) a noyb.eu. Sono avvocati che si occupano di far rispettare il GDPR (e simili), in varie sedi europee. Il fondatore è Max Schrems, famoso dalla sentenza Schrems II della corte di giustizia europea. Fanno un lavoro fantastico, troppo poco conosciuto, e con pochissime risorse. Il blog è molto interessante, ed è una causa a cui vale davvero la pena donare dei soldi mensilmente.



Sono d'accordissimo! Ma è importante che la collezione dei dati avvenga in maniera che corrisponda alla legge.





Uhm, ma dare fastidio a chi? In Italia non c'è nessuno che possa anche solo lontanamente competere con OpenAI, e comunque insinuare che il garante non agisca in maniera indipendente è un'accusa molto grave, che se non comprovata da fatti reali è al limite della diffamazione.

Il Garante ha fatto il suo lavoro, facendo notare che OpenAI non soddisfa tutti i regolamenti italiani ed europei. OpenAI avrebbe potuto risolvere i problemi, invece ha deciso di chiudere i battenti. Mi sembra un comportamento che evidenzia bene che la raccolta di massa dei dati era l'unico scopo di OpenAI, appena gli è stato fatto notare che non è regolare, hanno deciso di sparire.
Attenzione, io sono d'accordissimo che deve rispettare la legge non sto mettendo in dubbio questo. E credo anche che ci siano svariati avvocati che lavorano per fa rispettare tutte le leggi riguardo alla privacy di tutti i servizi online.

Ma per rispondere anche alla tua domanda "dare fastidio a chi", ripropongo senza sintetizzare, il garante ha dato 20 giorni a OpenAi per dare modo di adattarsi alle regole, dopodichè quest'ultima verrà multata, e fin qui ok va bene, ma perchè non ha MAI fatto niente del genere verso tutti gli altri servizi online? Non può fare la stessa cosa con facebook? Google? No. Solamente contro l'unico strumento che possa aiutare la vita a tutti quanti, per questo mi chiedo se l'hanno preso di mira perchè dà fastidio. Mi sembra una conclusione più che logica visto tutti i trascorsi.

A volte credo che ci impegnamo forte a complicarci la vita. Tutto qui.
 
ma perchè non ha MAI fatto niente del genere verso tutti gli altri servizi online? Non può fare la stessa cosa con facebook? Google?

Lo ha fatto:

E se non lo ha fatto il garante italiano ci ha pensato quello irlandese (europeo):
E queste sono solo alcune sanzioni o richieste, a livello europeo ne sono state avanzate tante sia di singoli paesi sia a livello comunitario.

Qui la lista completa l'ultima a Discord per 800.000 euro dall'ente francese: https://edpb.europa.eu/news/news_en

E altre in arrivo:
 
  • Mi piace
Reazioni: fennek
Lo ha fatto:

E se non lo ha fatto il garante italiano ci ha pensato quello irlandese (europeo):
E queste sono solo alcune sanzioni o richieste, a livello europeo ne sono state avanzate tante sia di singoli paesi sia a livello comunitario.

Qui la lista completa l'ultima a Discord per 800.000 euro dall'ente francese: https://edpb.europa.eu/news/news_en

E altre in arrivo:
Una multa di 1 milione di euro a Facebook è pari ad una multa di 1 € a me 😂 e comunque non è cambiato nulla dalla multa.
Invece a chatgpt si parla di una multa sul fatturato annuo del 2/4% e in più dovrebbe cancellare tutti i dati Italiani.
 
Stato
Discussione chiusa ad ulteriori risposte.