News Security ChatGPT bloccato in Italia per preoccupazioni relative alla privacy degli utenti

La sezione security di Inforge raccoglie le ultime notizie dal mondo della sicurezza informatica e della privacy online.
Stato
Discussione chiusa ad ulteriori risposte.
Ultima modifica:
chatgpt block.jpg


Cerchiamo di fare chiarezza sulla questione ChatGPT visto che ne sono state dette di tutti i colori e si fa parecchia confusione su chi ha fatto cosa e perché.

Queste sono alcune delle domande a cui andremo a rispondere:
  • Cosa ha fatto il Garante della Privacy?
  • Perché è sempre l'Italia?
  • OpenAI è una povera vittima della burocrazia?
  • E' un problema tutto italiano o c'entra anche l'Europa?





1    Cosa è successo con il Garante della Privacy e ChatGPT?



In data 31/03/2023 un comunicato stampa del Garante della Privacy comunica il seguente provvedimento d'urgenza, pertanto non è particolarmente raffinato nel linguaggio, ed è probabile che saranno chiarite ulteriormente le motivazioni nei giorni successivi.

Stop a ChatGPT finché non rispetterà la disciplina privacy. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria.

ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.

Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Roma, 31 marzo 2023

Da questo comunicato si chiede all'azienda OpenAI operante in Europa di "cessare provvisoriamente il trattamento dei dati degli utenti italiani" questo il testo del provvedimento:
RILEVATO, da una verifica effettuata in merito, che non viene fornita alcuna informativa agli utenti, né agli interessati i cui dati sono stati raccolti da OpenAI, L.L.C. e trattati tramite il servizio di ChatGPT;

RILEVATA l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT;

RILEVATO che il trattamento di dati personali degli interessati risulta inesatto in quanto le informazioni fornite da ChatGPT non sempre corrispondono al dato reale;

RILEVATO, inoltre, l’assenza di qualsivoglia verifica dell’età degli utenti in relazione al servizio ChatGPT che, secondo i termini pubblicati da OpenAI L.L.C., è riservato a soggetti che abbiano compiuto almeno 13 anni;

CONSIDERATO che l’assenza di filtri per i minori di età di 13 anni espone gli stessi a risposte assolutamente inidonee rispetto al grado di sviluppo e autoconsapevolezza degli stessi;

RITENUTO pertanto che nella situazione sopra delineata, il trattamento dei dati personali degli utenti, compresi i minori, e degli interessati i cui dati sono utilizzati dal servizio si ponga in violazione degli artt. 5, 6, 8, 13 e 25 del Regolamento;

RAVVISATA, pertanto, la necessità di disporre, ai sensi dell’art. 58, par. 2, lett. f), del Regolamento - in via d’urgenza e nelle more del completamento della necessaria istruttoria rispetto a quanto sin qui emerso nei confronti di OpenAI L.L.C., società statunitense sviluppatrice e gestrice di ChatGPT, la misura della limitazione provvisoria del trattamento;

Quindi il garante rileva delle problematiche e tre violazioni diverse:
  • (a) aver raccolto i dati personali di miliardi di persone per addestrare i propri algoritmi senza informarli di questa circostanza e, verosimilmente senza disporre di un’idonea base giuridica.
  • (b) raccogliere i dati personali degli utenti nel corso delle conversazioni senza informarli della sorte di questi dati.
  • (c) generare contenuti, in risposta alle domande, che talvolta attribuiscono alle persone fatti e circostanze inesatte e non veritiere proponendo così una rappresentazione distorta della loro identità personale.
Se per la C ci possono essere delle opinioni contrastanti e metodi di facile risoluzione (tipo un disclaimer che dice "mi sto inventando quanto ho scritto").
E per la B è altrettanto vero che è necessario dire "tutte le cose che voi scrivete vengono usate per X, Y, Z [es: fini diagnostici, miglioramento del servizio] e vengono cancellate e anonimizzate".

La "A" è più complessa. In quanto ChatGPT, proprio perché è "Pre-Trained" ha inghiottito dati personali (almeno questo secondo il Garante della Privacy) per poi usarli per apprendere e darci gli output predittivi che abbiamo tanto apprezzato in questi mesi.

Quindi è onere di OpenAI dimostrare che non vi è stato uso improprio dei dati personali degli utenti sia durante l'uso del servizio sia precedentemente nella sua creazione.


2    Ma cosa dice il GDPR a riguardo?



Tutto ciò si basa sulle leggi che ben conosciamo sulla tutela dei dati personali dei cittadini dell'UE, il famosissimo GDPR. ChatGPT è stato "allenato" grazie al Web Scraping che è specificatamente regolato precisamente dall'Articolo 6.

Quando si possono usare dati ottenuti tramite Web Scraping secondo il GDPR?

  1. Consenso: Ovvero quando ho un consenso esplicito dell'utente. Capite bene che questa modalità è pressoché impossibile quando si parla di web scraping. E' come se qualcuno dovesse farvi accettare un modulo di consenso prima di salvarsi da qualche parte quello che legge nel web su di voi. Da un punto di vista pratico è irrealizzabile.
  2. Contratto: Ovvero quando c'è un contratto tra me e l'utente interessato e quei dati mi servono per erogare il servizio. Ai fini della nostra trattazione, sostanzialmente questa modalità è molto simile alla prima.
  3. Obbligo Legale: Ovvero se per qualsiasi motivo la legge mi obbliga a farlo. Queste sono sempre cose molto specifiche e precise, che raramente possono essere utilizzate come argomentazioni per legittimare le proprie attività.
  4. Interesse Vitale: Quando l'attività di raccolta dati è fatta per preservare un interesse vitale di quella persona. Per intenderci in modo semplice, se arrivate in fin di vita al pronto soccorso, anche senza il vostro consenso, l'ospedale può andarsi a recuperare ogni dato che trova per cercare di salvarvi la vita.
  5. Obbligo Pubblico: Tendenzialmente questo si applica ad un pubblico ufficiale, che è autorizzato a raccogliere i dati che gli servono per svolgere i suoi compiti. Un po' come la guardia di finanza che non ha bisogno del vostro consenso.
  6. Interesse Legittimo: Questo punto è estremamente vago ed è quello che può essere argomentato dalle aziende sul perché hanno fatto quello che hanno fatto.

Attualmente quindi vi è palesemente un vuoto normativo, non solo sul funzionamento dei Large Language Models (se i loro output devono rispettare determinati criteri) ma anche come vengono creati questi LLM e se violano la privacy degli utenti nella loro genesi. Visto che attualmente operano FUORI dall'attuale quadro normativo.

I motori di ricerca, ad esempio, hanno delle deroghe specifiche per operare. Rispettando comunque il GDPR e per esempio il diritto all'oblio. Una raccolta di dati così massiccia è palese che non sia perfettamente in linea col GDPR, starà all'azienda dimostrare eventualmente l'interesse legittimo o che tecnicamente non utilizza dati personali per far funzionare GPT4.


3    E che diritto ha il Garante di bloccare ChatGPT in Italia?



Nessuno, infatti non ha assolutamente bloccato ChatGPT in Italia, è stato un provvedimento preso dalla stessa azienda. Il Garante ha detto "Se OpenAI riesce a continuare ad erogare il servizio trattando legalmente i dati degli utenti italiani può operare anche durante l'istruttoria".



L'azienda potrebbe aver deciso di procedere così per due motivi principali:
  • O non può operare senza usare i dati degli utenti (e quindi ha ammesso di fatto una colpa) e dovranno fare delle modifiche al servizio.
  • O seguendo il principio di autotutela per evitare polemiche o addirittura danni economici hanno preferito chiudere e dare tutti i chiarimenti durante l'istruttoria.
Microsoft possiede il 49% di OpenAI e questo non è da dimenticare. Queste aziende rischiano sempre di finire nell'occhio del ciclone e sotto la lente di ingrandimento delle istituzioni (cosa che non gradiscono particolarmente).


4    E intanto l'Europa che fa?



Il parlamento Europeo sta lavorando ad un AI Act per regolamentare proprio questo tipo di attività. Verosimilmente gli altri paesi valuteranno l'istruttoria italiana per capire se è legittima o meno l'osservazione mossa dal nostro garante. La cosa si sposterà sul piano europeo se dovessero emergere complicazioni. La situazione è molto simile a quanto successo con Google Analytics.

Early 2022 was awash with news about Austria finding Google Analytics Universal Analytics violates Chapter V (regarding International Data Transfers) of Europe’s General Data Protection Regulation (GDPR) due to the Schrems II decision. As the year continued to roll on, Austria was joined by decisions in France, Italy, and Denmark. Other Data Protection Agencies have not been silent on the matter. Guidance has been issued out of Norway and the Netherlands cautioning against use and recommending looking at alternative vendors.

Negli anni precedenti, ignorare certe piattaforme ad esempio i Social Network, ha portato a problematiche enormi per stabilire delle regole sul loro funzionamento. Ad esempio lo scandalo di Cambridge Analytica. Nessun paese quindi vuole arrivare impreparato, visto l'enorme interesse per questo tipo di tecnologie da parte di utenti e aziende.

Sicuramente è più facile regolamentare prima che attendere l'uso in massa di determinati strumenti e poi chiedere uno stop totale in quanto tutto ciò su cui si basano è potenzialmente illegale o dover garantire straordinarie libertà ad un settore che magari poteva essere direzionato subito verso la tutela dell'utente finale (vedi l'uso massiccio dei cookies e le problematiche relative alla loro gestione e rimozione).


5    Ma io voglio usare ChatGPT lo stesso



Attualmente usando una banalissima VPN (ProtonVPN, NordVPN o altre) è possibile connettersi ugualmente a ChatGPT e utilizzarlo comunque.
 
  • Mi piace
Reazioni: demtor e DjCanigia
Una multa di 1 milione di euro a Facebook è pari ad una multa di 1 € a me

Le multe sono calcolate in base al tipo di violazione, Facebook è stata sanzionata da vari garanti per Cambridge Analytica anche negli US.
comunque non è cambiato nulla dalla multa.

Non direi anzi, la maggior parte delle sanzioni del 2022 è stata pagata da Meta:
Distinctively, the majority of the penalties in 2022 were paid by tech behemoth - Meta. The Data Protection Commission (DPC), an authority for GDPR enforcement in Ireland, imposed a €405m fine for Meta Platforms Ireland Limited (Instagram) on 5 September 2022.

Two issues were found with the processing of personal data pertaining to child users of Instagram. The children’s email addresses and phone numbers were publicly exposed when using the Instagram business account function, and Instagram profiles of kids were public-by-default.

Another hefty sum of €265m was penalised to the same entity on 25 November 2022, when the DPC declared that Meta had infringed two articles of the EU’s data protection laws after details of Facebook users from around the world were scraped from public profiles in 2018 and 2019.

Moreover, the DPC issued a “reprimand and an order” forcing Meta to “bring its processing into compliance by executing a range of specified remedial activities within a specific deadline”. Meta complied and made the adjustments within the required timeframe.

To date, Meta has paid around €1 billion for GDPR violations.
Fonte:

E potrei continuare:

E le perdite monetarie in seguito all'applicazione del GDPR sono note anche agli investitori di Meta in borsa:

Invece a chatgpt si parla di una multa sul fatturato annuo del 2/4% e in più dovrebbe cancellare tutti i dati Italiani.

Normalissimo nel caso del GDPR (è previsto questo tipo di sanzioni). E anche nel caso delle altre aziende viene chiesto di non trattare più i dati o chiedere il consenso per continuare a trattarli, niente di nuovo.

The fines must be effective, proportionate and dissuasive for each individual case. For the decision of whether and what level of penalty can be assessed, the authorities have a statutory catalogue of criteria which it must consider for their decision. Among other things, intentional infringement, a failure to take measures to mitigate the damage which occurred, or lack of collaboration with authorities can increase the penalties. For especially severe violations, listed in Art. 83(5) GDPR, the fine framework can be up to 20 million euros, or in the case of an undertaking, up to 4 % of their total global turnover of the preceding fiscal year, whichever is higher. But even the catalogue of less severe violations in Art. 83(4) GDPR sets forth fines of up to 10 million euros, or, in the case of an undertaking, up to 2% of its entire global turnover of the preceding fiscal year, whichever is higher.
 
Il Garante e OpenAI avranno un incontro domani 5 Aprile.
Incontro tra il Garante della privacy italiano e OpenAi sul caso ChatGPT. È previsto per la serata di mercoledì 5 aprile, in videoconferenza, una riunione tra i rappresentanti di OpenAi e il Garante per la protezione dei dati personali, che nei giorni scorsi ha imposto alla piattaforma di limitare temporaneamente il trattamento dei dati degli utenti italiani finché non si sarà messa in regola con le normativa privacy italiana e europea

Interessanti anche le dichiarazioni di OpenAI e dei garanti della privacy di altri paesi UE e extra UE.
Da OpenAi fanno inoltre sapere: “Siamo attivamente impegnati a ridurre i dati personali nell'addestramento dei nostri sistemi di Ai come ChatGPT perché vogliamo che le nostre Ai imparino informazioni sul mondo, non rispetto a singoli individui. Crediamo che una regolamentazione sull'Ai sia necessaria, quindi intendiamo lavorare a stretto contatto con il garante ed educarli su come i nostri sistemi sono costruiti e utilizzati”. Il portavoce di OpenAi fa infine sapere che: “I nostri utenti in Italia ci hanno fatto sapere che reputano ChatGPT utile per attività quotidiane e ci aspettiamo di poter rendere il servizio disponibile di nuovo quanto prima”.

Molte le aziende che nelle ultime ore si chiedono come affrontare questo blocco, mentre anche i garanti della privacy di altri paesi, tra cui Germania, Francia e Irlanda sono al lavoro per adottare provvedimenti simili a quello italiano. Per ora il Consiglio dei garanti europei per la privacy e l'Autorità comunitaria per la protezione dei dati, interpellati da Wired, invece non si esprimono. Anche il Giappone e il Regno Unito studiano il dossier ChatGPT valutando gli eventuali provvedimenti da adottare verso l'algoritmo.

Fonte: https://www.wired.it/chatgpt-incontro-garante-privacy-openai/
 
  • Mi piace
  • Grazie
Reazioni: 0xbro e DjCanigia

:asdbeer: :asdbeer: hahahaha 4 real


Italia solito fanalino di coda

al di là di implicazioni etiche o legali , al di là del fatto che in italia passa la peggio merd* da sempre a livello informatico , al di là di tutto ;
l'utilizzo dell'AI è un passo evolutivo enorme , a cui tutti i paesi evoluti stanno facendo fronte , noi stessi a lavoro lo stavamo utilizzando per ammodernare vari script e ora siamo fermi ( nella tua abitazione privata puoi usare una VPN e aggirare il problema ma in una azienda grossa è un altro discorso ) .

la verità penso sia un altra , ma senza prove me la tengo per me ;

non voglio essere negativo ma penso che questo paese sia più che finito , grazie comunque Max per aver tirato fuori l'argomento , tantissimi purtroppo stanno evitando di parlarne ...
Messaggio unito automaticamente:

propongo questo articolo che io ho trovato molto interessante :

https://www.matricedigitale.it/inch...-del-caso-open-ai-e-le-scuse-che-non-reggono/
 
  • Love
Reazioni: DjCanigia
Ultima modifica:
Vorrei ricordare che il GPDP è un ente indipendente istituito per tutelarci.

Vorrei ricordare che si parla di discipline estremamente complesse e che, il Garante non vuole opporsi per principio alle IA.

Personalmente penso che la loro sia una decisione comprensibile e da condividere. Questa si chiama prevenzione! Forse conviene muoversi per tempo no?

Per cultura personale vi condivido questa documentazione reperibile nel sito del GPDP.
 
:asdbeer: :asdbeer: hahahaha 4 real


Italia solito fanalino di coda

al di là di implicazioni etiche o legali , al di là del fatto che in italia passa la peggio merd* da sempre a livello informatico , al di là di tutto ;
l'utilizzo dell'AI è un passo evolutivo enorme , a cui tutti i paesi evoluti stanno facendo fronte , noi stessi a lavoro lo stavamo utilizzando per ammodernare vari script e ora siamo fermi ( nella tua abitazione privata puoi usare una VPN e aggirare il problema ma in una azienda grossa è un altro discorso ) .

la verità penso sia un altra , ma senza prove me la tengo per me ;

non voglio essere negativo ma penso che questo paese sia più che finito , grazie comunque Max per aver tirato fuori l'argomento , tantissimi purtroppo stanno evitando di parlarne ...
Messaggio unito automaticamente:

propongo questo articolo che io ho trovato molto interessante :

https://www.matricedigitale.it/inch...-del-caso-open-ai-e-le-scuse-che-non-reggono/
Condivido appieno.
Soprattutto il fatto che servizi come Bing non hanno avuto nessun tipo di ripercussioni..

La verità è ben diversa 🤞
 
  • Mi piace
Reazioni: MRPants
Vorrei ricordare che il GPDP è un ente indipendente istituito per tutelarci.

Vorrei ricordare che si parla di discipline estremamente complesse e che, il Garante non vuole opporsi per principio alle IA.

Personalmente penso che la loro sia una decisione comprensibile e da condividere. Questa si chiama prevenzione! Forse conviene muoversi per tempo no?

Per cultura personale vi condivido questa documentazione reperibile nel sito del GPDP.

Rispetto la tua opinione ma voglio anchio ricordare che il garante della privacy ha latitato su cosa ben più importanti , a stò mondo i santi stanno solo in chiesa , come diceva mio nonno

Faccio davvero fatica a credere a quel motivo , in ogni caso uno stop di 6 mesi sullo sviluppo del progetto per discutere sulle implicazioni etiche cè stato ed è in corso , quindi che openAi siano pazzi criminali insomma anche no , cè di peggio ; in ogni caso vediamo gli sviluppi

:inforge-rulez:
 
  • Love
Reazioni: DjCanigia
Ecco gli aggiornamenti sulla situazione direttamente dal Garante della Privacy dopo l'incontro con OpenAI (CEO e rappresentanti) comunicato stampa.

ChatGPT: Garante privacy, iniziato l’esame delle misure proposte da OpenAI

Il Garante per la protezione dei dati personali (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza) si è riunito oggi, in seduta straordinaria, per un primo esame dei due documenti fatti pervenire da OpenAI dopo l’incontro svoltosi mercoledì in video conferenza.

Il Collegio tornerà a riunirsi martedì per proseguire l’esame delle misure proposte dalla società statunitense per rendere il trattamento dei dati degli utenti e degli interessati conforme alla normativa privacy.

OpenAI ha proposto al garante delle soluzioni per i problemi evidenziati, OpenAI ha entro il 30 Aprile per implementare quanto proposto e riporto.

OpenAI dovrà predisporre e rendere disponibile sul proprio sito un’informativa trasparente, in cui siano illustrate modalità e logica alla base del trattamento dei dati necessari al funzionamento di ChatGPT nonché i diritti attribuiti agli utenti e agli interessati non utenti. L’informativa dovrà essere facilmente accessibile e collocata in una posizione che ne consenta la lettura prima di procedere all’eventuale registrazione al servizio.

Per gli utenti che si collegano dall’Italia, l’informativa dovrà essere presentata prima del completamento della registrazione e, sempre prima del completamento della registrazione dovrà essere loro richiesto di dichiarare di essere maggiorenni.

Agli utenti già registrati, l’informativa dovrà essere presentata al momento del primo accesso successivo alla riattivazione del servizio e, nella stessa occasione, dovrà essere loro richiesto di superare un age gate che escluda, sulla base dell’età dichiarata, gli utenti minorenni.

Passaggio molto importante questo:

Quanto alla base giuridica del trattamento dei dati personali degli utenti per l’addestramento degli algoritmi, il Garante privacy ha ordinato a OpenAI di eliminare ogni riferimento all’esecuzione di un contratto e di indicare, invece, in base al principio di accountability, il consenso o il legittimo interesse quale presupposto per utilizzare tali dati, fermo restando l’esercizio dei propri poteri di verifica e accertamento successivi a tale scelta.

OpenAI non usa i dati per "esecuzione contrattuale" ma per consenso o legittimo interesse, pertanto gli Utenti possono chiedere di essere rimossi dal dataset di addestramento degli algoritmi.

Pertanto infatti l'azienda metterà a disposizione di Utenti e NON Utenti dei meccanismi di rettifica e cancellazione dei dati personali:
Ulteriori prescrizioni riguardano la messa a disposizione di strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile.

OpenAI, inoltre, dovrà consentire agli interessati non utenti di esercitare, in modo semplice e accessibile, il diritto di opposizione rispetto al trattamento dei loro dati personali utilizzati per l’esercizio degli algoritmi e riconoscere analogo diritto agli utenti, qualora individui il legittimo interesse quale base giuridica del trattamento.

Infine passaggio minore la tutela dei minori di 13 anni:
Per quanto riguarda la verifica dell’età dei minori, oltre all’immediata implementazione di un sistema di richiesta dell’età ai fini della registrazione al servizio, l’Autorità ha ordinato a OpenAI di sottoporle entro il 31 maggio un piano di azione che preveda, al più tardi entro il 30 settembre 2023, l’implementazione di un sistema di age verification, in grado di escludere l’accesso agli utenti infratredicenni e ai minorenni per i quali manchi il consenso dei genitori.

E OpenAI si impegna col Garante per informare quante più persone possibili tramite ogni mezzo possibile che l'azienda potrebbe aver utilizzato i dati personali di terzi per addestrare i propri algoritmi:
Di concerto col Garante, entro il 15 maggio, OpenAI dovrà infine promuovere una campagna di informazione su radio, televisione, giornali e web per informare le persone sull’uso dei loro dati personali ai fini dell’addestramento degli algoritmi.

Non ci resta che attendere che OpenAI implementi entro fine mese tutte queste prescrizioni (proposte da loro stessi al Garante della Privacy) e in linea con il GDPR (salvo qualche piccolo caveat che per ora viene fatto rientrare nel Legittimo Interesse e si suppone sarà corretto a livello europeo in futuro).

Sono molto curioso di vedere che strumenti darà l'azienda e come cambieranno certe risposte ad alcune query effettuate su ChatGPT.
 
  • Mi piace
Reazioni: fennek e 0xbro
Quanto alla base giuridica del trattamento dei dati personali degli utenti per l’addestramento degli algoritmi, il Garante privacy ha ordinato a OpenAI di eliminare ogni riferimento all’esecuzione di un contratto e di indicare, invece, in base al principio di accountability, il consenso o il legittimo interesse quale presupposto per utilizzare tali dati, fermo restando l’esercizio dei propri poteri di verifica e accertamento successivi a tale scelta.
Ulteriori prescrizioni riguardano la messa a disposizione di strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile.

OpenAI, inoltre, dovrà consentire agli interessati non utenti di esercitare, in modo semplice e accessibile, il diritto di opposizione rispetto al trattamento dei loro dati personali utilizzati per l’esercizio degli algoritmi e riconoscere analogo diritto agli utenti, qualora individui il legittimo interesse quale base giuridica del trattamento.
Come uccidere un IA.
Un IA che non può imparare non è un IA ma uno script.

Se decidessero di non fornire il servizio agli utenti che non danno il consenso del trattamento dei dati per l'addestramento dell'algoritmo. Avrebbero al 100% la mia comprensione e condivisione.
 
Vi iscrivete su ogni sito con le mail finte dicendo di voler tutelare la vostra privacy e poi piangete se l'istituzione preposta interviene per salvaguardarvi dal vostro giochino dove scrivete pure quante volte siete andati in bagno.

Provocazione a parte è evidente che ChatGPT possa rappresentare una svolta in ambito lavorativo e che bisognerebbe evitare di frenare il progresso, ma OpenAI non è qui a fare beneficenza ed è sacrosanto che gli venga imposto di rispettare le regole.

Poi vabbè chi non comprende che una tecnologia nuova con milioni di utenti è normale attiri l'attenzione più del sito di mio cugggino senza il banner dei cookie andando a fantasticare su chissà quale complotto si commenta da solo...
 
Vi iscrivete su ogni sito con le mail finte dicendo di voler tutelare la vostra privacy e poi piangete se l'istituzione preposta interviene per salvaguardarvi dal vostro giochino dove scrivete pure quante volte siete andati in bagno.

Provocazione a parte è evidente che ChatGPT possa rappresentare una svolta in ambito lavorativo e che bisognerebbe evitare di frenare il progresso, ma OpenAI non è qui a fare beneficenza ed è sacrosanto che gli venga imposto di rispettare le regole.

Poi vabbè chi non comprende che una tecnologia nuova con milioni di utenti è normale attiri l'attenzione più del sito di mio cugggino senza il banner dei cookie andando a fantasticare su chissà quale complotto si commenta da solo...
Sorvolo la parte delle mail finte perchè non è il mio caso. Se volete tutelare la vostra privacy, scollegate internet e buttate qualsiasi dispositivi nel cesso, perchè nessun servizio online tutela la privacy, e una privacy policy non da alcuna garanzia che siete tutelati.

Personalmente non ho mai scritto che OpenAI non debba rispettare le regole, ma che è stata attaccata come fosse l'unica che non le rispetti.

Si poteva risolvere la cosa molto più semplicemente, con una richiesta scritta, ed un eventuale riscontro. Cosa che non c'è assolutamente stato.
"Devi fare cosi entro 20 giorni, in caso contrario ti prendi una multa da tot euro, e nel frattempo smetti di raccogliere dati oppure blocchi il servizio."
E nel frattempo informare il cittadino italiano di tali rischi, ma obbligare alla censura non è democrazia.

Che alla fine ciò che deve fare sono dei semplicissimi flag, in quanto OpenAi nelle "F.A.Q." già spiega e specifica che il servizio raccoglie dati a scopo di addestramento, e che deve essere utilizzata sopra i 13 anni.

Come detto dalla società stessa, attualmente ChatGpt è già regolamentata per l'europa infatti ha una privacy policy e i termini d'uso. Semplicemente non vengono sparati in faccia quando l'utente ITALIANO fa l'accesso.

Termini d'uso: https://openai.com/policies/terms-of-use
Informativa Privacy: https://openai.com/policies/privacy-policy

Inoltre vorrei aggiungere che noi in primis dovremmo proteggere la libertà online, ma bho per qualche motivo ci divertiamo a fare il contrario, quando chi ci rimette siamo semplicemente noi.
 
Personalmente non ho mai scritto che OpenAI non debba rispettare le regole, ma che è stata attaccata come fosse l'unica che non le rispetti.

No? Semplicemente non hanno fatto tanto scalpore esempio Replika:


nessun servizio online tutela la privacy, e una privacy policy non da alcuna garanzia che siete tutelati.

Per questo esiste l'authority appunto...non ci vedo niente di strano...

Si poteva risolvere la cosa molto più semplicemente, con una richiesta scritta, ed un eventuale riscontro. Cosa che non c'è assolutamente stato.

Funziona esattamente così, si apre un'istruttoria richiedendo chiarimenti però il garante ti chiede di non processare più indebitamente i dati degli utenti italiani. E' una richiesta legittima.

ma obbligare alla censura non è democrazia

Non è censura, OpenAI poteva tranquillamente mantenere online ChatGPT se rispettava a priori tutte le prescrizioni e il GDPR.

Che alla fine ciò che deve fare sono dei semplicissimi flag, in quanto OpenAi nelle "F.A.Q." già spiega e specifica che il servizio raccoglie dati a scopo di addestramento, e che deve essere utilizzata sopra i 13 anni.

No è molto più complesso di così, le F.A.Q non bastano per rispettare il GDPR (se leggi il comunicato stampa + la spiegazione nel primo post che ho inserito per questo motivo). Cambia il motivo per cui processano i dati (da esecuzione di contratto a legittimo interesse), danno strumenti per la rimozione degli stessi e deve esserci un modulo dedicato nella registrazione per bloccare gli utenti sotto i 13 anni. Funziona così.

Come detto dalla società stessa, attualmente ChatGpt è già regolamentata per l'europa infatti ha una privacy policy e i termini d'uso

Avere una Privacy Policy e rispettare gli standard dettati dal GDPR è ben diverso. Il GDPR prevede degli strumenti (esempio per fare il takeout dei dati personali degli utenti, la rettifica dei dati personali mostrati e così via).

Inoltre vorrei aggiungere che noi in primis dovremmo proteggere la libertà online

Quando usi dati di milioni se non miliardi di persone per lucrare non vedo che libertà vada protetta. Come ho già scritto, in passato, le nostre istituzioni hanno ignorato questi rischi trovandoci poi in problematiche enormi. Vedi per dire l'uso dei cookies. Che tutt'oggi dopo ANNI è una rogna e non è ancora stato deprecato. Poi alla fine le multinazionali pagano poco questi problemi (forse nel caso di Facebook/Meta di più) ma molto meno per Google o Amazon (che di fatto fanno la parte del leone nell'universo dell'advertising online) e ancor meno Microsoft. E i problemi ricadono sugli utenti finali fruitori dei servizi e sui publisher minori.
 
  • Mi piace
  • Love
Reazioni: fennek e Osirideee
No? Semplicemente non hanno fatto tanto scalpore esempio Replika:




Per questo esiste l'authority appunto...non ci vedo niente di strano...



Funziona esattamente così, si apre un'istruttoria richiedendo chiarimenti però il garante ti chiede di non processare più indebitamente i dati degli utenti italiani. E' una richiesta legittima.



Non è censura, OpenAI poteva tranquillamente mantenere online ChatGPT se rispettava a priori tutte le prescrizioni e il GDPR.



No è molto più complesso di così, le F.A.Q non bastano per rispettare il GDPR (se leggi il comunicato stampa + la spiegazione nel primo post che ho inserito per questo motivo). Cambia il motivo per cui processano i dati (da esecuzione di contratto a legittimo interesse), danno strumenti per la rimozione degli stessi e deve esserci un modulo dedicato nella registrazione per bloccare gli utenti sotto i 13 anni. Funziona così.



Avere una Privacy Policy e rispettare gli standard dettati dal GDPR è ben diverso. Il GDPR prevede degli strumenti (esempio per fare il takeout dei dati personali degli utenti, la rettifica dei dati personali mostrati e così via).



Quando usi dati di milioni se non miliardi di persone per lucrare non vedo che libertà vada protetta. Come ho già scritto, in passato, le nostre istituzioni hanno ignorato questi rischi trovandoci poi in problematiche enormi. Vedi per dire l'uso dei cookies. Che tutt'oggi dopo ANNI è una rogna e non è ancora stato deprecato. Poi alla fine le multinazionali pagano poco questi problemi (forse nel caso di Facebook/Meta di più) ma molto meno per Google o Amazon (che di fatto fanno la parte del leone nell'universo dell'advertising online) e ancor meno Microsoft. E i problemi ricadono sugli utenti finali fruitori dei servizi e sui publisher minori.
Non sono per niente d'accordo, ma sono opinioni, sono per la libertà individuale. L'utente va istruito, ma non obbligato. Questo per quanto riguarda la maggiore età.
Ripeto nuovamente se hai un account su qualsiasi social, e giudichi il modo di trattare i dati di un'azienda che lo fa per migliorare il servizio è più che un controsenso.

Inoltre utilizzare dei dati per addestrare un'IA non lo vedo assolutamente 'per nulla "lucrare".

Per quanto riguarda il fatto che è stata attaccata, intendevo dire che nonostante il 99% dei servizi online rispetti il GDPR sulla carta, non lo rispetta nella pratica. Eppure nessuno ha mai pensato di risolvere definitivamente il problema come hanno fatto con OpenAi. Multare le società multi miliardarie, con un paio di milioni, è come multare te di 1 € per guadagnarne 100 €, davvero per 1 € di multa ne rinunci a 100?

Ad ogni modo Internet deve essere Libero da ogni cosa. E ognuno deve poterlo utilizzare nel modo che preferisce. Non perchè qualcuno o qualcosa gli impone di farlo in maniera diversa.

Spero di aver spiegato e sottolineato bene cosa intendo 😂
 
Stato
Discussione chiusa ad ulteriori risposte.