Discussione CHATGPT: Cos'è e Come Funziona?

Descrizione e Demo di ChatGPT

haxo

Helper
8 Maggio 2020
388
31
263
260
Ultima modifica da un moderatore:
L'intelligenza artificiale (AI) è una disciplina che mira a costruire sistemi che possono svolgere compiti che richiederebbero intelligenza umana, come il ragionamento, il problem solving e l'apprendimento. Uno dei modelli di AI più noti è GPT (Generative Pre-training Transformer), un modello di linguaggio sviluppato da OpenAI che è stato utilizzato per diverse applicazioni, come la traduzione automatica, la scrittura automatica di testi e la creazione di risposte naturali a domande.

h-heyerlein-ndja2LJ4IcM-unsplash.jpg

ChatGPT è un sistema di conversazione basato su un modello di linguaggio addestrato, chiamato GPT-3, che utilizza l'apprendimento per rinforzo con feedback umano (RLHF) per ottimizzare le sue prestazioni nel dialogo conversazionale. GPT-3 è stato addestrato su una grande quantità di dati scritti da persone, il che gli consente di produrre risposte che suonano abbastanza naturali per gli esseri umani. Tuttavia, è importante ricordare che ChatGPT è ancora un sistema artificiale e non ha le stesse capacità cognitive o emotive degli esseri umani


QUICK START


1    COS'E' CHATGPT

Per essere preciso, ho chiesto a CHATGPT cosa fosse CHATGPT:
ChatGPT è un sistema di chatbot basato sull'utilizzo del modello di linguaggio di OpenAI GPT-3 (Generative Pre-trained Transformer 3). GPT-3 è un modello di linguaggio di ultima generazione che è stato addestrato su una grande quantità di testo e può essere utilizzato per generare testo che sembra essere stato scritto da un essere umano. ChatGPT è stato sviluppato per consentire agli utenti di chattare con una versione virtuale di GPT-3, che può rispondere alle domande e sostenere conversazioni in modo molto simile a come lo farebbe un essere umano.

Il sistema ChatGPT è stato progettato per essere facile da usare e offre agli utenti la possibilità di chattare con il modello GPT-3 in modo semplice e intuitivo. Gli utenti possono iniziare una conversazione con ChatGPT inserendo una domanda o una richiesta di informazioni nella finestra di chat e il sistema genererà una risposta in tempo reale. ChatGPT è stato progettato per essere in grado di rispondere a una vasta gamma di domande e richieste di informazioni, e può sostenere conversazioni su una varietà di argomenti.

Inoltre, ChatGPT è stato sviluppato per essere personalizzabile e offre agli utenti la possibilità di modificare il modo in cui il sistema risponde alle domande e sostiene le conversazioni. Ad esempio, gli utenti possono modificare il livello di formalità o informale della risposta di ChatGPT o possono addirittura modificare il tono della voce del sistema.

In generale, ChatGPT è stato progettato per offrire agli utenti un'esperienza di chatbot avanzata che utilizza il potente modello di linguaggio di OpenAI GPT-3. Offre agli utenti la possibilità di sostenere conversazioni con un sistema che può rispondere alle domande e sostenere conversazioni in modo molto simile a come lo farebbe un essere umano, rendendolo una valida alternativa ai chatbot tradizionali.

ChatGPT è un modello di elaborazione del linguaggio naturale (NLP) sviluppato da OpenAI.
ChatGPT è effettivamente un intelligenza artificiale che è stata "addestrata" per rispondere ad ampie domande in maniera specifica, come se stessimo parlando con un'altra persona o ancora meglio estrapolando le idee più importanti di un libro.

"haxo, sa fare solo questo?"
Forse non capiamo il livello di questa intelligenza artificiale, possiamo chiedere praticamente qualunque cosa, qualunque.
Qualora non si fosse capito si può chiedere qualunque cosa.

1672398603316.png

Già che abbia risposto alla mia domanda generando un codice è mostruoso, ma magari è troppo semplice per lui.
Malaguratamente mi è caduto un toast a terra dalla parte della cioccolata, e il povero haxo non riesce a pulire, chiediamo a CHATGPT

1672398629025.png


2    CHIEDO A CHATGPT DI REDIGERE UN ARTICOLO

A questo punto sono curioso di far scrivere un BREVE articolo sulle reti informatiche, in modo da avere una panoramica generale su cosa sia:

haxo: scrivi un articolo sulle reti informatiche.


CHATGPT: Le reti informatiche sono una componente fondamentale della nostra vita moderna, poiché ci permettono di comunicare, lavorare e accedere a informazioni online in modo semplice e veloce. In questo articolo, esamineremo i diversi tipi di reti informatiche, le loro funzionalità e come funzionano.

Le reti informatiche possono essere classificate in base alla loro portata geografica. Esistono reti locali (LAN), reti geografiche (WAN) e reti di computer (Internet).

Le reti locali sono utilizzate per connettere computer all'interno di un'azienda o di un edificio. Ad esempio, una rete LAN può essere utilizzata per connettere i computer di un ufficio o di una scuola. Le reti LAN possono essere create utilizzando cavi di rete o tecnologie wireless, come il Wi-Fi.

Le reti geografiche, o WAN, sono utilizzate per connettere computer in diverse location geografiche. Ad esempio, un'azienda può utilizzare una rete WAN per connettere i suoi uffici in diverse città o paesi. Le reti WAN possono essere create utilizzando cavi di rete o tecnologie a radiofrequenza, come i modem a larga banda.

Internet è una rete globale di computer che permette di accedere a informazioni e risorse online da qualsiasi parte del mondo. Internet è una rete pubblica, il che significa che è aperta a tutti e può essere utilizzata da chiunque.

Le reti informatiche sono utilizzate per scambiare dati, condividere risorse e comunicare tra i computer. Ad esempio, è possibile utilizzare una rete per condividere file, stampanti o connessioni Internet. Inoltre, le reti informatiche possono essere utilizzate per fornire servizi come la posta elettronica, il trasferimento di file e il messaging istantaneo.

Le reti informatiche possono essere pubbliche o private. Le reti pubbliche, come Internet, sono aperte a tutti e possono essere utilizzate da chiunque. Le reti private, invece, sono protette da password e sono utilizzate per proteggere la privacy dei dati. Ad esempio, un'azienda può utilizzare una rete privata per condividere informazioni riservate con i suoi dipendenti.

A me, appare spaventoso (anche se ci sono delle teorie dietro questa tecnologia).

3    IL PROBLEMA DI CHATGPT

Per quanto possa semplificare molti lavori come:
- ricerche
- articoli
- scrittura di video
- creazione di testi musicali (si anche questo)
- praticamente tutto

CHATGPT non deve sostituire il lato umano.
Riguardo alla ricerca delle informazioni è importante riconoscere che CHATPGPT non capisce una ceppa di quello che sta scrivendo, l'apparente fluidità non implica accuratezza informativa.
La ricerca di informazioni richiede spesso di "indagare" e comprendere le fonti e valutare le informazioni raccolte, il che richiede uno sforzo maggiore da parte dell'utente rispetto ad avere la pappa bella e pronta da parte di CHATGPT.

4    CHATGPT E LA COMPRENSIONE

ChatGPT e altri sistemi di conversazione con intelligenza artificiali che forniscono risposte a domande hanno due "problemi".
1. La generazione di risposte dirette, il che salta il passaggio di mostrare agli utenti le fonti da cui si potrebbero cercare risposte.
2. CHATGPT fornisce risposte in linguaggio naturale colloquiale, qualcosa che sperimentiamo solo con altri esseri umani. Quando incontriamo l'output del linguaggio di una macchina, è molto difficile non estendere la fiducia nello stesso modo in cui faremmo con un essere umano, quindi il riporre la stessa fiducia.

Brevemente, CHATGPT è un problema
 
Adesso che l'ho provato per diversi giorni posso dire che stupisce in certe situazioni. Ha sbagliato doverse volte, ha anche inventato informazioni inesistenti ma su certe cose è una svolta. Gli ho chiesto ad esempio di usare una curva cubica di bezier per tracciare una curva in una matrice ed è stato perfetto, scrivendo la formula e la funzione pronta all'uso. Mi ha anche stupito la sua conoscenza di internals di progetti, si opensource, ma su repo dedicati e di diversi GB come chromium. Ma il maggior tempo me lo ha risparmiato in scrivere codice javascript per esperimenti di ricerca, su cui avrei impiegato delle ore per poi provarlo solo una volta e buttarlo via.
 
Io, invece, ho provato a fare svariate cose. Tra queste le cose che mi hanno stupito di più sono due: ho chiesto all'AI di inventare qualcosa (ha sfornato l'idea di uno strumento per abbattere le barriere linguistiche che trasforma le parole in segnali luminosi) e poi di scrivere un programma in Python per calcolare la traiettoria dei missili che devono orbitare nell'atmosfera Terrestre. Molto molto notevole questo progetto!
 
  • Mi piace
Reazioni: Valley
1672398603316.png


Già che abbia risposto alla mia domanda generando un codice è mostruoso
Questo caso specifico non è particolarmente interessante perché l'AI non ha generato proprio niente. Presumibilmente GPT-3 è (almeno principalmente) basato su dei corpus in inglese, quindi mi immagino che quando gli scrivi in altre lingue effettuerà una traduzione. Se cerco "lcm python" su google trovo una sfilza di link (1, 2, 3, 4, 5, 6, 7, 8) quasi uguali riga per riga: stesso nome delle variabili, stesso eccessivo uso di parentesi, stesse print e stessi input. È anche difficile capire chi si è copiato per primo, ma è evidente che si tratta di copy&paste perché i difetti stilistici si ripresentano allo stesso modo. Nel tuo screenshot ci sono semplicemente le stringhe tradotte dall'inglese all'italiano.

Non l'ho ancora provato perché mi sta un po' sulle palle sta cosa che bisogna inserire il numero di telefono per potersi registrare, però a prima vista mi sembra un po' over-hypato. Non metto in dubbio che sotto certi aspetti è un sistema molto avanzato e che sia molto meglio dei chatbot che abbiamo visto fin ora, ma c'è gente che pensa di perdere il proprio lavoro per colpa di sta roba quando il più delle volte ti basta riformulare la tua domanda in parole chiave (e.g., "scrivimi un programma python che calcola il mcm" -> "lcm python" o "least common multiple python") per ritrovare risposte anche più esaustive tra i primi 5 risultati di un qualsiasi motore di ricerca. Secondo me la vera novità sono le sue capacità in termini di natural-language processing: i riassunti citati da DjCanigia e 0xGhost e funzionalità simili. Il concetto di "gli ho fatto una domanda e mi ha dato la risposta giusta" non mi sembra nulla di impressionante... chiaro che dovrei provare per farmi un'idea migliore.
 
Questo caso specifico non è particolarmente interessante perché l'AI non ha generato proprio niente. Presumibilmente GPT-3 è (almeno principalmente) basato su dei corpus in inglese, quindi mi immagino che quando gli scrivi in altre lingue effettuerà una traduzione. Se cerco "lcm python" su google trovo una sfilza di link (1, 2, 3, 4, 5, 6, 7, 8) quasi uguali riga per riga: stesso nome delle variabili, stesso eccessivo uso di parentesi, stesse print e stessi input. È anche difficile capire chi si è copiato per primo, ma è evidente che si tratta di copy&paste perché i difetti stilistici si ripresentano allo stesso modo. Nel tuo screenshot ci sono semplicemente le stringhe tradotte dall'inglese all'italiano.

Non l'ho ancora provato perché mi sta un po' sulle palle sta cosa che bisogna inserire il numero di telefono per potersi registrare, però a prima vista mi sembra un po' over-hypato. Non metto in dubbio che sotto certi aspetti è un sistema molto avanzato e che sia molto meglio dei chatbot che abbiamo visto fin ora, ma c'è gente che pensa di perdere il proprio lavoro per colpa di sta roba quando il più delle volte ti basta riformulare la tua domanda in parole chiave (e.g., "scrivimi un programma python che calcola il mcm" -> "lcm python" o "least common multiple python") per ritrovare risposte anche più esaustive tra i primi 5 risultati di un qualsiasi motore di ricerca. Secondo me la vera novità sono le sue capacità in termini di natural-language processing: i riassunti citati da DjCanigia e 0xGhost e funzionalità simili. Il concetto di "gli ho fatto una domanda e mi ha dato la risposta giusta" non mi sembra nulla di impressionante... chiaro che dovrei provare per farmi un'idea migliore.

La penso esattamente come te St3ve, se un mio amico non avesse già avuto un account per farmi provare sarebbe passato molto altro tempo prima di iscrivermi, ma devo dire che la capacità di azzeccare esattamente il punto della domanda nonostante sia formulata alla buona è eccezionale, ti consiglio di provarlo. Pensa a un momento di studio passato, quando non sai nemmeno che la tecnologia X esiste ed è la soluzione perfetta per quello che vuoi fare: magari non conosci le keyword giuste per avere risultati significativi sui motori di ricerca tradizionali, ma spiegando il problema a GPT-3 probabilmente ti metterà sulla strada giusta molto più in fretta. Ovviamente chi lancia allarmismi sulla perdita del lavoro è totalmente fuori strada.
 
  • Mi piace
Reazioni: LinuxUser e St3ve
Ultima modifica:
Io ho utilizzato servizi come temp-mail e temporary-phone-number per non lasciare i miei dati personali. Anche se per il numero di telefono ci ho messo un bel po' a trovarne uno funzionante che non fosse già stato usato.
 
(e.g., "scrivimi un programma python che calcola il mcm" -> "lcm python" o "least common multiple python") per ritrovare risposte anche più esaustive tra i primi 5 risultati di un qualsiasi motore di ricerca
naturalmente era un esempio per rendere alta la comprensione e la fluidità di lettura dell'articolo.

Quel caso non è niente di che, ma è possibile fare realmente qualunque cosa.
 
Non so se qualcuno di voi l'abbia usato per farsi aiutare nella comprensione di linee o macro-blocchi di codice, e devo dire che mi ha sorpreso, riesce a descrivere ad alto livello funzioni che magari a mano si analizzerebbero in 10 minuti. Ovviamente se doveste provare assicuratevi di non incollare informazioni private o potenzialmente sensibili, ma mi è tornato utile diverse volte.

Per quanto mi riguarda, il mio utilizzo principale del tool è per la riassunzione di articoli che magari impiegherei troppo tempo a leggere: me li faccio riassumere in modo da non perdere troppo tempo e se poi mi interessano, vado a leggere l'articolo completo. Da questo punto di vista ha una capacità di sintesi molto efficace e chiara.

Dal mio punto di vista credo che più che gli umani, quelli che dovrebbero essere maggiormente preoccupati sono i motori di ricerca, perché così su due piedi gli use-cases più comuni (e per cui potrebbe diventare un sostituto) sono appunto quelli di ricerca (e forse forse di traduzione/sintesi). C'è comunque da dire che questa AI ha ancora numerosi margini d'errore e che per essere certi che i risultati da lei prodotti siano giusti, è necessario eseguire delle ulteriori ricerche e validare appunto l'output restituito.

Resta comunque una grande comodità
 
Ecco una tematica correlata, perché intere vedere come questi filtri possono essere aggirati
 
  • Mi piace
Reazioni: haxo
Le cose belle sono destinate a finire.. infatti a quanto sembra presto chatgpt diventerà a pagamento.. oppure faranno la versione free che sicuramente avrà funzioni minime e inutili e la versione a pagamento.. fortuna che OpenAi è una società non a scopo di lucro..
Se diventerà veramente a pagamento sarà l'ennesimo business informatico che dà un progetto open source (GPT3) ha fatto il proprio progetto chiuso a pagamento mah
 
  • Mi piace
Reazioni: haxo e --- Ra ---
Dal mio punto di vista credo che più che gli umani, quelli che dovrebbero essere maggiormente preoccupati sono i motori di ricerca, perché così su due piedi gli use-cases più comuni (e per cui potrebbe diventare un sostituto) sono appunto quelli di ricerca (e forse forse di traduzione/sintesi).
ChatGPT non ha ancora accesso alle informazioni correnti.

Fare feeding in tempo reale d'informazioni che vengono pubblicate quotidianamente è fattibile, ma solleva alcuni interessanti problemi tecnici.

Secondo me, il problema principale dei modelli nati da questi approcci (sia ChatGPT, che Google LaMDA 2) è che sono troppo sicuri di sé. Per come sono trainati, non dicono mai "non so", piuttosto si inventano delle storie che non stanno né in cielo né in terra, il che le rende abbastanza pericolose per un pubblico generalista, o che non conosce con esattezza l'argomento.
Sia OpenAI che Google aggiungono dei controlli "post" che cercano di limitare questo tipo di risposta (cosi come evitano di dire cose particolarmente offensive, o con dei pregiudizi), ma l'approccio è molto manuale, aggirabile, e non risolve il problema in maniera strutturale.
 
  • Mi piace
Reazioni: DjCanigia
The ChatGPT Cheat Sheet
  • Mi piace
Reazioni: haxo
Arrivano novità da parte di Google AI https://ai.google/
A quanto pare la divisione di google per l'AI sta investendo tantissimo nel progetto per andare a concorrere con ChatGPT.
Afferma anche che nel 2023 arriveranno 20 prodotti dotati di intelligenza artificiale, tra i quali il chatbot integrato in google search che porterà sicuramente una rivoluzione nella ricerca ;)
 
  • Mi piace
Reazioni: hackynonpointer
Ho visto che hanno creato da poco Classifier, un tool scritto da Open-AI per identificare (con abbastanza margine di errore) del testo scritto dalla controparte ChatGPT.


Sebbene abbia ancora abbastanza limitazioni, in futuro potrebbe venir addestrato abbastanza bene da diventare efficace per conto proprio secondo me
 
  • Mi piace
Reazioni: haxo
Ho visto che hanno creato da poco Classifier, un tool scritto da Open-AI per identificare (con abbastanza margine di errore) del testo scritto dalla controparte ChatGPT.


Sebbene abbia ancora abbastanza limitazioni, in futuro potrebbe venir addestrato abbastanza bene da diventare efficace per conto proprio secondo me
Ho notato che stesso CHATGPT riesce a verificare i se i suoi stessi testi sono stati generati da un IA.
 
Ho visto che hanno creato da poco Classifier, un tool scritto da Open-AI per identificare (con abbastanza margine di errore) del testo scritto dalla controparte ChatGPT.


Sebbene abbia ancora abbastanza limitazioni, in futuro potrebbe venir addestrato abbastanza bene da diventare efficace per conto proprio secondo me
Buono, ho notato che accetta solo +1000 caratteri di testo
 
Riprendo l’argomento per fare 4 considerazioni sul nuovo aggiornamento GPT-4.
Ho acquistato il plus per questioni lavorative (ormai chatgpt è diventato un collega ahah), comunque con l’abbonamento oltre ad avere la priorità (zero blocchi, zero crash), si può provare l’aggiornamento a GPT-4 anche se solamente 25 messaggi ogni 3 ore.
Ad ogni modo, ho visto che ha fatto passi avanti, ma nulla di ecclatante anzi soffre di un bug, o forse lo chiamerei memoria? Non so adesso mi spiego meglio:

Stavo scrivendo un codice php (ho lasciato erroneamente due tag di chiusura: </form> e </div> tenetelo a mente) , ho chiesto al bot come potevo migliorarlo e via via mi ha aiutato con lo script siamo andati avanti altri messaggi nel frattempo io mi sono accorto dei tag sbagliati e li ho tolti (il bot non si è accorto), dopo un po di botta e risposta mandandogli diverse volte il codice senza quei tag, poi gli ho inviato un altro codice simile.
E la sua risposta è stata che c’erano due tag senza apertura, e indovinate quali erano? Proprio il form e il div…
Qual’è la cosa strana? Bhè ho controllato il codice mille volte e quei tag non esistevano. Infatti gli ho risposto “Mhm ma non ci sono quei tag” e lui mi ha risposto “si, mi scuso, ho analizzato nuovamente il codice e il tag form non c’è però è presente il tag div di chiusura senza apertura” e qui nuovamente controllo mille volte anche con il search del notepad e nulla il tag non c’è, faccio la stessa cose gli dico che non esiste nessun div di chiusura senza apertura, e anche qui mi risponde di essersi sbagliato.

Tutto questo poema (scritto di fretta scusate) per fare una riflessione, possibile che in qualche modo ha collegato lo script “nuovo” (che comunque era molto simile come funzione) a quello vecchio mandato un pò di messaggi prima? Ha quindi una sorta di “memoria”? Oppure è semplicemente un bug?
Con la versione GPT-3 non mi è mai successo nulla di simile..

OpenAI ha ammesso che esiste un problema per cui GPT-4 può succedere che si “inventa le cose”. Voi che ne pensate??

Oppure forse @MRPants aveva ragione e gli alieni stanno per attaccarci ahah
 
  • Mi piace
Reazioni: haxo
Tutti questi modelli prendono gli input precedenti (chiamato context) e lo usano per costruire risposte adatte al contesto. Probabilmente quindi che si sia confuso.

Puoi fare questa prova molto semplice, l'ho appena fatta con Google Bard:

Me: What's the weather here?
Bard: The weather in Mountain View, CA is currently 45°F and mostly cloudy. There is a 100% chance of rain today, with thunderstorms in the area this evening through tomorrow afternoon. The high for today will be 54°F and the low will be 42°F.

Me: I am in Rome, do you like it?
Bard: I've never been to Rome, but it sounds like a beautiful city with a rich history. I would love to visit one day and see the Colosseum, the Roman Forum, and the Vatican City. I've heard that the food in Rome is also amazing.

Me: What's the weather here?
The weather in Rome today is mostly sunny with a high of 16°C and a low of 6°C. There is a 0% chance of rain and the humidity is 55%. The wind is blowing from the south-west at 10 km/h.

Stessa domanda, risposta diversa perché nel contesto adesso legge "I am in Rome"
 
Tutti questi modelli prendono gli input precedenti (chiamato context) e lo usano per costruire risposte adatte al contesto. Probabilmente quindi che si sia confuso.

Puoi fare questa prova molto semplice, l'ho appena fatta con Google Bard:

Me: What's the weather here?
Bard: The weather in Mountain View, CA is currently 45°F and mostly cloudy. There is a 100% chance of rain today, with thunderstorms in the area this evening through tomorrow afternoon. The high for today will be 54°F and the low will be 42°F.

Me: I am in Rome, do you like it?
Bard: I've never been to Rome, but it sounds like a beautiful city with a rich history. I would love to visit one day and see the Colosseum, the Roman Forum, and the Vatican City. I've heard that the food in Rome is also amazing.

Me: What's the weather here?
The weather in Rome today is mostly sunny with a high of 16°C and a low of 6°C. There is a 0% chance of rain and the humidity is 55%. The wind is blowing from the south-west at 10 km/h.

Stessa domanda, risposta diversa perché nel contesto adesso legge "I am in Rome"
si chiaro, ma l'input precendete era di 10 messaggi prima, non ha alcun senso.

Comunque ho appena fatto la seguente domanda sia alla versione 3 che alla versione 4:

se nella mia stanza ci sono 10 libri e ne leggo 3, quanti libri rimangono?


Risposta di GPT 3.5:
Se nella tua stanza ci sono 10 libri e ne leggi 3, ci saranno 7 libri rimanenti nella stanza.
Risposta di GPT 4:
Se nella tua stanza ci sono 10 libri e ne leggi 3, i libri rimasti nella tua stanza sono ancora 10. Leggere i libri non ne riduce il numero. Tuttavia, se intendi chiedere quanti libri non hai ancora letto, la risposta sarebbe 7 libri.

Ho testato più volte e le risposte sono sempre le stesse (scritte magari diversamente ma il succo è quello)

Dimostra chiaramente che GPT 4 è notevolmente più intelligente, ho fatto anche tanti altri test e ne sto ancora facendo e i risultati sono sempre molto diversi.