Guida Cos'è il Machine Learning - In Sintesi, Capitolo 2 - Forme di Machine Learning, algoritmi e definizioni

St3ve

Utente Platinum
12 Ottobre 2011
2,108
1,441
669
Premetto che ho mancato "singolo" vicino a dataset e ho realizzato come la presenza di una parola possa cambiare un intero concetto.
Avevo decisamente interpretato male il messaggio: con "completo distacco dall'apprendimento proveniente da un dataset" pensavo intendessi non utilizzare alcun dataset e di basarsi solamente su un meccanismo causa-effetto in stile reward. Non avevo capito che stavi portando avanti il discorso sul transfer learning.

Il transfering leaarning invece cerca di modificare tramite il dataset B la rete R1 andandola a migliorarla, quindi al più aggiunge neuroni o ne modifica alcuni (i meccanismi mi sono ignoti).

Con "causa-effetto" si intende il selezionare il miglior dataset per migliorare la rete neurale ma non ci sta nessuna funzione di rewarding (prendila con le pinze questa mia ultima affermazione). Come si fa? Non lo so.

Ora non so se sia stato chiaro, se hai dubbi e ne sai più di me a riguardo mi farebbe piacere se condividi qualcosa con me, perchè sono etra-curioso di sapere ma non trovo fonti che siano "attendibili" a riguardo.
Non ho un granché da dire perché non mi sono mai informato a riguardo, ma intuisco che sia un'idea sensata. Alcuni modelli si è soliti inizializzarli con uno stato random (e.g., la funzione peso nelle reti neuronali) e a questo punto, beh... piuttosto che partire da uno stato random tanto vale provare a riusare lo stato generato da un modello simile che già sappiamo essere ben funzionante su un dominio di applicazione simile. Aggiustare il tiro dovrebbe essere meglio di ripartire da zero, a maggior ragione se sappiamo che il nostro training set non è abbastanza grande per poter allenare propriamente il modello.

Poi vabbé... il machine learning è ancora ben lontano dall'essere una scienza esatta. C'è troppa roba da demistificare e in pratica funziona meglio di quel che ci si aspetta in teoria. Penso che nel transfer learning si usa lo stesso principio che si usa altrove: ci provo, se qualcosa migliora lo tengo e se funziona peggio lo scarto.
 
  • Mi piace
Reactions: Kode

Kode

Utente Emerald
10 Dicembre 2013
1,213
336
393
Avevo decisamente interpretato male il messaggio: con "completo distacco dall'apprendimento proveniente da un dataset" pensavo intendessi non utilizzare alcun dataset e di basarsi solamente su un meccanismo causa-effetto in stile reward. Non avevo capito che stavi portando avanti il discorso sul transfer learning.


Non ho un granché da dire perché non mi sono mai informato a riguardo, ma intuisco che sia un'idea sensata. Alcuni modelli si è soliti inizializzarli con uno stato random (e.g., la funzione peso nelle reti neuronali) e a questo punto, beh... piuttosto che partire da uno stato random tanto vale provare a riusare lo stato generato da un modello simile che già sappiamo essere ben funzionante su un dominio di applicazione simile. Aggiustare il tiro dovrebbe essere meglio di ripartire da zero, a maggior ragione se sappiamo che il nostro training set non è abbastanza grande per poter allenare propriamente il modello.

Poi vabbé... il machine learning è ancora ben lontano dall'essere una scienza esatta. C'è troppa roba da demistificare e in pratica funziona meglio di quel che ci si aspetta in teoria. Penso che nel transfer learning si usa lo stesso principio che si usa altrove: ci provo, se qualcosa migliora lo tengo e se funziona peggio lo scarto.

Più che altro non si capiva da come lo avevo scritto, quindi era normale! E si il ML è ancora un ambito di ricerca, quindi ciò che oggi è utile domani è inutile.
 
Banner pubblicitario per Bright Data su Inforge.net azienda di vendita Proxy, Data Collector e Content Unlocker