Se esistesse un metodo simile, il creatore sarebbe ricco. Al momento la compressione maggiore si ottiene con codifica di Huffman.
Volevi una critica costruttiva? Eccotela servita. Dici che chi critica non ha molta professionalità e maturità? Vediamo se posso chiarire, da ingegnere elettronico che lavora con queste cose:
Se 1024 caratteri "a" equivalgono ad 8 bit ("0110 0001"), quindi 1 byte, il file che contiene 1024 "a" peserebbe idealmente 1024x8bit = 1024 Byte -> 1kB.
Con la codifica di huffman è possibile dare il codice binario 0 o 1 (in quanto è presente solo 1 simbolo) da moltiplicare per il numero di volte che è presente il carattere. Quindi la lettera "a" diventa in binario "1" (o "0", lo sceglie il progettista dell'algoritmo) ed il file diventerebbe 1024x1 bit -> 1024 bit ->128 x 8 bit -> 128 byte.
La
massima compressione possibile in caso di file contenente 2 caratteri diversi è quindi del 87,5%.
Andando quindi a moltiplicare 0,125 * 60 Gb ottengo 7,5 Gb massimi comprimibili ed ottenibili.
- 0,125 è il rapporto di compressione, cioè 128 byte/1024 byte = 12,5% (12,5*10^-2)
- un gioco contiene file audio, non comprimibili all'80% senza perdita dati
- un gioco contiene immagini, comprimibili ma fino ad un certo punto a meno di perdita di dati
Per un file complesso, si potrebbe arrivare ad un'efficienza del 60% quindi ad una riduzione del peso del 40% in condizioni standard (senza audio/video/immagini). Questo dimostra che compattare 60Gb in 50Mb è teoricamente impossibile. Non so che cavolo ci sia dentro e non ci tengo nemmeno a saperlo, l'attuale teoria va contro questo nonsense