"Nel suo famoso articolo del 1948, "A Mathematical Theory of Communication", Shannon introdusse concetti fondamentali come l'entropia dell'informazione, che misura l'incertezza in un insieme di dati. La sua teoria ha spiegato come comprimere e trasmettere informazioni in modo efficiente, minimizzando la perdita di dati. In termini semplici, l'entropia misura il grado di incertezza o disordine in un insieme di dati: maggiore è l'entropia, maggiore è la quantità di informazione necessaria per descrivere accuratamente i dati" (Dal libro "L'informazione" di James Gleick)"