Entropía
En la teoría de la información, la entropía es la medida de la cantidad de información que contiene una señal. Cuanto mayor es la entropía, más información contiene la señal. La entropía se mide en bits y está relacionada con el número de bits necesarios para codificar un mensaje. Cuanto más aleatorio es un mensaje, … Leer más