Función de Hartley
La función de Hartley es una medida de la incertidumbre, introducida por Ralph Hartley en 1928. Si se elige uniformemente al azar una muestra de un conjunto finito A, la información que se revela con el resultado está dada por la función de Hartley
donde | A | denota la cardinalidad de A.
Si la base del logaritmo es 2, la unidad de medida de la incertidumbre es el shannon. Si es el logaritmo natural, entonces la unidad es el nat. Hartley usó un logaritmo en base 10, y en esta base la unidad de información se denomina hartley en su honor. También se conoce como entropía de Hartley.
Función de Hartley, entropía de Shannon y entropía de Rényi
La función de Hartley coincide con la entropía de Shannon (así como con la entropía de Rényi de todos los órdenes) en el caso de una distribución de probabilidad uniforme. Es un caso particular de entropía de Rényi, ya que:
Pero también se puede ver como una construcción primitiva, ya que, como enfatizaron Kolmogórov y Rényi, la función de Hartley se puede definir sin introducir ninguna noción de probabilidad.
Caracterización de la función de Hartley
La función de Hartley solo depende del número de elementos en un conjunto, y por tanto puede verse como una función sobre los números naturales. Rényi demostró que la función de Hartley en base 2 es la única función de los números naturales en números reales que satisface
- (aditividad)
- (monotonía)
- (normalización)
La condición 1 da que la incertidumbre del producto cartesiano de dos conjuntos finitos A y B es la suma de las incertidumbres de A y B. La condición 2 da que un conjunto mayor da una incertidumbre mayor.
Derivación de la función de Hartley
Queremos demostrar que la función de Hartley, log2(n), es la única función de los números naturales en números reales que satisface las condiciones
- (aditividad)
- (monotonía)
- (normalización)
Sea ƒ una función sobre los enteros positivos que satisface las propiedades anteriores. Por la propiedad aditiva, podemos probar que para cualquier par de enteros n y k,
Sean a, b, y t enteros positivos cualesquiera. Existe un único entero s determinado por
Por tanto,
y
Por otra parte, por monotonía
Usando la ecuación (1), se obtiene
y
Así,
Dado que t puede ser arbitrariamente grande, la diferencia en el lado izquierdo de la desigualdad debe ser cero,
Por tanto,
para alguna constante μ, que debe ser igual a 1 por la propiedad de normalización.
Véase también
- Entropía de Rényi
- Entropía min
Referencias
- Este artículo incorpora material de Hartley function en PlanetMath, que tiene licencia Creative Commons Atribución Compartir-Igual.
- Este artículo incorpora material de Derivation of Hartley function en PlanetMath, que tiene licencia Creative Commons Atribución Compartir-Igual.