Entropía cruzada
En teoría de la información , la entropía cruzada entre dos distribuciones de probabilidad mide el número medio de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada
q
{\displaystyle q}
, más que en la verdadera distribución
p
{\displaystyle p}
.
La entropía cruzada para dos distribuciones
p
{\displaystyle p}
y
q
{\displaystyle q}
sobre el mismo espacio de probabilidad se define como sigue:
H
(
p
,
q
)
=
E
p
[
−
log
q
]
=
H
(
p
)
+
D
K
L
(
p
‖
q
)
{\displaystyle \mathrm {H} (p,q)=\mathrm {E} _{p}[-\log q]=\mathrm {H} (p)+D_{\mathrm {KL} }(p\|q)\!}
donde
H
(
p
)
{\displaystyle H(p)}
es la entropía de
p
{\displaystyle p}
, y
D
K
L
(
p
|
|
q
)
{\displaystyle D_{\mathrm {KL} }(p||q)}
es la divergencia de Kullback-Leibler entre
q
{\displaystyle q}
y
p
{\displaystyle p}
(también conocida como entropía relativa ).
Si
p
{\displaystyle p}
y
q
{\displaystyle q}
son variables discretas :
H
(
p
,
q
)
=
−
∑
x
p
(
x
)
log
q
(
x
)
{\displaystyle \mathrm {H} (p,q)=-\sum _{x}p(x)\,\log q(x)\!}
Para las distribuciones con variables aleatorias continuas :
−
∫
X
p
(
x
)
log
q
(
x
)
d
x
{\displaystyle -\int _{X}p(x)\,\log q(x)\,dx\!}
Véase también
The article is a derivative under the Creative Commons Attribution-ShareAlike License .
A link to the original article can be found here and attribution parties here
By using this site, you agree to the Terms of Use . Gpedia ® is a registered trademark of the Cyberajah Pty Ltd