

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Divergencia de Jensen-Shannon (JS)
<a name="clarify-data-bias-metric-jensen-shannon-divergence"></a>

La divergencia de Jensen-Shannon (JS) mide en qué medida las distribuciones de etiquetas de diferentes facetas divergen entrópicamente entre sí. Se basa en la divergencia de Kullback-Leibler, pero es simétrica. 

La fórmula de la divergencia de Jensen-Shannon es la siguiente:

        JS = ½\$1[KL(Pa \$1\$1 P) \$1 KL(Pd \$1\$1 P)]

Donde P = ½( Pa \$1 Pd ), la distribución media de las etiquetas en las facetas *a* y *d*.

El rango de valores JS para los resultados binarios, multicategoría y continuos es [0, ln(2)).
+ Los valores cercanos a cero indican que las etiquetas están distribuidas de forma similar.
+ Los valores positivos indican que las distribuciones de las etiquetas son divergentes; cuanto más positivas, mayor es la divergencia.

Esta métrica indica si hay una gran divergencia en una de las etiquetas en todas las facetas. 