

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Divergência de Jensen-Shannon (JS)
<a name="clarify-data-bias-metric-jensen-shannon-divergence"></a>

A divergência de Jensen-Shannon (JS) mede o quanto as distribuições de rótulos de diferentes facetas divergem entre si entropicamente. Ela é baseada na divergência de Kullback-Leibler, mas é simétrica. 

A fórmula para a divergência de Jensen-Shannon é a seguinte:

        JS = ½\$1[KL(Pa \$1\$1 P) \$1 KL(Pd \$1\$1 P)]

Onde P = ½ (Pa \$1 Pd), a distribuição média do rótulo nas facetas *a* e *d*.

O intervalo de valores da JS para resultados binários, multicategóricos e contínuos é [0, ln(2)).
+ Valores próximos de zero significam que os rótulos estão distribuídos de forma semelhante.
+ Valores positivos significam que as distribuições dos rótulos divergem; quanto mais positivas, maior a divergência.

Essa métrica indica se há uma grande divergência em um dos rótulos entre as facetas. 