

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Divergenza Jensen-Shannon (JS)
<a name="clarify-data-bias-metric-jensen-shannon-divergence"></a>

La divergenza Jensen-Shannon (JS) misura in che misura le distribuzioni delle etichette dei diversi facet divergono l'una dall'altra a livello entropico. Si basa sulla divergenza Kullback-Leibler, ma è simmetrica. 

La formula per la divergenza Jensen-Shannon è la seguente:

        JS = ½\$1[KL(Pa \$1\$1 P) \$1 KL(Pd \$1\$1 P)]

Dove P = ½ (Pa \$1 Pd), la distribuzione media delle etichette tra i facet *a* e *d*.

L'intervallo di valori JS per esiti binari, multicategoria e continui è [0, ln(2)).
+ I valori vicini allo zero indicano che le etichette sono distribuite in modo simile.
+ I valori positivi indicano che le distribuzioni delle etichette divergono, più sono positivi e maggiore è la divergenza.

Questa metrica indica se esiste una grande divergenza in una delle etichette tra i vari facet. 