

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Lp-norm (LP)
<a name="clarify-data-bias-metric-lp-norm"></a>

La Lp-norm (LP) misura la distanza p-norm tra le distribuzioni dei facet delle etichette osservate in un set di dati di addestramento. Questa metrica è non negativa e quindi non può rilevare il bias inverso. 

La formula per Lp-norm è la seguente: 

        Lp(Pa, Pd) = ( ∑y\$1\$1Pa - Pd\$1\$1p)1/p

Dove la distanza p-norm tra i punti x e y è definita come segue:

        Lp(x, y) = (\$1x1-y1\$1p \$1 \$1x2-y2\$1p \$1 … \$1\$1xn-yn\$1p)1/p 

2-norm è la norma euclidea. Supponiamo di avere una distribuzione degli esiti con tre categorie, ad esempio yi = \$1y0, y1, y2\$1 = \$1accettato, in lista d'attesa, rifiutato\$1 in uno scenario multicategoria di ammissioni all'università. Si calcola la somma dei quadrati delle differenze tra i conteggi degli esiti per i facet *a* e *d*. La distanza euclidea risultante viene calcolata come segue:

        L2(Pa, Pd) = [(na(0) - nd(0))2 \$1 (na(1) - nd(1))2 \$1 (na(2) - nd(2))2]1/2

Dove: 
+ na(i) è il numero dei risultati della nesima categoria nel facet *a*: ad esempio na(0) è il numero di accettazioni del facet *a*.
+ nd(i) è il numero dei risultati della nesima categoria nel facet *d*: ad esempio nd(2) è il numero di rifiuti del facet *d*.

  L'intervallo di valori LP per esiti binari, multicategoria e continui è [0, √2), dove:
  + I valori vicini allo zero indicano che le etichette sono distribuite in modo simile.
  + I valori positivi indicano che le distribuzioni delle etichette divergono, più sono positivi e maggiore è la divergenza.