Statistica

Valore p Calculator

Segnala un errore

Condividi calcolatrice

Aggiungi la nostra calcolatrice gratuita al tuo sito web

Per favore, inserisci un URL valido. Sono supportati solo gli URL HTTPS.

Usa come valori di default per la calcolatrice integrata ciò che è attualmente nei campi di input della calcolatrice sulla pagina.
Colore dell'input a fuoco, colore della casella di switch selezionata, colore al passaggio del mouse sugli elementi selezionati, ecc.

Per favore, accetta i Termini di Utilizzo.
Anteprima

Salva calcolatrice

Cos’è un valore p?

Un valore p quantifica la probabilità di osservare risultati estremi quanto quelli ottenuti in uno studio, assumendo che l’ipotesi nulla (H₀) sia vera. Risponde alla domanda: “Se l’ipotesi nulla è vera, quanto è probabile ottenere questi dati?”

Definizioni chiave

  • Ipotesi nulla (H₀): Assunzione predefinita (es. “nessun effetto”).
  • Ipotesi alternativa (H₁): Affermazione da verificare (es. “esiste un effetto”).
  • Statistica test: Valore standardizzato (es. punteggio Z, punteggio t) calcolato dai dati.

Contesto storico

Il valore p fu reso popolare da Ronald Fisher negli anni ‘20. Fisher propose una soglia di 0,05 per la significatività statistica, convenzione ancora dibattuta.

Formula

Il valore p dipende dalla statistica test e dal tipo di test:

Formula generale

valore p={P(SxH0)(Coda sinistra)P(SxH0)(Coda destra)2×min{P(SxH0),P(SxH0)}(Due code)\text{valore p} = \begin{cases} P(S \leq x \mid H₀) & \text{(Coda sinistra)} \\ P(S \geq x \mid H₀) & \text{(Coda destra)} \\ 2 \times \min\left\{P(S \leq x \mid H₀), P(S \geq x \mid H₀)\right\} & \text{(Due code)} \end{cases}

dove SS è la statistica test e xx il valore osservato.

Test Z

Per un test Z con punteggio ZZ:

Z=Xˉμσ/nZ = \frac{\bar{X} - \mu}{\sigma / \sqrt{n}}
  • Coda sinistra: Φ(Z)\Phi(Z)
  • Coda destra: 1Φ(Z)1 - \Phi(Z)
  • Due code: 2×Φ(Z)2 \times \Phi(-|Z|)

Test t

Per un test t con punteggio tt e df=n1df = n-1:

t=Xˉμs/nt = \frac{\bar{X} - \mu}{s / \sqrt{n}}
  • Coda sinistra: T_df(t)T\_{df}(t)
  • Coda destra: 1T_df(t)1 - T\_{df}(t)
  • Due code: 2×T_df(t)2 \times T\_{df}(-|t|)

Test Chi-quadro (χ²)

Per χ² con kk gradi di libertà:

  • Coda sinistra: χ2_k(x)\chi²\_{k}(x)
  • Coda destra: 1χ2_k(x)1 - \chi²\_{k}(x)

Test F

Per F con (d1,d2)(d₁, d₂) gradi di libertà:

  • Coda sinistra: F_d1,d2(x)F\_{d₁,d₂}(x)
  • Coda destra: 1F_d1,d2(x)1 - F\_{d₁,d₂}(x)

Esempi

Esempio 1: Test Z per media

Scenario: Un’azienda afferma che le lampadine durano 1 200 ore. Un campione di 50 lampadine ha Xˉ=1180\bar{X} = 1 180, σ=100\sigma = 100. Verificare se la media è inferiore.
Soluzione:

Z=11801200100/501,414Z = \frac{1 180 - 1 200}{100 / \sqrt{50}} \approx -1,414
  • Valore p coda sinistra: Φ(1,414)0,078\Phi(-1,414) \approx 0,078.
    Conclusione: Non rifiutare H₀ a α=0,05\alpha = 0,05.

Esempio 2: Test Chi-quadro d’indipendenza

Scenario: Sondaggio verifica se genere (M/F) e preferenza (Sì/No) sono indipendenti. χ² osservato = 6,25, df=1df = 1.
Soluzione:

  • Valore p coda destra: 1χ2_1(6,25)0,0121 - \chi²\_{1}(6,25) \approx 0,012.
    Conclusione: Rifiutare H₀ a α=0,05\alpha = 0,05.

Interpretazione

  • valore p < 0,01: Forte evidenza contro H₀.
  • 0,01 ≤ valore p < 0,05: Evidenza moderata contro H₀.
  • valore p ≥ 0,05: Evidenza insufficiente per rifiutare H₀.

Errori comuni

  1. Mito: Un valore p alto “prova” H₀.
    Realtà: Indica solo evidenza insufficiente contro H₀.
  2. Mito: valore p = Probabilità che H₀ sia vera.
    Realtà: Assume H₀ vera; non misura la sua probabilità.

FAQ

Il valore p può essere negativo?

No. Rappresenta probabilità (0 ≤ p ≤ 1).

Come interpretare valore p = 0,07?

Con α=0,05\alpha = 0,05, non rifiutare H₀. Tuttavia, il risultato è marginale e richiede ulteriori studi.

Perché si usa 0,05 come soglia?

Popolarizzato da Fisher, 0,05 bilancia errori di Tipo I e sensibilità. Tuttavia, è arbitrario e varia per disciplina (es. fisica usa 5σ5\sigma, p3×107p \approx 3 \times 10^{-7}).

Come influisce la dimensione campionaria sul valore p?

Campioni grandi aumentano la sensibilità, rilevando effetti piccoli. Riportare sempre la dimensione dell’effetto (es. d di Cohen).

Differenza tra test a una e due code?

  • Una coda: Verifica un effetto in una direzione (es. “maggiore di”).
  • Due code: Verifica effetti in entrambe le direzioni. Usa 2×2 \times la probabilità della coda.