regressióne (statistica)
procedimento, detto analisi di regressione, che, date due o più variabili supposte legate da una relazione di dipendenza, permette di porre in luce la natura della relazione esistente fra esse e, quindi, di predeterminare i valori che assume una variabile dipendente al variare della o delle altre variabili indipendenti. Se le variabili sono solo due si parla di regressione semplice, se più di due di regressione multipla. Valga l'esempio della regressione semplice: si abbiano due variabili X e Y e in corrispondenza di ognuno degli n valori di X si sia individuata una distribuzione di valori di Y. Se si calcola la media di tali n distribuzioni e se si riportano su un sistema di assi cartesiani, sull'asse delle ascisse i valori delle X e su quello delle ordinate i valori delle Y, congiungendo i punti corrispondenti alle medie delle distribuzioni di Y per ognuno dei valori di X, si ottiene una curva di regressione (una retta nel caso più elementare), esprimibile mediante un'equazione che rappresenta la dipendenza, in media, della variabile Y dalla X. Se in luogo di una distribuzione di valori della variabile dipendente per ogni valore della variabile indipendente, si dispone solo di coppie di valori per le due variabili, la curva di regressione può essere individuata solo mediante interpolazione, sulla base, di solito, del principio dei minimi quadrati. Nell'equazione di regressione è denominato coefficiente di regressione il coefficiente della variabile indipendente, il quale indica, nel caso di una relazione lineare, di quanto varia la variabile dipendente per una variazione unitaria di quella indipendente. Nel caso di una regressione multipla, ogni coefficiente di regressione indica di quanto varia la variabile dipendente al variare di un'unità di una data variabile indipendente, supposte costanti le altre.