Z-Transformation #
In der linearen Regression werden Verteilungen z-transformiert oder auch standardisierte, um Vergleichbarkeit zwischen verschiedenen Skalen und Wertebereichen herzustellen. Da der Steigungskoeffizient skalenabhängig ist, wäre ein Vergleich sonst nicht möglich. Besonders wichtig ist das in der multivariaten Regression.
Eine Standardisierung besteht aus der Zentrierung und der Normierung der Werte. Zentrierung wird auch als Mittelwertbereinigung bezeichnet. Die Verteilungswerte werden so verändert, dass der Mittelwert 0 beträgt. Die Normierung hat zum Ziel, die Varianz, und damit auch die Standardabweichung auf 1 zu setzen. Dafür wird die Regression gestaucht oder gestreckt. Beide Schritte zusammmen ergeben die Standardisierung einer Verteilung.
Um die Werter einer Verteilung zu standardisieren, subtrahierst du von jedem Wert das [[arithmetisches-mittel|arithmetische Mittel]] und teilst das Ergebnis durch die Standardabweichung. Das machst du sowohl für die X- als auch für die Y-Werte.
$$Z_{X_i} = \frac{x_i - \overline{x}}{S_x}$$
$$Z_{Y_i} = \frac{y_i - \overline{y}}{S_y}$$
Die neue Regression geht durch den Ursprung des Graphen. In der bivariaten Regression entspricht der standardisierte Regressionskoeffizient stets Pearsons R.
Unstandardisierte Steigungskoeffizienten zeigen auf, um wie viel sich die abhängige Variable verändert. Standardisierte Steigungskoeffizienten geben Aufschluss über die Veränderung der Fehlerstreuung.