- Regressor
-
Die Regressionsanalyse bezeichnet Regressoren als erklärende Größen, die einen zu bestimmenden Einfluss auf die zu erklärende Größe (Regressand) ausüben. Ein Regressor gilt als signifikant, wenn sein Einfluss auf den Regressand nicht als zufällig bezeichnet werden kann. Neben der Signifikanz lassen sich andere Eigenschaften wie Unabhängigkeit und Vollständigkeit formulieren.
Im Gegensatz zum Korrelationskoeffizient der Korrelationsanalyse wird die Richtung des Zusammenhangs im Modell eindeutig festgelegt: nur der Regressand stellt die abhängige Variable dar. Andere Abhängigkeiten wie z. B. die der Regressoren (Multikollinearität) oder der Residuen (Autokorrelation) führen zu Ineffizienzen von Methoden, die zur Bestimmung des Einflüsses von Regressoren herangezogen werden. Die Vollständigkeitsannahme fordert, dass alle relevanten erklärenden Variablen im Modell enthalten sind.
Die im Modell unterstellte Unabhängigkeit der Regressoren ist lediglich eine Annahme und muss mit Hilfe von statistischen Methoden bestätigt werden. Bei empirischen Daten besteht immer ein gewisser Grad an Multikollinearität, der nicht störend sein muss. Eine exakte Grenze für "ernsthafte" Multikollinearität lässt sich jedoch nicht angeben.
- Beispiel: Im Allgemeinen kann man davon ausgehen, dass Werbeausgaben sowie Qualität von Produkten eine positive Wirkung auf ihre Absatzzahlen haben. Mit Hilfe von statistischen Analysen kann nun überprüft werden, ob ein Mehr an Werbung bzw. Qualität die Verkaufszahlen signifikant steigen lässt und wie stark die (relative) Wirkung der beiden Regressoren Werbeausgaben und Qualität ist.
Siehe auch
Wikimedia Foundation.