Marktforschungs-Wiki
Advertisement

Mit den aus der Statistik II hinlänglich bekannten Konfidenzintervallen (Vertrauensbereichen) lässt sich die Lage eines Parameters in der Grundgesamtheit mit einer bestimmten Wahrscheinlichkeit umreißen.

SPSS gibt in der Koeffizienten-Tabelle automatisch die 95%-Konfidenzintervalle um die Regressionskoeffizienten und die Konstante mit aus, wobei letzteres nicht weiter beachtet werden muss. Die 95%-Konfidenzintervalle um die Regressionskoeffizienten zeigen an, zwischen welchen beiden Grenzwerten der „wahre“ Regressionskoeffizient in der Grundgesamtheit mit 95%iger Sicherheit liegt. Zu beachten sind jeweils der Abstand zwischen Ober- und Untergrenze sowie die Vorzeichen beider Werte.

Ist das Konfidenzintervall um einen dieser Regressionskoeffizienten besonders breit, muss die auf seiner Basis geschätzte Regressionsfunktion als unsicher betrachtet werden. Zu beachten ist, dass die Koeffizienten in teils unterschiedlichen Dimensionen gemessen werden – bei Geldbeträgen von mehreren tausend Euro ist ein breiteres Konfidenzintervall zu erwarten als bei einem Prozentwert.

Diese sehr subjektive Betrachtung der Intervallbreite gibt bedauerlicherweise oft wenig Auskunft über die tatsächliche Relevanz der Regressionskoeffizienten. Viel aufschlussreicher ist das Auftreten bzw. das Nicht-Auftreten eines Vorzeichenwechsels innerhalb des Konfidenzintervalls. Worauf kann ein solcher Vorzeichenwechsel hindeuten?

Liegt der “wahre“ Regressionskoeffizient einer Beispieluntersuchung mit 95%iger Sicherheit zwischen +5 und +10, so mag er in Wirklichkeit 6 oder 7 betragen – auf die Art des Einflusses der unabhängigen Variablen hat dies keine Auswirkung, sondern lediglich auf die Stärke. Im ersten Fall erhöht sich der Wert der abhängigen Variablen um 6, wenn sich der Wert der unabhängigen Variablen um 1 erhöht, im zweiten Fall erhöht sich der Wert der abhängigen Variablen unter gleichen Umständen um 7. In beiden Fällen ist der Einfluss positiv – der Wert der abhängigen Variablen steigt an, wenn auch der Wert der unabhängigen Variablen ansteigt.

Liegt aber der „wahre“ Regressionskoeffizient derselben Beispieluntersuchung mit 95%iger Sicherheit zwischen -5 und +5, so mag er in Wirklichkeit -1 oder +1 betragen – dies aber hat ganz erhebliche Auswirkung auf das Regressionsmodell und die Interpretation des Regressionskoeffizienten, denn einmal steigt der Wert der abhängigen Variablen an und einmal sinkt er ab. Ein Vorzeichenwechsel im Konfidenzintervall kann darauf hindeuten, dass ein berechneter Regressionskoeffizient mit einer nicht zu vernachlässigenden Wahrscheinlichkeit ein anderes Vorzeichen aufweisen könnte als der „wahre“ Regressionskoeffizient in der Grundgesamtheit. In einem solchen Fall würde sich der Einfluss der Variablen gewissermaßen „umkehren“ und das gesamte Regressionsmodell würde einen vollkommen falschen Eindruck von den Zusammenhängen vermitteln.

Aus diesem Grund sind Regressionskoeffizienten, deren Konfidenzintervalle einen solchen Vorzeichenwechsel aufweisen, mit Vorsicht zu interpretieren. Idealerweise ist ein Fachexperte zu konsultieren, der zu einer sicheren Aussage darüber gelangen kann, ob der Einfluss der entsprechenden unabhängigen Variablen auf die abhängige Variable ein positiver oder ein negativer sein muss. Nicht zulässig dagegen ist die Vergrößerung der Irrtumswahrscheinlichkeit des Konfidenzintervall. Durch eine solche Vergrößerung (beispielsweise von 95% auf 90%) schrumpft das Intervall und verliert gegebenenfalls den Vorzeichenwechsel – ein solches Vorgehen ist aber als manipulativ und unter dem Gesichtspunkt der methodischen Sorgfalt unangemessen zu betrachten.

Quellen

C. Reinboth: Multivariate Analyseverfahren in der Marktforschung, LuLu-Verlagsgruppe, Morrisville, 2006.

Fahrmeir, L., Künstler, R., Pigeot, I. & Tutz, G. (1999). WEFWEF. Der Weg zur Datenanalyse (2. Aufl.). Berlin: Springer.

Brosius, F. (2002). SPSS 11. Bonn: mitp-Verlag.

Advertisement