Home » Umfragen

Category: Umfragen

Beeinflussten Umfragen das Resultat der Wahlen 2019?

Nach jeder Wahl oder Abstimmung der gleiche Vorwurf: Die Politikerinnen, darunter auffallend viele Wahlverliererinnen, beklagen sich über die Umfragen. So auch nach den diesjährigen Nationalratswahlen. Sie beklagen sich dabei entweder darüber, dass die Umfragen nicht genau genug den Wahlausgang vorhergesagt haben (Albert Rösti, SVP) oder dass sie die Wahlen beeinflusst haben (Balthasar Glättli, Grüne). Oftmals auch beides gleichzeitig (Nadine Masshardt, SP), obwohl dies widersprüchlich ist.[2] Denn wie sollen Wahlumfragen genau den Wahlausgang vorhersagen, wenn sie selber den Wahlentscheid beeinflussen und damit selbst dafür sorgen, dass sich das Wahlresultat von den Umfragewerten wegbewegen?

Da es unmöglich ist, dass die Umfragen gleichzeitig eine genaue Vorhersage bilden und einen Einfluss auf das Wahlverhalten haben, gibt es über den Zusammenhang zwischen der Präzision der Umfragen und deren Einfluss auf das Wahlverhalten nur drei Szenarien:

  1. Die Umfragen waren präzise und hatten einen Einfluss auf das Wahlverhalten
  2. Die Umfragen hatten keinen Einfluss auf das Wahlverhalten und waren unpräzise
  3. Die Umfragen hatten einen Einfluss auf das Wahlverhalten und waren unpräzise

Unten werde ich auf die Frage eingehen, für wie wahrscheinlich ich die drei Szenarien halte. Doch zunächst muss darüber Klarheit bestehen, was unter «unpräzise» zu verstehen ist. So gilt es festzuhalten, dass selbst im unwahrscheinlichen Fall, dass sich die Wahlabsichten der Schweizerinnen seit den letzten Befragungen überhaupt nicht verändert haben, die Umfragen die Trends für alle Parteien richtig vorhergesagt haben.[3] Schaut man sich das Wahlbarometer der SRG genau an, so sieht man ausserdem, dass nur der Wähleranteil der Grünen klar ausserhalb des «Fehlerbereiches» lag. Schliesslich liegt der Prognosefehler auch weit unter dem internationalen Durchschnitt.[4] Wenn wir also von unpräzise sprechen, dann ist das sehr relativ und bezieht sich allenfalls darauf, dass die Umfragen eine geringere Wahlabsicht für die Grünen und eine etwas grössere für die SP und SVP ausgewiesen haben als am Wahltag eingetroffen ist.[5]

Doch jetzt zu unseren drei Szenarien über die Präzision der Umfragewerte und ihren Einfluss auf das Wahlverhalten:

Szenario 1: Die Umfragen waren präzise und hatten einen Einfluss auf das Wahlverhalten

Die Umfragen haben die Wahlabsichten zu ihrem Zeitpunkt sehr präzise gemessen, aber in den letzten 10 Tagen hat sich ein substantieller Anteil linker Wähler dazu entschieden, die Grünen zu wählen anstatt zuhause zu bleiben oder die SP zu wählen. Die Grünen haben gegenüber der letzten Umfrage 2 bis 3 Prozentpunkte gewonnen und die SP 1 bis 2 Prozentpunkte verloren. Die Umfragen haben dies teilweise beeinflusst, indem sie (korrekterweise) die Erwartungen an einen Wahlsieg der Grünen geschafft haben. Für diesen Zusammenhang zwischen den Umfragewerten und den Erwartungen spricht, dass der von mir durchgeführte Prognosemarkt sich stark an den Umfragen orientiert hat. Die auf dem Prognosemarkt gemessene Erwartung war also, dass die Umfragen präzise sind und den Wahlerfolg der Grünen vorwegnehmen. Diese Erwartungen haben durch einen «Trittbrettfahrer-Effekt» (bandwagon effect) unentschiedene Wähler aus dem linken Lager dazu bewogen, eher die Grünen zu wählen. Gründe für den Trittbrettfahrer-Effekt sind, dass es einem ein besseres Gefühl gibt zu den Siegern zu gehören, dass man das Gefühl hat etwas sozial Erwünschtes zu tun oder dass man wenig informiert ist und sich daher an den Entscheiden anderer im eigenen Umfeld orientiert.[6] Weil sich die SP und Grünen ideologisch so nahestehen und linke Wählerinnen für beide Parteien Sympathien haben, scheint mir dieser Trittbrettfahrer-Effekt plausibel. Auch gemäss diesem Szenario hat der Trittbrettfahrer-Effekt vor allem bei den Grünen und der SP gespielt, denn für die anderen Parteien lagen ja Umfragewerte und Wahlergebnis nahe beieinander. Für mich handelt es sich um das wahrscheinlichste Szenario.

Szenario 2: Die Umfragen hatten keinen Einfluss auf das Wahlverhalten und waren unpräzise

Es ist das Szenario, dass man in der Wissenschaft am ehesten beobachtet. Thomas De Rocchi hat in seinem Buch zu den eidgenössischen Wahlen 2011 mit hochwertigen Daten und Methodik nachgewiesen, dass die Umfragen keinen Effekt auf das Wahlresultat ausgeübt haben.[7] Trifft dies auch für 2019 zu, haben die Umfragen die Wahlabsichten für die Grünen, SP und SVP nicht präzise gemessen. Mögliche Gründe für Umfragefehler gibt es viele. Besonders schwierig dürfte es bei dieser Wahl gewesen sein, die Mobilisierung und Wahlabsichten der Neuwählerinnen richtig zu modellieren. Für mich ist dies die plausible Alternative zu Szenario 1.

Szenario 3: Die Umfragen hatten einen Einfluss auf das Wahlverhalten und waren unpräzise

Dies scheint die Intuition verschiedener Politikerinnen zu sein. Demnach stand zum Beispiel das Ausmass des Wahlerfolges der Grünen und die Verluste der SP schon mindestens 10 Tage vor der Wahl fest, die Umfragen haben es aber nicht präzise gemessen. Hätten die Wählerinnen über diese Wahlabsichten gewusst, wäre es in den letzten Tagen der SP leichter und den Grünen schwerer gefallen Wählerinnen zu mobilisieren. Die Intuition hinter dieser Hypothese ist, dass die Wählerinnen eher Parteien unterstützten, denen eine Niederlage droht. Das erste Problem mit dieser Hypothese ist: Wenn die Umfragen angeblich so unpräzise waren, weshalb waren sie dies nur bei Grünen, SP und SVP, nicht aber bei den anderen Parteien? Das zweite Problem mit der These ist, dass es in der Wissenschaft überhaupt keine Grundlage für diese Annahme gibt. Mir ist zumindest keine einzige Studie bekannt, welche nachweist, dass dieser «Aussenseiter-Effekt» (underdog effect) den oben beschriebenen «Trittbrettfahrer-Effekt» übertrifft. Dieses bei Politikerinnen beliebte Szenario ist also sehr unwahrscheinlich. Entsprechend drängt sich kein Umfrageverbot auf.

Oliver Strijbis

Hier geht es zum Originalbericht.

Hier finden Sie den Unterschied von Momentaufnahmen und Prognosen.

Hier finden Sie die Beschreibung einer Prognose (Abstimmungen).

Dieser Artikel wurde von 50plus1 zur Verfügung gestellt. 50plus1 ist ein wissenschaftlicher und politisch unabhängiger Blog von Laurent Bernhard (FORS), Maxime Walder und Oliver Strijbis (beide Universität Zürich).

[1] Foto: Felix Imobersteg | Flickr

[2] Echo der Zeit, 22.10.2019, 18:00 Uhr.

[3] Vergleiche dazu die letzten Umfragen von Sotomo, LeeWas und Gallup.

[4] Jennings, Will und Christopher Wlezien (2018): «Election polling errors across time and space»; Nature Human Behaviour 2, 276–283.

[5] Die NZZ schreibt: «Die Umfragen, die regelmässig im Vorfeld von Wahlen erscheinen, lagen zum Teil weit neben dem tatsächlichen Wahlergebnis.« Diese Kritik ist völlig überzogen. Hier geht es zum besagten Artikel.

[6] Schmitt-Beck, Rüdiger (2016): «Bandwagon effect»; S. 57-61 in Gianpietro Mazzoleni: The international encyclopedia of political communication. Wiley Blackwell, Chichester.

[7] De Rocchi, Thomas (2018): Wie Kampagnen die Entscheidung der Wähler beeinflussen; Zum kurzfristigen Wirkungspotential von Medienberichten und Wahlumfragen in der Schweiz. Springer VS, Wiesbaden.

Die wahren Volksvertreter

Was würde sich ändern, wenn bloss Parteilose an Abstimmungen teilnehmen würden? Die Antwort lautet: So gut wie nichts. Denn Parteiungebundene stimmen in aller Regel so ab wie die Gesamtheit aller Stimmenden. Sie sind der perfekte Durchschnitt.

Bürgerinnen und Bürger mit einer starken Parteiverbundenheit wissen oft von Anfang an, wie sie bei einer Sachfrage entscheiden werden: Nämlich so, wie es ihre bevorzugte Partei empfiehlt. Nicht zwingend deshalb, weil sie die entsprechenden Parteiparolen gedankenlos umsetzen, sondern vielmehr weil sie die fundamentalen Wertvorstellungen ihrer Partei teilen. Denn es muss ja einen Grund geben, weshalb man sich just mit dieser und nicht einer anderen Partei identifiziert. Und dieser Grund dürfte oftmals darin liegen, dass die Parteisympathisanten sich mit den politischen Grundüberzeugungen ihrer bevorzugten Partei zu identifizieren vermögen. Gewiss, diese Übereinstimmung wird nicht bei allen Sachfragen gleich hoch sein, aber gerade bei den wichtigen politischen Themen der Zeit ist sie wohl gegeben.

So weit, so gut. Das Problem an den überzeugten Parteigebundenen ist, dass ihre Präferenzen häufig so vorhersehbar, unverrückbar und starr sind. Ihre Meinungen sind längst gemacht, bevor die Kampagnen loslegen. Was gut für Prognostiker ist – Abstimmungen, an denen nur solch disziplinierte Parteigebundene teilnehmen würden, wären sehr viel einfacher zu prognostizieren[2] – ist nicht sonderlich hilfreich für die Chancen von politischem Wandel: Gäbe es bloss dogmatische Parteisoldaten, die sich diszipliniert an die Parteilinie halten, so gäbe es keinen bzw. kaum einen politischen Wandel. Denn die Fronten zwischen den Parteien und den Parteianhängern sind bei politischen Kernfragen verhärtet und starr.

Wie wäre es, wenn wir bloss Parteiunabhängige abstimmen lassen würden?

Parteiunabhängige hingegen folgen keiner Ideologie und keinem unverrückbaren, politischen Überzeugungssystem, sondern sind flexibel und ungebunden. Wie üblich, kann man dieselbe Sache auch negativ sehen. In solch einem Fall würde man diese Flexibilität als «Beliebigkeit» oder «Wischi-Waschi» bezeichnen. Aber bleiben wir doch beim positiven Narrativ der Parteiungebundenen: Auf jeden Fall fällt bei Parteiungebundenen der Druck weg, die eigene Partei bei Sachabstimmungen – koste es, was es wolle – unterstützen zu müssen. Die Parteigebundenen sind da bekanntlich anders. Parteiidentifikation im Sinne der Vorväter des sozialpsychologischen Ansatzes[3] meint nämlich eine affektive, emotionale Bindung an die eigene Partei – ähnlich wie ein Fussballfan, der seit Kindesbeinen seinen Verein unterstützt, manchmal gar ohne sich zu erinnern, wo und wie seine Liebe zu diesem Verein begann (wahrscheinlich: intergenerationelle Transmission oder «Vererbung» sowohl des bevorzugten Fussballvereins wie auch der politischen Partei). Und wir alle wissen, dass Fussballfans ihr Team treu unterstützen, selbst dann, wenn es grottenschlecht, langweilig und ein völlig unattraktives Spielsystem spielt. Treue Fussballfans nehmen zudem jeden, noch so ungerechtfertigten Elfmeter gerne entgegen, falls er zum Sieg verhilft. Hauptsache gewonnen.

ParteiSOLDATEN sind wie Fussballfans

Nicht wenige Parteigebundene verhalten sich ähnlich. Sie wollen «ihr» Team, also ihre Partei, an der Abstimmung gewinnen sehen – und zwar häufig auch in jenen Fällen, in denen sie von der Kampagne oder Position ihrer Partei nicht wirklich überzeugt sind. In der Tat belegen Studien, dass im Konfliktfall – also wenn die eigene Überzeugung und die Parteilinie bei einer Sachfrage auseinander fallen – mehrheitlich der Parteilinie der Vorzug gegeben wird.[4] Und es gibt noch eine andere Parallele zur Fussballwelt: Parteigebundene wollen das gegnerische Team verlieren sehen. Ist eine Niederlage des Gegners manchmal nicht noch viel süsser als der Sieg der eigenen «Boys»? Was den Parteianhängern Glücksgefühle verschafft, muss aber nicht zwingend gut sein für die Politik. Denn dort geht es um konkrete Sachfragen, über die in einer modellhaften Demokratie nüchtern, rational, abwägend und unabhängig von Zugehörigkeitsgefühlen entschieden werden sollte.

Warum also nicht bloss die Parteiunabhängigen abstimmen lassen? Keine Bange, es ist bloss ein Gedankenexperiment. Selbstverständlich wäre eine solche Forderung absurd und völlig unrealistisch – wenngleich: derzeit sind auch andere, reichlich unrealistische Forderungen zur Reform der Demokratie ernsthaft im Gespräch (z.B. die Losdemokratie, Abkehr vom Prinzip «one (wo)man, one vote» und ein doppeltes Stimmrecht für «vernünftige» Stimmbürger, etc.). Und deshalb fragen wir mit gutem Gewissen: Wie stimmen die Parteiunabhängigen denn erfahrungsgemäss ab? Die Antwort ist doch etwas verblüffend: So wie die Gesamtheit der Stimmenden. Sie sind der perfekte Durchschnitt.

Wie die obige Abbildung zeigt, folgt die Regressionsgerade des Entscheids der Parteiunabhängigen beinahe haargenau der Anpassungslinie für alle Stimmenden. Mit anderen Worten: Meistens ist der Ja-Stimmenanteil unter den Parteiunabhängigen identisch oder zumindest in der Nähe des Zustimmungswertes aller Stimmenden. Das ist keineswegs überall so: Bei den vier Bundesratsparteien (siehe erste vier Panels der oberen Abbildung) verhält es sich beispielsweise anders. Ihre Anhängerschaften stimmen zum Teil ganz anders ab als die Gesamtheit der Teilnehmenden. Selbst die CVP, die regelmässig Auszeichnungen dafür erhält[5], mit ihren Parteiparolen am nächsten beim tatsächlichen Stimmentscheid gelegen zu haben, ist – was «Volksnähe» betrifft – meilenweit von den Parteiunabhängigen entfernt. Die Parteiunabhängigen sind die viel repräsentativere Miniaturversion des Elektorats als jede andere Parteianhängerschaft.

Die Antwort ist verblüffend: Sie sind der perfekte Durchschnitt.

Das hat zunächst einmal ganz profane, mathematische Gründe: Denn die Gruppe der Parteiunabhängigen ist oftmals die zahlenmässig grösste Gruppe unter den Stimmenden. «Oftmals» deshalb, weil ihr Anteil am Stimmkörper ziemlich stark variiert – einerseits abhängig von der Definition dessen, was ein Parteigebundener ist[6] und andererseits auch abhängig davon, wann[7] und wie[8] gemessen wird. Im Schnitt beläuft sich der Anteil Parteiungebundener im Stimmkörper zwischen rund 20-45 Prozent. Es leuchtet wohl sofort ein, dass der Entscheid der (vielfach) grössten Gruppe unter den Stimmenden, also den Parteiunabhängigen, logischerweise auch am gewichtigsten in den Entscheid aller Stimmenden einfliesst. Aber so gross ist die Gruppe der Parteiunabhängigen auch wieder nicht, dass sie den Entscheid der Gesamtheit gleichsam determinierten würde. Wie gesagt, zuweilen sind sie noch nicht einmal die zahlenmässig grösste elektorale Gruppe. Der Grund für die starke Übereinstimmung zwischen dem Entscheid der Gesamtheit und dem Entscheid der Parteiunabhängigen liegt somit auch zu einem erheblichen Teil daran, dass sie im Aggregat den perfekten oder gutschweizerischen Durchschnitt bilden. Das wiederum bedeutet, dass sie demnach auch kein allzu starker Treiber für politischen Wandel sein können. Das ist möglicherweise mit ein Grund dafür, dass die politische Schweiz so stabil ist.

Thomas Milic und Thomas Willi

[1] Foto: Keystone

[2] Man stelle sich beispielsweise vor, dass bei einer Europa- oder migrationspolitischen Vorlage nur die Anhängerschaften der SP und SVP teilnehmen würden. In solch einem Fall könnte man schlicht die Wähleranteile der beiden Parteien auf den Stimmkörper übertragen und hätte – übergespitzt formuliert – das Ergebnis schon.

[3] Angus Campbell, Philip Converse, Warren Miller, and Donald Stokes. Siehe dazu ihr bahnbrechendes WerkThe American Voter.

[4] Siehe dazu beispielsweise Dalton 2002, Milic 2008, 2010, Selb et al. 2009, Sciarini und Tresch 2009.

[5] Lesen Sie hier mehr dazu.

[6] Wofür steht Parteigebundenheit oder Parteiidentifikation? Wie gesagt, die Begründer dieses Konzepts, die Autoren des American Voter, definierten Parteiidentifikation als affektive, stabile Bindung zu einer Partei, die aber nicht zwingend übereinstimmen muss mit der Wahl dieser Partei. In den USA wird dieses Konstrukt mittlerweile zumeist in der Form einer Likert-Skala gemessen mit den Polen Republikaner und Demokraten, wobei es dazwischen graduelle Ausprägungen der Verbundenheit gibt. Beispielsweise werden Personen, die sich häufig erst auf ein wiederholtes Nachfragen hin zu einer Partei bekennen, als «Leaners» bezeichnet. In der Mitte dieser Skala sind die Independents, die sich keiner Partei zugehörig fühlen. In der Schweiz wird die Parteigebundenheit mit unterschiedlichen Fragen gemessen. In diesen Frageformulierungen kommen unterschiedliche Sichtweisen davon, was die Parteisympathie bedeutet, zum Ausdruck. Deshalb variieren die Anteile der Parteiungebundener zwischen den Erhebungen zum Teil drastisch.

[7] Kurz vor und unmittelbar nach den Wahlen ist der Anteil Parteigebundener jeweils höher.

[8] Es gibt nicht nur unterschiedliche Formulierungen, um die Parteiidentifikation zu messen. Auch die Strategien unterscheiden sich: Bei gewissen Befragungen wird bei jenen, die auf die erste Frage nach der Parteiidentifikation mit “keine Partei” oder «Weiss nicht» antworteten, jeweils nachgefragt, ob es nicht doch eine Partei gibt, der man nahe steht. Bei anderen Befragungen wird darauf verzichtet. Es ist aber klar, dass der Anteil Parteiungebundener bei der ersten Strategie geringer ist als bei der zweiten Strategie.

Warum die US-Umfragen falsch lagen

Zum wiederholten Male wurde das Potential von Proteststimmenden im Vorfeld einer Wahl unterschätzt. Warum fast ausschliesslich bei Parteien oder Vorlagen von rechts? Am wahrscheinlichsten ist, dass Anti-Establishment-Wähler Umfragen verweigern, weil sie diese mit dem in ihren Augen verhassten Establishment assoziieren.

Mit britischem Humor beklagte sich am Mittwochmorgen eine BBC-Journalistin darüber, dass die USA den Briten keinen einzigen Triumph gönnen würden: Mit dem Brexit-Votum, so fuhr die Journalistin fort, glaubten viele Briten, das politische Ereignis des Jahrzehnts geboten zu haben, das niemand mehr überbieten könne. Doch den Amerikanern sei es mit der Wahl Trumps doch tatsächlich gelungen, alles noch grösser und spektakulärer zu machen. Selbiges lässt sich auch über das Versagen der Meinungsforschungsinstitute oder vielmehr über die Reaktionen darauf sagen: Beim Brexit lagen die britischen Pollster spektakulär daneben, nur um ein halbes Jahr später von ihren amerikanischen Berufskollegen übertroffen zu werden.

Aber Trump und der Brexit sind keine Ausnahmen. In Deutschland beispielsweise erzielt die AfD regelmässig bessere Resultate als prognostiziert. In Österreich legt die ÖVP im Vergleich zu Umfragen oftmals zu. Und hierzulande ging die SVP bei Wahlen wie auch bei Abstimmungen schon mehrfach unerwartet als Siegerin hervor.[2]

neu_schaeztfehler_abs

Schätzfehler der Vox-Nachbefragungen bei europapolitischen Abstimmungen

Das kann kein Zufall sein. Wo liegen die Ursachen für den Schätzfehler? Darauf soll gleich eingegangen werden. Doch vorerst: Wie weit lagen die Umfragen bei den Präsidentschaftswahlen eigentlich daneben? Zu unterscheiden sind dabei Angaben in Wahrscheinlichkeiten und solche in Wählerstimmenanteilen. Zuerst zu den Stimmenanteilen: Hier sagten die meisten Umfragen und Aggregatoren zuletzt ein knappes Rennen voraus. RealClearPolitics[3] wies beispielsweise für Clinton einen nationalen Anteil von 46.8 Prozent (rund 1 Prozentpunkt Differenz zum effektiven Resultat von 47.8) und für Trump 43.6 (-3.7 Prozentpunkte) aus.[4] Das ist – ganz nüchtern betrachtet – nicht sonderlich schlecht. Die Abweichung bei Trump hatte jedoch enorme Auswirkungen auf das Endresultat.[5] Diese Differenz liegt zudem nur knapp über dem durchschnittlichen Schätzfehler («just a normal polling error behind»). Retrospektiv betrachtet ist jedoch irritierend, dass die allermeisten Umfragen Clinton konstant vorne sahen. Bei einem knappen Rennen wären stärkere Schwankungen zu erwarten. Auf den mutmasslich zugrunde liegenden «Herding»-Effekt kommen wir weiter unten noch zu sprechen.

Aggregatoren wir HuffPost (Huffington Post), fivethirtyeight.com (Nate Silver) oder die New York Times The Upshot gaben (zusätzlich) Siegeschancen (win probabilities) an. Grundlage für diese Wahrscheinlichkeiten bilden oftmals bayesianische Modelle, in die Dutzende, wenn nicht Hunderte von Umfrageresultaten eingespiesen, gewichtet und sodann simuliert werden. [6] Pollyvote hat beispielsweise eine absurd hohe Wahlwahrscheinlichkeit von 99 Prozent für Clinton ermittelt. Das war ohne Zweifel eine kolossale Fehlleistung. Andere waren vorsichtiger. Nate Silver gab beispielsweise eine 29-prozentige Siegeschance für Trump an. Nehmen wir zur Veranschaulichung diesen Wert (für den Silver im Übrigen von Berufskollegen gerügt wurde): Er klingt zwar tief, aber er ist in etwa gleich hoch wie die Wahrscheinlichkeit bei fünfmaligem Münzwerfen drei Mal Kopf zu erhalten (30.1%). Aus Erfahrung wissen wir, dass ein solches Ergebnis keineswegs unmöglich ist. Offenbar tun wir uns aber damit schwerer, nackte Wahrscheinlichkeitswerte (ohne alltagsnahen Bezug) korrekt einzuordnen. Siegeschancen sind deshalb ein Konzept, das man überdenken soll. Es ist für viele Umfragekonsumenten und –konsumentinnen schwer einzuordnen. Bei vielen haben sie eine Sicherheit vermittelt, die nie vorhanden war.

Aber letztlich lagen die Umfragen – mit wenigen Ausnahmen – allesamt daneben. Und dies, wie gesagt, nicht zum ersten Mal, wenn es um Parteien oder Sachvorlagen von rechts geht. Warum?

Mögliche Ursache 1: Der «Herding»-Effekt.

Auch für Umfrageinstitute und Aggregatoren gilt: Wahltag ist Zahltag. Ihre Umfrageergebnisse stehen an diesem Tag auf dem Prüfstand. In den USA werden Befragungen zudem bis zum letzten Tag vor dem Wahltermin durchgeführt. Es gibt keine Karenzfrist von 10 Tagen wie in der Schweiz. Die letzten Umfrageergebnisse können demnach direkt mit den Wahlergebnissen verglichen werden; die Möglichkeit, Abweichungen auf den Meinungswandel zu schieben («Immunisierung»), fällt weg. Die Umfrageinstitute stehen deshalb unter ungleich höherem Druck als in der Schweiz, umso mehr als die Konkurrenz in den USA immens ist. Die Reputation der Pollsters und damit auch ihr Umsatz sind von der Umfrageleistung abhängig. Sie schielen deshalb, so die These des Herdings[6], immer auch auf die Umfragewerte der Konkurrenz. Und sie werden dazu tendieren, ein (Rohdaten-)Resultat, das (zu) stark vom «Mainstream» (also der Herde der anderen Pollster) abweicht, zu «glätten». Denn ein zu stark vom allgemein erwarteten Ergebnis abweichendes Umfrageresultat ist ein gehöriges Reputationsrisiko. Im Prinzip ist es ein Abwägungsprozess nach der Minimax-Regret-Regel. Dabei stellt man sich die Frage: Was wäre für einen pollster der absolute worst case? Antwort: Er weist als einziger einen Trump-Sieg aus, der aber verliert in der Folge die Wahl klar. Gratulation an dieser Stelle an die USC Dornsife/LA Times, die genau dies getan hat und am Ende als eine der Wenigen richtig lag.[8] Weniger schlimm wäre hingegen folgendes Szenario: Man weist wie alle anderen einen Clinton-Sieg aus und geht im gegenteiligen Fall (Trump gewinnt) gemeinsam und ohne gross aufzufallen mit der restlichen Herde unter. Tatsächlich haben viele Umfrageinstitute im Nachgang genauso argumentiert: «Wir lagen daneben, aber alle andere auch». Im Übrigen: Auch der Daybreak Poll von USC Dornsife/LA Times lag bei Clinton um rund vier Prozentpunkte daneben, war demnach nicht genauer als andere Umfragen. Aber am Ende hatte man den Sieger richtig prognostiziert. Was lernen wir daraus? Man muss nicht genau liegen, aber auf der richtigen Seite.

Mögliche Ursache 2: Soziale Erwünschtheit oder die «Shy Trump-ers»

Der «Klassiker» unter den Gründen für eine Verzerrung ist die soziale Erwünschtheit: Trump-Wähler hätten sich aufgrund des sozialen Drucks nicht getraut, in Interviews offen zu ihm zu stehen. Zunächst: Bei Telefonumfragen ist das denkbar («Reaktivität»). In Online-Umfragen sollte das aber keine Rolle spielen. Sie sind anonym. Trotzdem lagen auch sie daneben. Hinzu kommt: Donald Trump schnitt vor allem in North Dakota und West Virginia deutlich besser ab als vorausgesagt.[9] Dort dürfte es aber schwerer fallen, sich öffentlich zu Clinton zu bekennen als zu Trump. Die Scham davor, sich als Trump-Wähler zu outen, ist allenfalls bei urbanen Wählern und Wählerinnen der Oberschicht vorhanden, aber nicht für den Trump-Wähler aus dem bible belt.

Mögliche Ursache 3: Last-Minute-Meinungswandel

Ein Dauerbrenner ist die Begründung, wonach in den letzten Tagen bzw. Stunden vor der Wahl noch ein Meinungsumschwung stattgefunden hätte. Hierzu nur ganz kurz: Ich halte diese These bei der fundmentalen Wahl zwischen Trump und Clinton – trotz hohem Anteil unentschlossener Wähler – für abenteuerlich.

Mögliche Ursache 4: Mobilisierung oder Demobilisierung

Eine der grössten Herausforderungen von Vorumfragen ist es, die Wahlteilnehmenden zu identifizieren. Wer nimmt auch wirklich teil und wer bleibt trotz Teilnahmezusicherung im Interview am Ende trotzdem zu Hause? Amerikanische Umfrageinstitute haben hierzu Modelle von «likely voters» entwickelt, die möglicherweise von falschen Annahmen ausgingen. Sind Clinton-Anhängerinnen und –Anhänger beispielsweise zu Hause geblieben – vielleicht auch deshalb, weil sie zu siegesgewiss waren? Unmöglich ist es nicht. Aber dass politisch involvierte Menschen einer solch polarisierenden Wahl fernbleiben, weil sie mit einem sicheren Sieg ihres Lagers rechnen, halte ich für ebenso unwahrscheinlich wie den Last-Minute-Meinungswandel. Das heisst nicht, dass es keine Demobilisierung unter den Demokraten gab. Dazu müssen zunächst die genauen Beteiligungsdaten abgewartet werden. Doch selbst wenn demokratische Hochburgen eine tiefere Partizipationsrate als 2012 und 2008 gehabt haben sollten, so muss dies nicht zwangsläufig mit den Umfrageresultaten zu tun haben. Es könnte gerade so gut an der Unpopularität Clintons bei den jungen demokratischen Wählern und Wählerinnen liegen, die bei den Primaries ebenfalls für einen Change (aber einen linken Wechsel: Bernie Sanders) gestimmt haben.

Mögliche Ursache 5: Gewichtungseffekte

Es fällt zunehmend schwerer, strukturell repräsentative Stichproben zu ziehen bzw. zu realisieren. Viele verweigern die Umfrageteilnahme. Wenn sich bei US-Polls einer von zehn Angefragten zum Interview bereit erklärt, ist das beinahe schon als Erfolg zu werten.[10] Deshalb wird gewichtet. Wie wichtig und vor allem einflussreich Gewichtungsverfahren für Vorumfragen sind, zeigt ein Beispiel aus der New York Times.[11] Zu Vergleichszwecken überliess die Zeitung im Vorfeld der US-Präsidentschaftswahlen vier renommierten Umfragespezialisten dieselben Rohdaten einer Befragung. Allen vier Spezialisten stand demnach derselbe Rohdatensatz zur Verfügung, den sie nach ihrem «Gusto» gewichten (oder auch ungewichtet lassen) durften. Das Resultat war, dass sich die unterschiedlich gewichteten Ergebnisse der Umfrageinstitute allesamt voneinander unterschieden – und dies stärker als der entsprechende Stichprobenfehler der Umfrage. Im Übrigen: Am besten schnitt – nachträglich betrachtet – eine MRP-Gewichtung von Sam Corbett-Davies, Andrew Gelman und David Rothschild ab: Als einzige sahen sie Trump in Florida vorne. Auffallend ist zudem, dass das Demokraten-nahe Umfrageinstitut ein gutes Resultat für Clinton auswies, während das Republikaner-nahe Institut ein vergleichsweise gutes Resultat für Trump ermittelte: Der sogenannte «house effect» bei Umfragen.

Fazit: Gewichtungs- und Kalibrierungsmethoden unterscheiden sich offenbar stark. Dass aber so gut wie alle Institute unzureichende Gewichtungsverfahren verwendet haben, halte ich für höchst unwahrscheinlich.

Mögliche Ursache 6: Verweigerung

Wie gesagt, Vorumfragen in den USA haben Verweigerungsquoten von bis zu 90 Prozent. Diese Verweigerung erfolgt nicht rein zufällig – das realisierte Sample ist demnach keine Zufallsauswahl des im Stichprobenrahmen vorgegebenen Samples. Wer also sind diese Verweigerer? In meinen Augen am wahrscheinlichsten ist die These, dass es vor allem Protest- und Anti-Establishment-Wähler sind, die Umfragen konsequent verweigern. Denn, wie gesagt, nicht nur die Aggregatoren, sondern auch die allermeisten einzelnen Umfragen – ob telefonisch oder per Internet – lagen konsequent daneben. Und dies ist beileibe kein US-amerikanisches Phänomen: Die Unterschätzung des «Wutbürgerpotentials» ist auch bei Umfragen in Europa weit verbreitet. Warum aber verweigern diese Protestwähler Umfragen? In Leserforen auf dem Internet hat man beispielsweise nicht den Eindruck, sie seien untervertreten – im Gegenteil. Ein generelles Mitteilungsbedürfnis ist demnach auch bei diesen Wählern und Wählerinnen auszumachen. Umfragen werden von dieser Wählergruppe jedoch gemieden. Ich vermute, weil sie Umfragen als Instrument eines «Systems» ansehen, das sie grundsätzlich ablehnen und mit dem sie allerlei Ungutes assoziieren («Korruption», «Establishment», «abgehobene Elite», «Lügenpresse»). Sie schenken Umfragewerten konsequenterweise auch überhaupt keinen Glauben, halten sie im besten Fall für unzuverlässig und im schlimmsten Fall für manipuliert. Diese These der Interviewverweigerung der Wutbürger ist weder neu noch besonders originell (siehe z.B. hier), aber sie wird erstaunlicherweise eher selten vorgebracht.

Die genauen Ursachen des amerikanischen Umfrage-GAUs sind vorderhand unbekannt. Es wird wohl Monate, wenn nicht Jahre dauern, dieses kollektive Versagen der Umfrageindustrie aufzuklären. Vorderhand lässt sich über die Gründe nur spekulieren. Anzunehmen ist, dass nicht bloss einer der oben genannten Gründe ausschlaggebend war, sondern eine Kombination von Gründen. Indes, aufgrund dessen, dass die Unterschätzung der Trump-«Bewegung» kein isoliertes amerikanisches Phänomen ist, sondern Ähnliches weltweit zu beobachten ist, halte ich die letzte These für die wahrscheinlichste.

Thomas Milic

[1] Foto: Stan Wiechers|Flickr

[2] Lesen Sie den Beitrag zum Brexit und europapolitischen Abstimmungen in der Schweiz.

[3] Mehr zu RealClearPolitics finden Sie hier.

[4] Auf Bundesstaatenebene wichen die Umfragewerte teilweise deutlich stärker vom effektiven Resultat ab, was sich auf die Elektorenstimmen-Prognosen auswirkte.

[5] Die Abweichung bei Trump liegt ausserhalb des Stichprobenfehlers für ein Standardsample von rund 1’000 Befragten. Bei den Elektorenstimmen hingegen lagen die Umfragen weit daneben. Dazu werden Umfragen auf Bundesstaatenebene verwendet, die teilweise weit daneben lagen.

[6] Als Beispiel: Das Modell von HuffPost, das neben bedingten Wahrscheinlichkeiten auch noch Erwartungswerte berücksichtigt.

[7] Mehr zum Thema «Herding» finden Sie hier.

[8] Hier mehr dazu.

[9] Wo Donald Trump deutlich besser abschnitt als vorausgesagt.

[10] Wenn sich bei US-Polls einer von zehn Angefragten zum Interview bereit erklärt, ist das beinahe schon als Erfolg zu werten.

[11] Hier geht es zum Beispiel der NY Times.

 

War der Brexit wirklich eine Überraschung?

Der Ausgang des Brexit-Referendums überraschte viele. Denn Umfragen und vor allem die Wettmärkte deuteten auf einen Entscheid zugunsten eines Verbleibs. Es war aber beileibe nicht das erste Mal, dass das Lager der Euro-Skeptiker in Umfragen unterschätzt wurde. 

Als die ersten Ergebnisse des Brexit-Referendums bekanntgegeben wurden, reagierten die einen mit Entsetzen, die anderen mit überschwänglicher Freude, beide aber gleichermassen mit Erstaunen: Denn erwartet wurde allenthalben eine Mehrheit für den Verbleib in der EU. Selbst Nigel Farage glaubte zunächst nicht an den Erfolg der Seinen.[2] Geschürt wurden diese Erwartungen durch die Vorumfragen. Und wer den sonst so verlässlichen betting markets vertraute, für den war das «Remain» keine Erwartung mehr, sondern eigentlich schon eine Gewissheit: Die Chancen auf ein Remain lagen zuletzt bei 75 Prozent, wobei dies – wie sich im Nachhinein herausstellte – vor allem an den viel höheren Wetteinsätzen derjenigen lag, die auf ein «Remain» wetteten.[3,4]

Weshalb lagen die britischen Vorbefragungen (abermals) daneben? Zunächst ist darauf hinzuweisen, dass die aggregierten Umfragedaten zuletzt von einem sehr knappen Ausgang ausgingen. Der «poll of polls» der Financial Times schloss am Tag vor dem Abstimmungstermin beispielsweise mit einem 48:46 zugunsten des Verbleibs.[5] Dieses Ergebnis ist nun beileibe nicht meilenweit weg vom effektiven Ergebnis. Von einem «Armageddon der Pollsters» kann demnach – anders als bei den letztmaligen britischen Parlamentswahlen – nicht die Rede sein. Allerdings gingen die meisten Umfragen schon von einem (knappen) Erfolg der «Remainists» aus. Hier lohnt sich allerdings ein etwas detaillierterer Blick auf die Methode der Umfrage: Klassische Telefonumfragen sahen die Befürworter des Verbleibs zumeist vorne, zu Beginn sogar klar in Front.[6] Online-Umfragen – an erster Stelle YouGov, der diesbezügliche Branchenführer – gingen währenddessen immer schon von sehr viel knapperen Verhältnissen aus. Allerdings: Die letzte Online-Umfrage von YouGov sah die EU-Befürworter mit 52:48 Prozent ebenfalls knapp vorne.[7]

Daten: https://ig.ft.com/sites/brexit-polling/

Wie ungewöhnlich ist es, dass der Anteil EU-Gegner in Umfragen unterschätzt wird? Gar nicht, denn unsere Schweizer Erfahrungen zeigen, dass dies bei europapolitischen Umfragen nicht nur gelegentlich vorkommt, sondern der Normalfall ist. Diese Schlussfolgerung beruht auf einem Vergleich zwischen dem ungewichteten Ergebnis der Vox-Nachbefragungen zu europapolitischen Abstimmungen (eine Telefonumfrage) und dem jeweiligen effektiven Ergebnis an der Urne. Wer sich dafür interessiert, weshalb wir die Nachbefragungen und nicht die Vorbefragungen verwendet haben, den verweisen wir auf die Methodenbox weiter unten. Zwecks Vergleichbarkeit der Abstimmungen, wurde jeweils der Anteil der «europafreundlichen» Stimmen ausgewiesen, was beispielsweise bei der Ecopop-Initiative dem Nein-Stimmenanteil (und nicht dem Ja-Stimmen-Anteil) entspricht.

Betrachtet man die Abbildung, so ist der Fall klar: Der Anteil EU-Gegner wird auch bei Schweizer Telefonumfragen regelmässig unterschätzt. Die Differenz ist zuweilen gering – derartig gering, dass er noch innerhalb des Zufallsfehlers zu liegen kommt. Meist liegt die Differenz jedoch ausserhalb des Stichprobenfehlers. Diese Erkenntnis ist keineswegs neu. Eine Untersuchung von Patricia Funk kommt zu genau denselben Ergebnissen.[8] Und das scheint auch nicht ein ausschliesslich schweizerisches bzw. britisches Phänomen zu sein. Europaskeptische Parteien oder Kandidaten werden – so ein erster Eindruck – überall tendenziell unterschätzt: Bei den drei Landtagswahlen in Deutschland wurde etwa der AfD-Anteil so gut wie überall unterschätzt, in Österreich der FPÖ-Anteil (Anteil Hofer) bei der Bundespräsidentenwahl und in der Schweiz legt die SVP im Vergleich zu Umfragen auch oftmals zu.[9,10] Es ist schwer vorstellbar, dass all diese Abweichungen zufällig zustande kamen.

Wenn es aber nicht der Zufall ist, welches sind dann die Gründe dafür? Diese Frage ist enorm schwer zu beantworten. Grundsätzlich sind mehrere Gründe für diese Verzerrung denkbar: Abgesehen vom besagten Zufallsfehler könnte es am Auswahlrahmen liegen, also daran, dass die Liste, aus welcher die Befragten gezogen werden, unter Umständen systematische Lücken aufweist (keine Handynummern, Selbstselektion, etc.). Sodann könnte es an der Gewichtung liegen (gewisse Merkmalsgruppen werden zu stark bzw. zu gering gewichtet).[11]

Klassische Telefonumfragen sahen die Befürworter des Verbleibs zumeist vorne, zu Beginn sogar klar in Front

Da die Umfrageinstitute ihre Gewichtungspraxis aber oftmals als «Betriebsgeheimnis» hüten, kann über Gewichtungseffekte letztlich nur spekuliert werden.[12] Weiter ist denkbar, dass die Mobilisierungskraft der EU-Gegner falsch eingeschätzt wird. Denn ein wesentliches Problem aller Vorbefragungen besteht ja darin, zunächst einmal die voraussichtlich Teilnehmenden zu identifizieren. Am Ende interessiert bei Vorbefragungen nämlich nicht, wie die Stimmberechtigten über das abzufragende Sachgeschäft denken, sondern wie die tatsächlich Teilnehmenden darüber denken. Amerikanische Umfrageinstitute haben hierzu sophistizierte Modelle der «likely voters» konzipiert.[13] Diese Modelle bzw. generell die Einschätzung, wer teilnehmen wird, sind möglicherweise falsch bzw. unterschätzen die Teilnahmebereitschaft der EU-Gegner systematisch. Immer wieder wird zudem auf den verzerrenden Effekt der sozialen Erwünschtheit hingewiesen: EU-Skepsis mag – zumindest in bestimmten Kreisen – als «geächtet» erscheinen, weshalb Befragte es in Umfragen allenfalls unterlassen, ihre «wahre», kritische EU-Haltung zu äussern. Zuletzt könnte es auch am sogenannten «Non-Response-Bias» liegen. Hierzu nur kurz: Die Teilnahme an Umfragen ist bekanntermassen freiwillig. Viele verweigern die Teilnahme an Umfragen. Darunter könnten nun überdurchschnittlich viele EU-Gegner (oder «Wutbürger» im Generellen) sein, die nicht bereit sind, ihre Haltungen am Telefon oder online kundzutun. So abwegig ist der Gedanke nicht. Proteststimmende nehmen selten an Wahlen oder Abstimmungen teil – und gleiches gilt möglicherweise auch für Umfragen.

Was auch immer die Gründe sind, EU-Skeptiker bzw. EU-Gegner werden in Umfragen viel eher unterschätzt als überschätzt. Die knappen Umfrageergebnisse hätten demnach ein «böses Omen» für die Befürworter des «Remain» sein sollen. Diese hatten noch darauf gehofft, dass Unentschlossene aufgrund anthropologischer Konstanten (vor allem: die Risikoaversion) am Ende für den Status quo votieren würden. Doch auch das hätte mit Schweizer Daten in Frage gestellt werden können.[14] So überraschend kam der Brexit demnach gar nicht.

Thomas Milic und Thomas Willi

Im Gegensatz zu Grossbritannien werden in der Schweiz aufgrund eines Agreements unter den Umfrageinstituten keine Umfrageresultate in den letzten 10 Tagen vor dem Abstimmungstermin veröffentlicht. Die letzten demoskopischen Resultate sind am Abstimmungstermin demnach mindestens 10 Tage alt. Differenzen zwischen dem letzten Umfrageresultat und dem effektiven Ergebnis können demnach stets auf einen – möglicherweise tatsächlichen, vielleicht aber auch nur vermeintlichen – Meinungswandel abgewälzt werden. Mit anderen Worten: Während etwa bei der letzten YouGov-Umfrage der Schätzfehler berechnet werden kann (weil sie bloss einen Tag vor der Abstimmung durchgeführt wurde, und wir im Prinzip davon ausgehen können, dass sich die Meinungen in der letzten Nacht vor dem schicksalsträchtigen 23. Juni nicht mehr änderten), ist derselbe Wert bei Vorbefragungen, die 10 Tage oder älter sind, ungleich schwieriger zu ermitteln. Ausserdem ist bei Vorbefragungen, britischen wie schweizerischen, selten einmal vollständig klar, ob bzw. wie gewichtet wurde. Im Prinzip kann man fast mit Sicherheit davon ausgehen, dass alle Vorumfrageergebnisse gewichtet sind. Aber, wie gesagt, nach welchem Verfahren und aufgrund welcher Kriterien, ist meist unklar. Deshalb kann auch nicht zweifelsfrei eruiert werden, ob die Unterschätzung der EU-Skeptiker schon in den Rohdaten vorhanden war oder erst durch die Gewichtung erfolgte. Bei Nachbefragungen hingegen kann der Schätzfehler genau beziffert werden und bei den Vox-Nachbefragungen sind zudem auch die Rohdaten erhältlich. Hier gibt es aus logischen Gründen auch keinen «Meinungswandel» mehr, der als Erklärung für die Differenz zwischen Umfrage und effektivem Resultat herhalten kann.

Um diesen Schätzfehler zu ermitteln, wurden alle nicht-materiellen Stimmabgaben in der Befragung («Weiss nicht», «kann mich nicht erinnern», «leer eingelegt») nicht berücksichtigt.

[1] Foto: (Mick Baker)rooster|Flickr

[2] Lesen Sie hier mehr zu Nigel Farage Einschätzung.

[3] Mehr zu den «Remain»-Chancen.

[4] Waren die «odds» wegen höheren Wetteinsätzen beeinträchtigt?

[5] Der «poll of polls» der Financial Times finden Sie hier.

[6] Klassische Telefonumfragen sahen die Befürworter des Verbleibs zumeist vorne.

[7] letzte Online-Umfrage von YouGov

[8] Hier geht es zur Untersuchung von Patricia Funk.

[9]  In Deutschland wurde der AfD-Anteil unterschätzt.

[10] Österreich wurde der FPÖ-Anteil unterschätzt.

[11] Mehr zu den Polls zum Brexit lesen Sie im Blogbeitrag von Andrew Gelman.

[12] Neben der Spekulation ist im Nachhinein noch die Schätzung eines sogenannten «House Effects» möglich. Lesen Sie hier mehr dazu.

[13] Mehr zum Konzept des «likely voters» lesen Sie hier.

[14] Mehr dazu hier.

 

Wie viel Wandel steckt im Meinungswandel?

Im Zusammenhang mit direktdemokratischen Entscheiden ist immer wieder von Meinungswandel die Rede. So auch im Zusammenhang mit den Vorlagen, über die am 28. Februar entschieden wurde. Zuweilen wird dieser Meinungswandel gar in Prozentpunkten genau beziffert. Doch wie verlässlich sind eigentlich solche Zahlen? Und woher wissen wir, dass Stimmende ihre Meinung änderten? 

Die Geschichte klingt fast schon zu gut, um wahr zu sein. Noch im November 2015 galt die Annahme der Durchsetzungsinitiative als so gut wie sicher. Nur noch ein Wunder könne ein Volksja zur Durchsetzungsinitiative (DSI) verhindern, hiess es damals.[2] Und dann ereignete sich just dieses Stimmwunder vor unseren Augen: Die DSI wurde abgelehnt und das auch noch (vergleichsweise) klar. Ein dramatischer Meinungsumsturz in weniger als drei Monaten und ausserdem zu einer Sachfrage, zu welcher die Bürger ansonsten höchst stabile Haltungen haben. Das ist Stoff, den die Medien lieben: Ein Aussenseiter, der in letzter Sekunde das Blatt noch sensationell wendet. Die DSI war im Übrigen nicht die einzige Initiative, bei der die «Stimmung» auf fast schon wundersame Art und Weise gekippt ist: Auch die Heiratsstrafe und die Gotthardröhre verloren erheblich an Zustimmung. Was ist los im Lande der sonst so gefestigten Schweizer und Schweizerinnen? Ihre Meinungen scheinen höchst volatil zu sein; sie ändern sich – so ein erster, vordergründiger Eindruck – offenbar über Nacht.

Folgen Sie einem Account einer Politikerin, eines Politikers oder einer Partei in den sozialen Medien?

Loading ... Loading ...

Doch woher wissen wir denn eigentlich, dass ein Meinungswandel – und mit «Meinungswandel» ist landläufig gemeint, dass Bürger ihre Meinungen ändern – stattfand? Ganz einfach: Man nehme das Ergebnis der (SRG-)Vorbefragungen und vergleiche es mit dem Endergebnis: Die Differenz ist Meinungswandel. Ist das wirklich so einfach? Nein, denn es müssen einige Voraussetzungen erfüllt sein, damit wir tatsächlich von (individuellem) Meinungswandel sprechen können.

ERSTE VORAUSSETZUNG: DIE BÜRGER HABEN BEREITS FRÜH EINE HALTUNG ZUR SACHFRAGE 

Damit Meinungen (oder Stimmabsichten) ändern können, müssen sie zunächst vorhanden sein. Sind sie nicht vorhanden, können sie sich selbstredend auch nicht ändern. Vielmehr bilden sich in solchen Fällen Meinungen erst im Laufe des Abstimmungskampfes. Gewiss, der Prozess der Meinungsbildung ist ebenfalls ein höchst interessantes Phänomen: Auch sie kann durch Kampagnen beeinflusst werden mit dem Resultat, dass sich das «Stimmungsbild» zu einer Vorlage ändert. Aber nichtsdestotrotz sind Meinungsänderung und Meinungsbildung zwei unterschiedliche Dinge. Es ist beileibe nicht dasselbe, ob sich jemand vom entschiedenen Ausschaffungsbefürworter zum glühenden DSI-Gegner wandelt – also gewissermassen vom «Saulus zum Paulus» – oder ausgehend von einer weitestgehend indifferenten Position (“keine Meinung”) zum Stimmentscheid gelangt.

Ob nun eine halbwegs stabile Grundorientierung, die wir auch mit gutem Gewissen als «Stimmabsicht»[3] bezeichnen können, schon sechs bis sieben Wochen vor dem Abstimmungstermin (erste SRG-Umfragewelle) vorliegt, hängt primär von der Vertrautheit der jeweiligen Sachfrage ab. Bei der medial dauerpräsenten Durchsetzungsinitiative war dies sicherlich eher der Fall als etwa bei der Nahrungsmittelspekulation oder der Heiratsstrafe. Um das Argument zu verstehen, lohnt es sich, die ganz konkrete Befragungssituation vor Augen zu führen.

Wie kommen Antworten in Interviews zustande?

Die Sichtweise, wonach Befragte bei einem Interview sozusagen auf Knopfdruck ihre «wahren» Haltungen offenbaren, ist unrealistisch. Vielmehr ist die Artikulation einer Antwort zu einer Interviewfrage ein komplexer mentaler Prozess.[4] Was geschieht also, wenn die Befragten rund sechs Wochen vor dem Abstimmungstermin danach gefragt werden, ob sie eine bestimmte Vorlage derzeit annehmen oder ablehnen würden? Wie reagieren vor allem Befragte, die von der Vorlage bis zum Zeitpunkt der Befragung vielleicht noch nie was gehört haben, darauf? Einige von ihnen werden allenfalls mit «Weiss nicht» antworten. Sie zählen dann als «Unentschiedene». Andere wiederum werden wohl kurzerhand den Titel der Vorlage bewerten. Denn: Was sonst sollen sie bewerten? Der Titel, der vorgängig genannt wird, ist (wahrscheinlich) alles, was sie von der Vorlage wissen. Initiativtitel klingen aber meist höchst verheissungsvoll. Nicht nur, aber sicher auch deshalb starten Initiativen meist mit einem Umfragevorsprung in den Abstimmungskampf. Aber diese ad-hoc-Bewertung des Initiativtitels ist keine eigentliche Stimmabsicht im Sinne einer persönlichen Disposition, sondern eine unverbindliche Kurzbewertung des Initiativtitels. Philip Converse, der sich in den 60er Jahren mit den (in Umfragen) erhobenen politischen Haltungen der Amerikaner auseinandersetzte, war gar der Ansicht, dass solche Äusserungen oftmals ein «bedeutungsloses Zufallsprodukt ohne gedankliche Grundlage» seien.[5] So weit will ich nicht gehen. Aber ein – zugegebenermassen extremes – Schweizer Beispiel, nämlich die Vorlage zur medizinischen Grundversorgung (18. Mai 2014), zeigt, dass ähnliche Phänomene auch bei Sachfragen in der Schweiz auftreten: Denn selbst bei der Nachbefragung zur besagten Abstimmung konnten fast 40 Prozent der Stimmenden (!) immer noch nicht angeben, worum es inhaltlich eigentlich ging. Wenn man nach der Abstimmung nicht weiss, wovon eine Vorlage handelte, (bei der man allerdings teilgenommen hat!), wie soll man vor der Abstimmung eine Stimmtendenz dazu gehabt haben, die diese Bezeichnung auch verdient?[6] Wo aber keine Stimmabsicht vorliegt, kann auch nicht von Meinungswandel gesprochen werden.

Nochmals: die Stabilität solcher Angaben ist selbstverständlich nicht überall in Zweifel zu ziehen. Bei europa- oder ausländerpolitischen Abstimmungen dürften in der Tat bereits zu einem frühen Zeitpunkt relativ stark auskristallisierte Haltungen vorliegen – die sich in der Folge aber genau deshalb auch kaum ändern. Indes, bei wenig diskutierten, konfliktarmen Vorlagen, die oft im Schatten von Zugpferdvorlagen stehen, ist es mitunter etwas fragwürdig, von einer Stimmabsicht und folgerichtig von Meinungswandel zu sprechen.

ZWEITE VORAUSSETZUNG: EXAKTE MESSUNG DER STIMMABSICHTEN IM VORFELD DER ABSTIMMUNG

Um Meinungswandel in Prozentpunkten zu beziffern, muss die Messung der Stimmabsichten und des Stimmentscheids korrekt erfolgen.[7] Das effektive Stimmergebnis dürfte wohl in den allermeisten Fällen korrekt ausgezählt worden sein. Die Stimmabsichten sind jedoch Umfragewerte. Als solche weisen sie immer eine Unschärfe auf. Selbst bei einer «echten» Zufallsstichprobe mit 100-prozentiger Ausschöpfung ist eine Abweichung möglich – man bezeichnet dies auch als Zufallsfehler.[8] Immerhin, dieser Zufallsfehler lässt sich berechnen. Aber selbstverständlich müsste er auch dann, wenn der Meinungswandel in Prozentpunkten berechnet wird, berücksichtigt werden. Getan wird dies meines Wissens nicht. Hinzu kommt: Lehrbuchmässige Zufallsauswahlen gibt es kaum. Dazu bräuchte es nämlich eine (so gut wie) vollständige Liste aller Stimmberechtigten. Das sind Telefonverzeichnisse schon seit langem nicht mehr. Umfrageergebnisse, die auf solchen Telefonlisten beruhen, haben deshalb wohl auch eine breitere Fehlermarge als im 95%-Konfidenzintervall angegeben.[9]

Ein Beispiel: Bei der Abstimmung über das Minarettverbot wies die Vorbefragung rund zwei Wochen vor dem Urnengang 37 Prozent Zustimmung aus. Das Begehren wurde am Ende jedoch mit 57.5 Prozent Ja-Stimmen angenommen. Betrug der «Meinungswandel» satte 20 Prozent – noch dazu zu einem Zeitpunkt, zu welchem viele Stimmbürger schon brieflich abgestimmt haben? Kaum vorstellbar. Vielmehr war es wohl so, dass die Vorbefragung daneben lag. Höchst aufschlussreich ist in diesem Zusammenhang, dass die VOX-Nachbefragung zur gleichen Abstimmung, die vom gleichen Befragungsinstitut mit gleicher Methode erhoben wird, das ungewichtete Ergebnis der Minarettverbot-Initiative wieder um rund 9 Prozent unterschätzte. Zumindest bei dieser Vorlage (und vermutlich auch bei anderen) müssen wir also von einer Verzerrung von unbekanntem Ausmass bei der Messung der Stimmabsichten ausgehen, was eine genaue Bezifferung des Meinungswandels verunmöglicht.[10]

DRITTE VORAUSSETZUNG: PANELDATEN

Zuletzt: Will man individuellen Meinungswandel nachweisen, benötigt man Paneldaten. Mit anderen Worten: Man befragt dieselben Individuen zu mindestens zwei verschiedenen Zeitpunkten.[11] Im Falle von Abstimmungen liegen jedoch keine solchen Paneldaten vor. Aus diesem Grund kann auch nicht gesagt werden, ob es nun individueller Meinungswandel war oder asymmetrische (De-)Mobilisierung, die dazu führte, dass das Gesamtergebnis kippte. Zum besseren Verständnis dieses Arguments: Ein Ergebnis kann theoretisch auch dann ändern, wenn sich niemand umentscheidet. Dann nämlich, wenn die Beteiligungsbereitschaft im einen Lager ab- und im anderen Lager zunimmt, eben asymmetrische Mobilisierung. Mit Trenddaten lassen sich diese beiden Effekte nicht sauber voneinander unterscheiden. Nur mit Paneldaten geht das. Weil diese nicht vorliegen, kann auch nur schwer abgeschätzt werden, ob das, was wir auf Aggregatebene als «Stimmungswandel» wahrnehmen, auf individuelle Meinungsänderungen oder auf Mobilisierungseffekte zurückzuführen ist – oder, was am wahrscheinlichsten ist, auf beides.

Zeitpunkt

DSI-STIMMABSICHTEN WAREN STABILER ALS BEI DEN ANDEREN VORLAGEN 

Es geht keineswegs darum, einen Meinungswandel bei den Vorlagen vom 28. Februar in Abrede zu stellen. Im Gegenteil: Mit hoher Wahrscheinlichkeit gab es einen solchen – notabene bei allen vier Vorlagen und nicht bloss bei der DSI. Aber – und das ist der Punkt: In welchem Ausmass ist nur schwer zu sagen. Die Tamedia-Umfrage deutet im Übrigen darauf hin, dass just bei der DSI die Haltungen am gefestigsten waren. Rund 80 Prozent gaben an, sie seien sich von Anfang sicher gewesen, wie sie abstimmen würden. Nur sieben Prozent gaben an, ihre Meinung während des Abstimmungskampfes geändert zu haben, während weitere sieben Prozent offenbar hin und her gerissen waren zwischen einem Ja und einem Nein. Vergleicht man die DSI-Werte mit den entsprechenden Anteilen für die anderen Vorlagen, so stellt man fest: Der Anteil von Beginn weg Überzeugten war bei der DSI am höchsten und derjenige der Umentscheider am tiefsten. Der Kontrastpunkt zur DSI bildet die Initiative zur Nahrungsmittelspekulation: 21 Prozent gaben an, sie hätten sich erst kurz vor dem Abstimmungstermin überhaupt damit auseinandergesetzt. Zum Vergleich: Bei der DSI betrug dieser Anteil gerade einmal drei Prozent. Im Übrigen: Das ist alles nicht überraschend. Bei Europa- und Ausländerabstimmungen sind die Schweizer Stimmbürger überdurchschnittlich gut informiert, entscheiden sich früh und weisen fest verwurzelte Haltungen auf.

nein_neu

Nochmals: Offenbar gab es individuelle Meinungsänderungen bei allen vier Vorlagen. Die Daten weisen auch darauf hin. Aber der «Umschwung» wird nicht alleine darauf zurückzuführen sein, dass sich Bürger plötzlich umentschieden. Ein weiterer Grund wird gewesen sein: Viele ansonsten «Stimmfaule» liessen sich mitreissen und nahmen teil. Sie haben ihre Haltung aber nicht notwendigerweise geändert, geändert hat sich bloss ihre Beteiligungsbereitschaft. Und bei den drei «Nicht-DSI-Vorlagen» gab es offensichtlich viele, die primär der DSI wegen teilnahmen, aber sich nun auch gleich noch zu den anderen Vorlagen der Multipack-Abstimmung äusserten. Bei diesen Stimmbürgern apriori von Meinungswandel zu sprechen, führt in die Irre.

Thomas Milic

[1] Foto: richoz|Flickr

[2] Den dazugehörigen Text in der NZZ lesen Sie hier.

[3] Was versteht man eigentlich unter Stimmabsicht? Von einer Stimmabsicht erwarten wir eine gewisse Stabilität. In der Kognitionspsychologie ist deshalb auch von Dispositionen die Rede, also von einer Tendenz, denselben Bewertungsgegenstand immer wieder in einer ähnlichen Art und Weise zu bewerten. Damit ist nicht gemeint, dass Haltungen ein für alle Mal in Granit gemeisselt sind. Aber sollte sich eine «Stimmabsicht» beinahe stündlich ändern und schon durch kleinste Veränderungen in der Frageformulierung umgestossen werden, dann ist das keine verinnerlichte Orientierungstendenz (Stimmabsicht) mehr, sondern – Zitat Converse (1964: 243) – «meaningless opinions that vary randomly in direction during repeated trials over time».

[4] Es gibt mittlerweile einen riesigen Fundus an Literatur zu Theorien des Antwortverhaltens. Besonders empfehlenswert ist meiner Ansicht nach John Zallers und Stanley Feldmans (1992) «A Simple Theory of the Survey Response: Answering Questions Versus Revealing Preferences». Dabei gehen Zaller und Feldman nicht von einem «Converschen Vakuum» aus. Aber sie gehen ebenso wenig von der Ansicht aus, Bürger hätten zu allen Sachfragen eine einigermassen stabile Meinung, die sie bei Befragungen «auf Abruf» präsentieren können.

[5] Lesen Sie dazu: Schmitt-Beck 2000. Der Zufallsfehler einer verzerrten Stichprobe ist logischerweise ebenfalls verzerrt.

[6] Der Anteil Unentschiedener betrug bei der zweiten Vorbefragungswelle 19 Prozent, demnach weit weniger als die rund 40 Prozent, die keine substanzielle Inhaltsangabe bei der Nachbefragung machen konnten.

[7] Den dazugehörigen Artikel finden Sie unter Fussnote 2.

[8] Wodurch zeichnet sich eine Zufallsstichprobe aus? Dadurch, dass alle Elemente der Grundgesamtheit dieselbe bzw. eine berechenbare Chance aufweisen, Element der Stichprobe zu werden. Diese Inklusionschance muss zudem höher als Null betragen. Im Telefonverzeichnis nicht registrierte Stimmbürger haben eine Inklusionschance von Null, sofern die Telefonliste die Auswahlgesamtheit darstellt.

[9] Eine «Trefferquote» lässt sich bei Vorbefragungen bekanntermassen nicht ermitteln, aber bei Nachbefragungen. Die Vox ist eine solche Nachbefragung. Die Befragungen finden jeweils innerhalb zweier Wochen nach der Abstimmung statt. Der Einwand, wonach sich in den letzten Wochen die Meinung eben noch geändert habe, gilt für eine Nachbefragung somit nicht. Man kann also den Schätzfehler genau ermitteln. Die Differenz zwischen dem im Vox-Sample ermitteltem und dem effektiven Ergebnis beträgt zwischen 1998 und heute rund 5 Prozentpunkte (absolut). Überträgt man diese Trefferquote auf die Vorbefragungen, so könnte der in Prozentpunkten gemessene Meinungswandel unter Umständen 5 Prozentpunkte mehr oder 5 Prozentpunkte weniger betragen.

[10] Zu den Gründen für diese Verzerrung wurde seinerzeit viel diskutiert. Für die Ermittlung des Meinungswandels in Prozentpunkten spielt dies indes keine Rolle.

[11] Lesen Sie hierzu den Artikel von Nicolet und Sciarini.

 

Die vermeintliche Andersartigkeit von Eingebürgerten

Die Diskussion um Einbürgerungen ist in der Schweiz ein brisantes Thema. Vertreter von rechts fordern eine Verschärfung und eine Umstrukturierung des bisherigen Einbürgerungsgesetzes. Dieser Gastbeitrag von Nina Bader zeigt, dass sich eingebürgerte Schweizer kaum von gebürtigen Schweizern unterscheiden. Einzig die Chancengleichheit bei Ausländern und Schweizern lässt Unterschiede erkennen.

In der Schweiz wird das Thema Einbürgerung seit Jahren kontrovers diskutiert und die Meinungen dazu gehen weit auseinander. Obwohl die Schweiz eines der härtesten Einbürgerungsverfahren der Welt hat, fordern vor allem rechts-orientierte Politiker und Bürger eine restriktivere Einbürgerungspolitik. Die SVP will die Einbürgerung für Kriminelle und sogenannte Sozialabzocker erschweren, wie auch für Personen, deren Sprach- und Staatskenntnisse mangelhaft sind. Die Rede ist von Sozialstaatsabzockern, Kriminellen, schlecht integrierten Personen – kurz von Menschen, die nicht die Schweizer Wertvorstellungen vertreten.

Eingebürgerte unterscheiden sich kaum von den gebürtigen Schweizern

Die Daten der Wahlstudie Selects zeigen jetzt aber ein ganz anderes Bild auf: Eingebürgerte Schweizer unterscheiden sich kaum von den gebürtigen Schweizern. Sie teilen die gleiche Meinung, wenn es um nukleare Energie, tiefere Steuern, höhere Steuern auf hohes Einkommen und den EU-Beitritt geht. Die Prozentsätze zwischen den beiden Gruppen variieren nur minim.

Der «Schweizer Urnengänger» war 2011 gegen nukleare Energie, gegen die Chancengleichheit von Ausländern, für höhere Steuern bei hohem Einkommen, gegen allgemeine tiefere Steuern und gegen den EU-Beitritt. Dabei spielte es keine Rolle, ob man den roten Pass schon seit Geburt hat oder nicht. Nur bei einer Thematik findet man starke Unterschiede über die Zeit: Bei der Meinung zur Chancengleichheit von Ausländern und Schweizern.

Bei der Chancengleichheit sind gebürtige Schweizer konservativer

Beim Thema Chancengleichheit für Ausländer sind die eingebürgerten Schweizer seit jeher liberaler. Seit 1995 stehen eingebürgerte Schweizer stärker für die Chancengleichheit ein als gebürtige Schweizer. Während die Unterschiede zwischen den beiden Gruppen 1995 noch sehr deutlich waren, lässt sich in den letzten Jahren aber eine Annäherung erkennen. Das liegt vor allem daran, dass die gebürtigen Schweizer wieder vermehrt für die Chancengleichheit einstehen.

Bei der Datenerhebung wurden die Befragten aufgefordert, sich auf einer Skala von 1 bis 5 einzustufen. Eins bedeutet, dass man für die volle Chancengleichheit zwischen Ausländern und Schweizern ist, während eine fünf für bessere Chancen für Schweizer steht.

chancengleichheit_AA

Die Grafik zeigt einen deutlichen Rückgang bei den Befürwortern der Chancengleichheit bis zum Jahre 1999. Der Rückgang der Zustimmung ist bei beiden Gruppen gleich, auch hier unterscheiden sich die gebürtigen Schweizer nicht von den eingebürgerten Schweizern. Über die Gründe dafür kann nur spekuliert werden. Allerding fällt dieser Rückgang genau mit dem Aufstieg der Schweizerischen Volkspartei SVP zusammen. Die SVP ist seit 1999 die stimmenstärkste Partei der Schweiz und hat vor allem mit ihrer Kampagne gegen den EWR-Beitritt 1992 stark an Wählern gewonnen. Die SVP steht aktiv dafür ein, dass die Chancen für die Schweizer besser sind als für Ausländer. Der Rückgang in der Zustimmung zur Chancengleichheit liegt wahrscheinlich beim starken Aufstieg der SVP zu dieser Zeit.

Ab dem Jahre 1999 stieg die Zustimmung zur Chancengleichheit zwischen Ausländern und Schweizern allerding wieder erheblich. Erst seit 2007 stagniert die Kurve bei beiden Gruppen. Dies ist möglicherweise auf die weltweite Wirtschaftskrise und die darauffolgende Eurokrise zurückzuführen, die in vielen Ländern zu Unsicherheit führte. In Zeiten der Krise fokussieren sich die Bürger eines Landes vermehrt auf die eigenen Rechte und weniger auf jene der Ausländer.

Es kann davon ausgegangen werden, dass die beiden Kurven in den nächsten Jahren (weiter) sinken werden. Gründe dafür sind die momentane Flüchtlingskrise, die anhaltende Wirtschaftskrise und die Angst vor Terrorismus, die alle dazu beitragen, dass die Chancengleichheit zwischen Ausländern und Schweizern nicht unbedingt weiter vorangetrieben wird.

Veränderte öffentliche Meinung zum EU-Beitritt der Schweiz

Am stärksten hat sich die öffentliche Meinung bei beiden Gruppen zur Thematik des EU-Beitrittes verändert. Während 1995 noch 75% der eingebürgerten Schweizer für einen EU-Beitritt einstanden, waren es 2011 nur noch knapp 24%. Ein ähnliches Bild zeigt sich bei den gebürtigen Schweizern, wobei diese nie so deutliche für den EU-Beitritt einstanden wie die Eingebürgerten. 1995 unterstützen 60% den EU-Beitritt, 2011 war die Zahl nur noch bei 18%. Während im Jahre 1995 die Meinung zum EU-Beitritt noch davon abhing, ob man ein eingebürgerter Schweizer ist oder ein Gebürtiger, so spielt dieser Faktor 2011 kaum mehr eine Rolle. Der Schweizer Bürger, ob eingebürgert oder gebürtig, steht 2011 ganz klar gegen einen EU-Beitritt ein.

proeu_AA

Die Resultate überraschen weniger, da sich die Stimmung gegenüber der EU seit der Eurokrise stark verändert hat. Ein EU-Beitritt scheint heute längst nicht mehr so attraktiv wie noch vor 20 Jahren. Weiter erstaunt es auch nicht, dass die eingebürgerten Schweizer eher für einen EU-Beitritt stimmen würden. Rund die Hälfte aller eingebürgerten Schweizer 2011 stammen aus EU-Ländern. Bei einer Zustimmung von 24% lässt es sich allerdings darauf schliessen, dass sogar eingebürgerte EU-Bürger heute gegen einen Unions-Beitritt sind.


Diese Zahlen werden in den nächsten Jahren wohl noch weiter sinken, da die Stimmung gegenüber der EU durch die Euro- und Flüchtlingskrise weiterhin angespannt ist.

Überraschende Übereinstimmung zwischen den Eingebürgerten und den Schweizern

Die Auswertung der Daten zeigt klar auf, wie ähnlich sich die eingebürgerten und die gebürtigen Schweizer in ihren Wertvorstellungen sind. Über die Zeit haben sich die Einstellungen der beiden Gruppen immer weiter angenähert. Während 1995 die Unterschiede in den Werteprofilen noch deutlicher waren, sind heute kaum noch Unterschiede zwischen den beiden Gruppen zu erkennen.

Es erscheint ausserdem sehr einseitig, die Wertevorstellungen eines eingebürgerten Schweizers lediglich mit seinem Migrationshintergrund erklären zu wollen. Genau wie bei jedem anderen Bürger erklären auch bei einem eingebürgerten Schweizer mehrere Faktoren die Wertevorstellungen und den damit zusammenhängenden Wahlentscheid.

Nina Bader studiert Politikwissenschaft im Master an der Universität Zürich.

[1] Foto: Eli Carrico|Flickr

 

Neue Fragen lassen auf die Stimmabsicht der Unentschlossenen schliessen

Dieser Gastbeitrag von Livio Raccuia geht davon aus, dass sich Abstimmungsergebnisse mithilfe impliziter Messungen besser voraussagen lassen als mit ausschliesslich herkömmlichen Fragetypen. Weitere Untersuchungen sind jedoch notwendig.

Vor jedem Urnengang werden in der Schweiz Trendumfragen durchgeführt mit dem Ziel Entwicklungen in der Unterstützung einer Abstimmungsvorlage zu erfassen und abzubilden. Dabei stellt sich jeweils eine zentrale Frage: Was passiert mit der Gruppe der unentschlossenen Stimmbürger? Wechseln diese in das Lager der Vorlagenbefürworter oder doch eher zum gegnerischen Lager? Selbst drei Wochen vor einer Abstimmung geben im Durchschnitt 10 Prozent der befragten Personen an, sich bezüglich ihres Stimmentscheids noch nicht sicher zu sein.

undec_anteil_juni16

Gerade bei umstrittenen und dementsprechend knappen Abstimmungen kann die Gruppe der unentschlossenen Stimmbürger entscheidend sein. Folglich wäre es sowohl für die Praxis wie auch die politikwissenschaftliche Forschung wichtig zu wissen, inwiefern sich der Meinungsbildungsprozess unentschlossener Personen von jenem entschlossener Bürger und Bürgerinnen unterscheidet. Ebenfalls hilfreich wären alternative Messinstrumente, welche es erlauben würden, auch für Personen, die keine Stimm- oder Wahlabsicht angeben können (oder wollen), statistisch eine Präferenz zu berechnen.

Der Implizite Assoziationstest (IAT)

Implizite Assoziationstests (IAT) setzen an letzterem Punkt an. Sie messen implizite, d.h. automatische, Einstellungen bzw. Präferenzen.[2] Im Unterschied zu den in der Sozialforschung gängigen expliziten Massen (z.B.Stimmabsicht des Befragten) haben sie den Vorteil weniger reaktiv zu sein. Das heisst, dass sie von der befragten Person nicht so einfach durchschaut werden können und folglich nicht von sozialer Erwünschtheit betroffen sind. Gerade bei heiklen politischen Themen und Vorlagen wie zum Beispiel der anstehenden Durchsetzungsinitiative (28. Februar 2016) könnten IATs also den gängigen Fragen nach der Stimmabsicht einer Person überlegen sein.

Nebst diesem Vorteil wurde in den letzten Jahren auch argumentiert, dass IATs bzw. implizite Einstellungen besonders gut in der Lage seien, den Stimmentscheid unentschlossener Personen vorherzusagen.[3] Die Idee dahinter ist, dass implizite Einstellungen eine Art Vorstufe zu den expliziten Einstellungen darstellen. In der Tat haben wir alle gewisse implizite Einstellungen bzw. Präferenzen, ohne dass wir uns deren aber notwendigerweise bewusst sind. Genau dies könnte bei unentschlossenen Stimmbürgern der Fall sein. Sie mögen sich zwar ein paar Wochen vor einer Abstimmung ihrer Präferenz noch nicht bewusst sein und die Frage nach der Stimmabsicht mit «weiss nicht» beantworten, eine mehr oder weniger ausgeprägte implizite Einstellung zu einer Vorlage oder einer Partei haben aber auch sie. Warum aber sollte sich diese spontane Präferenz schliesslich im Stimmentscheid niederschlagen? Die Forschung hat gezeigt, dass sich vor allem unentschlossene Personen Informationen beschaffen, die mit ihrer impliziten Einstellung in Einklang sind.[4] Dieser selektive Konsum von Informationen führt schliesslich dazu, dass die implizite Präferenz im Verlaufe des Meinungsbildungsprozesses zu einer expliziten Einstellung wird und damit das Stimmverhalten entscheidend beeinflusst.

Der IAT als Prognoseinstrument bei Eidgenössischen Abstimmungen?

Meine bisherige Forschung zeigt, dass sowohl die klassischen reaktionszeitbasierten IATs wie auch die einfacheren «paper-and-pencil» IATs gute Prädiktoren sind für das Stimmverhalten der Schweizer Bürger. Erstere wurden im Vorfeld der Abstimmung zur Mindestlohninitiative und des Gripen Referendums (18. Mai 2014) an der Universität Zürich getestet. Wie in der untenstehenden Abbildung zu sehen ist, waren beide IATs gute Prädiktoren für das tatsächliche Stimmverhalten der befragten Personen (N=268).

Nicht-parametrische Regressionen für den Zusammenhang zwischen dem ST-IAT Wert und der Wahrscheinlichkeit für die Mindestlohninitiative und das Gripen Referendum zu stimmen.

Dieselbe Untersuchung wurde auch für die Volksinitiative für eine Einheitskrankenkasse (28. September 2014) durchgeführt, diesmal jedoch mit einer in eine Online-Umfrage (N=352) eingebauten «paper-and-pencil» IAT Version. Auch dieser implizite Assoziationstest konnte das Stimmverhalten der befragten Personen akkurat vorhersagen.

iat_einheit1
Nicht-parametrische Regression für den Zusammenhang zwischen dem ST-IAT Wert und der Wahrscheinlichkeit für die Volksinitiative für eine Einheitskrankenkasse zu stimmen.

Schliesslich zeigte eine im Vorfeld der Ecopop-Abstimmung (30. November 2014) durchgeführte Studie, dass implizite Einstellungen für die Gruppe der unentschlossenen Stimmbürger in der Tat leicht bessere Prädiktoren sind als für entschlossene Stimmbürger.[5] So konnte mithilfe der impliziten Einstellungen das Stimmverhalten von 78% der unentschlossenen Stimmbürger richtig vorhergesagt werden. Bei den entschlossenen Personen betrug der Anteil lediglich 73%. Eine mitunter auf den impliziten Einstellungen der unentschlossenen Stimmbürgern basierende Vorhersage ergab für die Ecopop-Initiative zudem einen Ja-Stimmenanteil von 33%.[6] Dieser Wert wich zwar 7 Prozentpunkte vom tatsächlichen Ergebnis ab, war aber dennoch präziser als die Umfragen- und Prognosewerte führender Umfrageinstitute.

Angesichts dieser Erkenntnisse wären weitere Forschungsbemühungen sicherlich wünschenswert. In erster Linie sollte untersucht werden, unter welchen Umständen implizite Einstellungen für die Gruppe der unentschlossenen Stimmbürger gute Prognoseinstrumente sind. Eidgenössische Abstimmungsvorlagen unterscheiden sich oft stark bezüglich ihrer Komplexität und der Vertrautheit der Stimmbürger mit der jeweiligen Thematik. Diese Faktoren können sich wiederum auf die Vorhersagevalidität impliziter Einstellungen auswirken. Aus diesem Grund sollten IATs bei möglichst vielen verschiedenen Abstimmungsvorlagen in Kombination mit expliziten Massen zum Einsatz kommen.

Von Livio Raccuia

 

Livio Raccuia ist Assistent und Doktorand am Lehrstuhl für Methoden der Politikwissenschaft an der Universität Zürich.

Wie ein impliziter Assoziationstest in der Praxis aussieht (und er auch in der Ecopop-Studie verwendet wurde), sehen Sie hier.

 

[1] Foto: Ainsley Baldwin|Flickr

[2] Greenwald, A.G., McGhee, D.E. und Jordan L.K. Schwartz (1998). Measuring Individual Differences in Implicit Cognition: The Implicit Association Test. Journal of Personality and Social Psychology, 74(6), 1464-1480.

[3] Zum Beispiel: Galdi, S., Arcuri, L. und Bertram Gawronski (2008). Automatic Mental Associations Predict Future Choices of Undecided Decision-Makers. Science, 321, 1100-1102.

[4] Zum Beispiel: Galdi, S., Gawronski, B., Arcuri, L. und Malte Friese (2012). Selective exposure in decided and undecided individuals: Differential relations to automatic associations and conscious beliefs. Personality and Social Psychology Bulletin, 38, 559-569.

[5] Unentschlossene: n=82; Entschlossene: n=457.

[6] Der Kanton Tessin war in der Stichprobe nicht vertreten.