Welcher Ausgang ist am kommenden Abstimmungssonntag am wahrscheinlichsten? Auf Antwortsuche mit Hilfe eines experimentellen Prognosemodells, das wir künftig regelmässig verwenden wollen.
Wir befinden uns nicht in den USA und können auf zig verschiedene Umfragewerte zurückgreifen, diese auswerten und damit eine Prognose erstellen. Die hiesige Realität sieht anders aus: Lediglich zwei Umfrageinstitute publizieren im Vorfeld von nationalen Abstimmungen in zwei, respektive drei Wellen Ja- und Nein-Stimmenanteile. Diese Umfragewerte werden immer wieder als Prognosen bewertet, obwohl sie das nicht sind.
Die Ja-Stimmenanteile der aktuellsten zwei Wellen pro Institut können lediglich miteinander verbunden und auf den Abstimmungstag projeziiert werden. Beim Geldspielgesetz würde also je nach Umfrageinstitut der Ja-Stimmenanteil bei 63%, respektive 68% zu liegen kommen. Aber auch hier handelt es sich um keine Prognosen sondern um Extrapolationen. Es ist auch im Nachhinein nicht eruierbar, ob diese Trends tatsächlich die Realität wiederspiegelt haben (z.B. was ist mit der Gruppe der Unentschiedenen passiert?).
Wir haben eine App entwickelt, in der sie sehen, was passieren würde, wenn sich die ausgewiesenen Trends der jeweiligen Institute fortführen würden.
Prognosen prognostizieren – nicht immer richtig
Wir haben ein «richtiges» Prognosemodell entwickelt. «Richtig» steht in Anführungs- und Schlusszeichen weil damit nicht «am präzisesten» oder «am besten» gemeint ist, sondern wir meinen ein Modell, dessen Output als Vorhersage verstanden werden kann – nicht mehr, aber auch nicht weniger. Das Modell schätzt den zukünftigen Ja-Stimmenanteil aufgrund verschiedener Indikatoren und versucht dabei, möglichst verschiedene Informationen zu verarbeiten. Da es sich nun um eine Vorhersage handelt, muss auch gleich gesagt werden, dass wir die Zukunft selbstverständlich nicht kennen. Auch die Prognosen des besten Modells treffen kaum immer ins Schwarze. Das liegt in der Natur der Sache, denn unvorhergesehene wie auch schwer messbare Faktoren können unerwartete Ereignisse herbeiführen.
Unvorhergesehene Ereignisse widerspiegeln Unsicherheit. Um dieser gerecht zu werden, wird die Prognose nicht nur einmal, sondern 10’000 mal für dieselbe Vorlage gemacht.[2] Selbstverständlich ist das eine fiktive Situation, aber sie hilft, um immer etwas andere Vorhersagewerte zu erhalten. Sobald 10’000 fiktive Resultate vorliegen, beginnt die Zählerei: Wieviele einzelne Werte sind zwischen 10% und 15% gefallen, wieviele sind unter 50% und wieviele darüber, etc.? Diese Auszählungen sind in den untenstehenden Grafiken dargestellt. Sie sehen in wievielen Fällen eine Prognose in ein gewisses Intervall gefallen ist.
Am Beispiel der Vollgeldinitiative lässt sich das so illustrieren: Knapp 12% aller Prognosen fallen zwischen 25% und 30%. In kein anderes Intervall sind mehr Prognosen gefallen, es ist somit das wahrscheinlichste Abstimmungsresultat gemäss dem Modell.
Zusätzlich weisen die Grafiken aus, wieviele Prognosen kleiner und wieviele grösser als 50% sind. So kommt die Vollgeldinitiative zu einer Annahmewahrscheinlichkeit von 13% (also in 13 von 100 fiktiven Vollgeldabstimmungen erzielt die Initiative einen Ja-Stimmenanteil, der über 50% liegt). Ganz anders sieht es beim Geldspielgesetz aus: 82 von 100 Prognosen werden angenommen.
Wie gut diese Prognosen sind, wissen wir am 10. Juni. In den Testläufen der letzten zwei Jahre hat sich das Modell bewährt und immer wieder auch überraschend gute Vorhersagewerte abgeliefert. Wichtig scheint zum einen, dass die Unsicherheit korrekt wiedergegeben wird. So ist bei der Vollgeldinitiative auch ein Ja-Stimmenanteil zwischen 20% und 25% immer noch wahrscheinlich. Zum anderen scheint es wichtig zu erwähnen, dass die ausgewiesenen Werte nicht mehr nachbearbeitet werden. Also das bei einer Vorlage, wo aufgrund von Expertenwissen ein anderes Resultat erwartet werden kann, keine ad hoc Korrekturen vorgenommen werden.
Am 27. November 2016 wird nicht zum ersten Mal über die Kernenergie abgestimmt. Wie gingen ähnliche Abstimmungen in der Vergangenheit aus und was erschliesst sich daraus für den kommenden Abstimmungssonntag?
Am 27. November 2016 wird einzig über die Atomausstiegsinitiative befunden. Dieser Umstand ist nicht ganz unbedeutend, wie Hanspeter Kriesi in einem Beitrag aufzeigen konnte.[2] Denn: Je geringer die Anzahl Vorlagen pro Urnengang, desto höher – ceteris paribus – die Vorlagenkenntnis. Höhere Vorlagenkenntnis, so Kriesi, nütze grünen Anliegen jedoch. Daneben sind auch schon erste Umfragewerte bekannt: Sowohl die erste Tamedia-Umfrage wie auch die erste SRF-Trendumfrage weisen eine mehrheitliche Zustimmung aus (55 bzw. 57 Prozent). Wie aber ist es Atomausstiegs- und Moratoriumsinitiativen in der Vergangenheit ergangen?
Die Ja-Anteile der jeweils Vorumfragewellen von Tamedia und SRG zur Atomausstiegsinitiative.
UNd Was sagt uns der «Nationalrats-Prädiktor»?
Bereits im Vorfeld der Service Public-Initiative haben wir ein sehr einfaches Modell zur Voraussage von Abstimmungsergebnissen vorgestellt, das lediglich auf dem Abstimmungsergebnis bei der entsprechenden Schlussabstimmung im Nationalrat aufbaut. Damals war die Modellprognose für alle vier Sachfragen des entsprechenden Urnenganges ganz ordentlich. Die Abbildung unten zeigt aber, dass das Modell auch ganz gehörig daneben liegen kann. Vor allem im rechten, unteren Quadranten der Abbildung finden wir einige Vorlagen, die im Nationalrat zwar eine Mehrheit erzielten, aber anschliessend am Volksnein scheiterten – und dies in einigen Fällen sehr deutlich. Der gegenteilige Fall indessen – Vorlagen, die der Nationalrat ablehnte, die beim Volk jedoch eine mehrheitliche Zustimmung fanden – trat selten ein. Genau solch ein Fall wäre nötig, damit die Atomausstiegsinitiative angenommen würde.
Die Ja-Stimmenanteile im Nationalrat taugen durchaus als gute Indikatoren für den tatsächlichen Urnenausgang.
Der Gedanke, das Ergebnis der Schlussabstimmung im Parlament als Prädikator für das Abstimmungsergebnis zu verwenden, ist keineswegs abwegig. Denn das Parlament, in erster Linie der im Proporz gewählte Nationalrat, repräsentiert das Elektorat und somit auch dessen politische Präferenzen. Nicht umsonst heisst es ja, das Parlament sei das Forum der Nation, weshalb sich in einem Parlamentsentscheid auch der «Volkswille» widerspiegeln sollte. Wenn es also zutrifft, dass das Parlament eine Art «Miniatur» der politischen Schweiz ist, so müsste doch die parlamentarische Schlussabstimmung zu einer Vorlage ein «Vorbote» der nachfolgenden Volksabstimmung sein – wenn man so will, eine Art «Vorab-Simulation» des Abstimmungsergebnis. Hinzu kommt folgendes: Wir dürfen davon ausgehen, dass der Entscheidfindungsprozess, den die Parlamentsmitglieder vor der nationalrätlichen Schlussabstimmung durchmachten, nun auch beim Stimmvolk einsetzen wird und – vorausgesetzt, das Parlament widerspiegelt die politischen Präferenzen ihrer Wähler und Wählerinnen – zu einem ähnlichen Ergebnis führen wird. Gewissermassen nimmt das Nationalratsergebnis den (noch einsetzenden) Meinungsbildungsprozess des Stimmvolkes vorweg. Und nicht nur der Meinungsbildungsprozess wird im Nationalratsergebnis vorweggenommen, auch der Abstimmungskampf wird dort schon vorgezeichnet: Denn eine Vorlage, die im Parlament kaum Unterstützung findet, wird in den meisten Fällen auch im Abstimmungskampf keine finanzielle Unterstützung erhalten – und umgekehrt. Klar, das ist kein Naturgesetz und es lassen sich stets auch Gegenbeispiele finden. Aber in der Tendenz stimmt die Aussage. Das Nationalratsergebnis nimmt demnach die Verteilung der Kampagnenbudgets auf gewisse Weise vorweg und spurt so die noch folgende Meinungsbildung vor.
Wie sah es nun aber bei den vier Kernenergie-Vorlagen aus, über die 1990 und 2003 abgestimmt wurde (die Vorlagen aus den Jahren 1979 und 1984 wurden nicht berücksichtigt)? Sie alle lagen nicht allzu weit von der Schätzlinie entfernt. Am weitesten vom modellgeschätzten Ergebnis entfernt liegt die Moratoriumsinitiative von 1990. Just diese Initiative wurde auch angenommen – und dies trotz ablehnender Haltung des Nationalrats. Wir können also jetzt schon sagen: Eine Überraschung ist nicht auszuschliessen, denn einen solchen Fall gab es tatsächlich schon einmal. Allerdings ging es um ein Moratorium und nicht um einen Ausstieg aus der Kernenergie. Die gleichzeitig vorgelegte Ausstiegsinitiative von 1990 wiederum lag ebenfalls über dem Schätzergebnis, zu einem Volksja reichte es aber nicht. Die beiden Vorlagen aus dem Jahre 2003 hingegen schnitten deutlich schlechter ab, wahrscheinlich auch deshalb, weil an jenem Abstimmungssonntag über die Rekordzahl von neun Vorlagen entschieden wurde. Die damalige Vox-Analyse zeigte, dass das Informiertheitsniveau an jenem Urnengang generell tief war und eine nicht unerhebliche Zahl von Stimmenden gleich alle neun Vorlagen (sieben Volksinitiativen aus dem linken Lager und zwei Behördenvorlagen) in toto ablehnte. Sie entschieden sich somit für die die Status-Quo-Option, die man vor allem dann wählt, wenn man von dem Vorlageninhalt oder, in jenem Fall, von der schieren Überzahl an Vorlagen überfordert ist.
Unsere Vermutung lautet deshalb, dass Atomausstiegsvorlagen tendenziell besser abschneiden als es das Nationalratsmodell prognostiziert. Um aber das «kleine Moratoriumswunder» von 1990 zu wiederholen, müsste sich rein statistisch gesprochen ein grösseres Wunder ereignen als damals. Denn die Moratoriumsinitiative von damals «startete» mit 41 Prozent Zustimmung im Nationalrat (und betraf ein Moratorium und nicht einen Ausstieg aus der Atomenergie). Die aktuelle Atomausstiegsinitiative startete mit rund 30 Prozent Zustimmung und hat damit einen Rückstand von rund zehn Prozentpunkten zu damals aufzuholen.
In früherern Blogposts hatten wir uns bereits mit der Frage auseinandergesetzt, ob sich aus den «digitalen Spuren» des kollektiven Informationsverhaltens Rückschlüsse auf das Erfolgspotenzial einer Kandidatur ziehen lassen. Die Ständeratswahl 2015 im Kanton Zürich bietet sich an, um dieser Frage erneut nachzugehen. Gewinnt auch im zweiten Wahlgang der «Klick-König»?
Daniel Jositsch: nicht nur Panaschier- sondern auch Zürcher Klick-König
Im ersten Wahlgang der Zürcher Ständeratswahl 2015 hat Daniel Jositsch als einziger das absolute Mehr erreicht und somit im ersten Anlauf den Sprung ins «Stöckli» geschafft. Mit einem Durchmarsch des Sozialdemokraten wurde im Vorfeld nicht gerechnet, obwohl er als Favorit gehandelt wurde. Daniel Jositsch hat in den zwei Wochen vor dem Wahlsonntag die meisten Wikipedia-Aufrufe verzeichnet. Sein Eintrag verzeichnete beträchtliche 28% des Gesamttraffic all dieser Kandidaten. Er verzeichnete beträchtliche 10% mehr als der zweitplatzierte Ruedi Noser. Am Wahlsonntag ging es für ihn dann per «Schnellzug» nach Bern ins Stöckli.
Lies dies das hohe Interesse an seiner Person, welches sich in der Wikipedia-Nutzungsstatistik wiederspiegelt, erahnen? Natürlich mahnen wir zur Vorsicht, wenn es um die Vorhersage von Wahlresultaten anhand solcher Daten geht. Wie bereits erwähnt verfolgen wir in erster Linie experimentelle Zwecke. Da im Kanton Zürich bei Ständeratswahlen lediglich leere Listen und keine offiziellen Wahlempfehlungen mit den Angaben zu den Kandidierenden in die Haushalte flattern, ist es jedoch möglich, dass die «Klicks» bis zu einem gewissen Grad auch Aufschluss über die Wahlabsichten bietet – zumindest theoretisch.
Umfrage SR: Was denken Sie, wer gewinnt den zweiten Wahlgang in Zürich?
Bastien Girod (60%)
Hans-Ueli Vogt (4%)
Ruedi Noser (36%)
Loading ...
Wo findet der zeitgenössisch politisch interessierte Bürger Informationen zu Wohnort, Partei und Beschäftigung seines Wunschkandidaten, wenn nicht via Google bzw. auf Wikipedia? Gut möglich, dass manch potentieller Wähler vor dem Ausfüllen des Wahlzettels googelt und den Wikipedia-Eintrag des Kandidaten konsultiert. Die Abrufstatistiken vor dem ersten Wahlgang lassen dies durchaus als plausibel erscheinen. Die folgende Grafik zeigt die Anteile der Kandidaten in den zwei Wochen vor dem ersten Wahlgang. Unangefochtener Spitzenreiter ist Daniel Jositsch. Auf der zweiten Position folgt Noser. Einzige Abweichung in der Reihenfolge: Hans-Ueli Vogt.
Der zweite Wahlgang wird zum Thriller
Daniel Jostischs direkter Sprung in den Ständerat trägt dazu bei, dass sich die Ausgangslage für den zweiten Wahlgang äusserst spannend gestaltet. Im Rennen bleiben Ruedi Noser (FDP), Hans-Ueli Vogt (SVP) und Bastien Girod (Grüne). SVP Präsident Toni Brunners Angebot eines bürgerlichen Kuhhandels – Vogt würde zugunsten von Noser in Zürich verzichten, wenn Philipp Müller im Aargau dem SVP-Kandidaten den Vorzug lassen würde – ist bei der FDP Führung auf wenig Gegenliebe gestossen. Daher bleibt das Rennen offen. Noser wird zwar als Favorit gehandelt doch Girod holt auf, zumindest laut Wahlbörse des Tagesanzeigers.
Ein rein linkes Zürcher Ständeratsduo wäre ein politisches Novum und ist sicherlich nicht das wahrscheinlichste Szenario. Entscheidend wird sein, wem die Stimmen der nicht mehr antretenden Kandidaten zufliessen werden. Da im zweiten Wahlgang nur noch das relative Mehr zählt, bleibt jedoch wirklich alles möglich, je nachdem wer die meisten Stimmen der ausgeschiedenen bzw. gewählten Kandidaten auf sich vereinen kann.
Schafft es auch im zweiten Wahlgang der Kandidat mit dem «Klick-Mehr» INS Stöckli?
Die folgenden Grafiken zeigen die digitale Augangslage bis zum 14. November 2015. Noser liegt momentan noch in Führung. Doch sein Vorsprung ist klein. Er liefert sich ein veritables Kopf-an-Kopf-Rennen mit Girod.
Nachdem die letzten Umfrageresultate für den kommenden Abstimmungssonntag bekannt sind, kann es nur noch Prognosen geben. Die Köpfe hinter den 20 Minuten-Umfragen bringen einen Werkstattbericht als Gastbeitrag und lassen erahnen, wohin die Reise führen könnte.
Landläufig werden in der Schweiz Umfrageresultate als Momentaufnahmen beschrieben. Das ist korrekt. Aber selbstverständlich werden Umfragen von interessierten Kreisen als Prognosen verstanden. Es gibt gute Gründe, warum sich Demoskopen nicht die Hände verbrennen wollen mit Prognosen. Abweichungen von Momentaufnahmen lassen sich irgendwie erklären. Das geht natürlich nicht bei Prognosen. Nach mehr als einjähriger Erfahrung mit Abstimmungsanalysen präsentieren wir hier einen Versuch.
Unsere Vorhersagen für die Vorlagen vom 14. Juni basieren auf drei Umfragewellen, die wir gemeinsam mit 20 Minuten erheben und auswerten. Gemäss unserem Modell werden die beiden Initiativen abgelehnt, wobei wir bei der Erbschaftsteuer ein sehr deutliches Resultat erwarten. Die Verfassungsänderung zur Präimplantationsdiagnostik sollte ein komfortables Volksmehr erreichen und höchstwahrscheinlich auch das Ständemehr. Beim RTVG zeichnet sich ein Nein ab.
Das Prognosemodell stützt sich auf die Resultate aller drei Umfragewellen ab und nimmt auch die Erwartung der Befragten über den Abstimmungsausgang auf. Wir fragen die Teilnehmer und Teilnehmerinnen jeweils, ob sie erwarten, dass eine Vorlage angenommen wird. Zusammen mit dem abstimmungsspezifischen Verlauf berechnet das Modell eine Vorhersage. Das Modell verfehlte das tatsächliche Resultat bei den letzten elf Vorlagen um durchschnittlich 2.6%.
Dennoch sind unsere Vorhersagen mit Vorsicht zu geniessen. Zum einen basiert unser Modell auf einem kleinen Datensatz mit nur elf Abstimmungen, was zur Folge haben kann, dass der Prognosefehler mit aller Wahrscheinlichkeit grösser als 2.6% ist.[2] Zum anderen würden wir aufgrund unseres Modelles bei den vergangenen elf Abstimmungen ein oder vielleicht zwei Resultate ausserhalb des 95%-Vorhersagebereichs erwarten – es kam aber drei Mal vor.[3] Insofern berücksichtigt unser Modell nicht die gesamte Unsicherheit und unser Vorhersagebereich variiert stark zwischen den Abstimmungen. Es liegt also noch viel Arbeit vor uns. In diesem Sinne ist dieser Beitrag als Werkstattbericht zu verstehen. Wir warten nun die tatsächlichen Resultate vom 14. Juni 2015 ab, dann wissen wir mehr.
[2] Der durschnittliche Prognosefehler gibt an, um wieviel die Prognose im Durchschnitt vom tatsächlichen Resultat abweist. Wenn die beiden Gastautoren davon ausgehen, dass der Prognosefehler aller Wahrscheinlichkeit grösser ist als ausgewiesen, spricht man von einem «überangepassten» Modell, mehr dazu finden Sie hier.
Die Zürcher und Zürcherinnen haben ihre Regierung und ihr Parlament gewählt. Die Resultate sind bekannt. Doch was lässt sich aus diesen Zahlen für die Nationalratswahlen herauslesen? Der folgende Beitrag geht dieser Frage nach.
Nach den Wahlen ist bekanntlich vor den Wahlen. Dies gilt vor allem für die Zürcher Wahlen, die jeweils ein knappes halbes Jahr vor den Nationalratswahlen stattfinden. Kaum sind deshalb die Ergebnisse der Zürcher Wahl bekannt, beginnen die Spekulationen darüber, was dies für die kommenden nationalen Wahlen bedeuten könnte. Tatsächlich sind die Zürcher Wahlergebnisse eine durchaus brauchbare Prognosebasis für die jeweils ein halbes Jahr später folgenden Nationalratswahlen (siehe Box). Nur ein Beispiel: Bei den letzten neun Wahlen stimmte der Zürcher SVP-Trend mit demjenigen bei den Nationalratswahlen überein. Etwas einfacher ausgedrückt: Legte die SVP bei den Zürcher Kantonsratswahlen zu, gewann sie auch bei den Nationalratswahlen Stimmen – und zwar schweizweit [sic] und nicht bloss im Kanton Zürich. Verlor sie hingegen Wähler im Kanton Zürich (zuletzt 2011), setzte es auch bei den Nationalratswahlen eine Niederlage ab. Wie gesagt, bei den letzten neun Wahlen war dies immer so. Eine beeindruckende Trefferquote – insbesondere, wenn man bedenkt, dass sich die Prognose knapp sechs Monate im Voraus machen lässt.
Was lässt sich nun aus den Ergebnissen für die Nationalratswahlen 2015 herauslesen? Diese Frage kann (für einmal) statistisch beantwortet werden. Es braucht demnach keine wilden Spekulationen, denn es liegen «harte Fakten» vor. Diese harten Fakten bilden die Ergebnisse der Zürcher Kantonsratswahlen und der Nationalratswahlen (schweizweit) seit 1955. Unter die Lupe genommen haben wir dabei die Veränderung der Wählerstimmenanteile im Vergleich zur letzten Wahl. Es geht uns in diesem Beitrag demnach nicht um die exakten Wählerstimmenanteile, sondern in erster Linie um den Trend, d.h., legt eine Partei zu oder verliert sie Stimmen. In einem ersten Schritt haben wir ein ganz einfaches Regressionsmodell gerechnet, mit welchem wir die Prongosetauglichket der Zürcher Kantonsratswahlen für die nationalen Wahlen schätzten. Dieses Modell enthält nur zwei Variablen: Das Ergebnis bei den Kantonsratswahlen als Prädiktor und das Ergebnis bei den Nationalratswahlen als Explanandum. Zugegeben, ein sehr einfaches Modell. Aber es entspricht genau der Frage, die häufig gestellt wird: Was bedeuten die Zürcher Wahlen für die Nationalratswahlen? Auf der Grundlage dieses Modells können in einem zweiten Schritt die Ergebnisse der kommenden Herbstwahlen geschätzt werden.
Der besseren Übersicht willen, präsentieren wir zunächst einmal die Prognosen für die sieben wählerstärksten Parteien in einer Übersicht, bevor wir – weiter unten – die Trends für die einzelnen Parteien gesondert aufzeigen. Die Prognosen basieren, wie gesagt, auf den Zürcher Ergebnissen, die historisch betrachtet eine Trefferquote von rund 80 Prozent aufweisen – was notabene für eine ziemlich hohe Prognosegüte spricht. Bei der BDP und der GLP ist zu bedenken, dass uns für die Prognose gerade mal zwei (GLP) bzw. ein Wert (BDP) zur Verfügung standen. Wenn die Parteien ihre “Zürcher Form” bis zu den Herbstwahlen halten können – und das tun sie, statistisch gesprochen, auch ziemlich häufig – dann werden die FDP und die SVP zulegen, die SP bleibt stabil, die anderen Parteien verlieren.
Die nachfolgenden Trendgrafiken zeigen im Übrigen auch an, wie verlässlich diese Schätzungen in der Vergangenheit waren. Wenn man die Schätzlinie mit dem effektiven Ergebnis vergleicht, fällt beispielsweise bei der SP auf, dass sie 1979 auseinanderfielen: Aufgrund des positiven Kantonsergebnisses in Zürich hätte unser Modell der SP damals auch einen Zuwachs an Stimmen bei den Nationalratswahlen vorausgesagt, was aber nicht zutraf. Das Modell kann sich demnach – wie jede Schätzung – auch irren. Aber bemerkenswert ist auch, dass wir bei der SP bis ins Jahr 1979 zurückgehen müssen, um eine solche Divergenz zu finden. Aber immerhin: Diese Divergenzen machen auch deutlich, dass die Ergebnisse der Zürcher Wahlen die Nationalratsergebnisse nicht in der Form eines Naturgesetzes prädeterminieren. Schliesslich verbleiben noch rund fünf Monate bis zur nationalen Wahl. Unvorhergesehenes kann noch geschehen, Trends können noch umgekehrt werden. Die GLP beispielsweise hat in der laufenden Legislaturperiode bis Anfang 2015 bei fast jeder kantonalen Wahl zugelegt, hat aber bei den letzten drei kantonalen Wahlen Stimmen eingebüsst.
Aber trotz dieser Einschränkungen ist der Kanton Zürich ein ziemlich verlässlicher Stimmungstest für die nationalen Wahlen. Nicht zuletzt deswegen, weil ein Sechstel aller nationalen Stimmberechtigten aus dem Kanton Zürich stammen. Die nachfolgenden Grafiken zeigen das auch eindrücklich. Deshalb ist eine stille Vorfreude bei den Zürcher Wahlsiegern von 2015 durchaus gerechtfertigt.
Im zweiten Teil wollen wir die Probleme und Herausforderungen von theoretischen Prognosenmodellen an einem konkreten und aktuellen Beispiel diskutieren: Die Regierungsratswahlen im Kanton Luzern.
Kurz zur Ausgangslage der Exekutivwahlen vom 29. März 2015: Gewählt wird der fünfköpfige Regierungsrat des Kantons Luzern. Wählbar sind grundsätzlich alle kantonalen Stimmberechtigten. Anders als beispielsweise im Kanton Zürich sind ausseramtliche Wahllisten zulässig. Weil diese ausserdem vorgängig eingereicht werden müssen, wissen wir, dass sich acht «offizielle» Kandidaten und Kandidatinnen um das Amt eines Regierungsrates bzw. einer Regierungsrätin bewerben. Vier davon sind Bisherige (d.h. ein Sitz wird «frei»), die restlichen vier kandidieren neu.[1]
Wie können wir den Wahlerfolg der acht Kandidierenden mit einem statistischen Modell berechnen? Zunächst müssen wir definieren, was wir unter «Wahlerfolg» verstehen. Mit anderen Worten: Was soll denn überhaupt prognostiziert werden? Die Anzahl Stimmen, der Umstand, ob jemand gewählt wird oder nicht, oder der Anteil Stimmen am Total aller Stimmen? Unsere abhängige Variable ist definiert als der Anteil Stimmen am Total aller gültigen Wahlzettel, was uns im Falle des Kantons Luzern auch gleichzeitig angibt, ob der Kandidat das absolute Mehr im ersten Wahlgang erzielt oder nicht. Sodann brauchen wir Erfahrungswerte: Uns stehen die Ergebnisse zu drei Luzernischen Gesamterneuerungswahlen (sowie ein zweiter Wahlgang) zur Verfügung. Insgesamt sind das 41 Fälle (Fälle=Kandidaturen). Das ist (eigentlich zu) wenig. Denn: Mit tieferer Fallzahl wächst der prognostische Unschärfebereich umso stärker an. Wir begegnen diesem Umstand in pragmatischer Weise: Wenn theoretische Prognosenmodelle an einem aktuellen Beispiel diskutiert werden sollen, dann muss mit der geringen Fallzahl Vorlieb genommen werden. Wer interessiert sich schon für Prognosen zurückliegender Wahlen?
1. Schritt: Finde die Determinanten des Wahlentscheides
Nun beginnt der theoretische Teil der Prognosearbeit. Dieser besteht darin, diejenigen Variablen zu identifizieren, die als aussagekräftige Prädiktoren des Wahlentscheids in Frage kommen. Wir überspringen diesen – zwar eminent wichtigen – aber auch zeitraubenden Teil und halten bloss fest, welche Prädiktoren wir in einem ersten Schritt berücksichtigt haben:
Die Wählerstärke der Partei des Kandidaten. Anzunehmen ist, dass Parteiwähler (einigermassen) diszipliniert für ihre Kandidaten stimmen werden. Im Prinzip wäre anstelle der Parteistärke auch die «Blockstärke» denkbar, da beispielsweise Sympathisanten der Grünen mit hoher Wahrscheinlichkeit auch einen SP-Kandidaten wählen werden.
Der «Status» des Kandidaten. Gemeint ist damit der Umstand, ob ein Kandidat ein erneut kandidierender Amtsinhaber oder ein Neukandidierender ist. Amtsinhaber sind viel eher bekannt und haben demnach viel höhere Wahlchancen als neu Kandidierende.
Anzahl der Kandidaten. Je höher die Anzahl der Kandidaten pro Wahl, desto eher nehmen sich die Kandidaten gegenseitig Stimmen weg.
Andere Variablen wurden vorerst (noch) nicht berücksichtigt. Aus drei Gründen: Erstens, weil sie statistisch keinen Einfluss haben auf das Wahlverhalten (wie etwa das Geschlecht: Männer haben im Kanton Luzern etwa die gleichen Wahlchancen wie Frauen). Zweitens, weil sie mit anderen Prädiktoren korrelieren und drittens, weil uns die gewünschten Informationen gar nicht zur Verfügung standen. Gerne wüssten wir beispielsweise, wie bekannt ein Kandidat ist. Denn: Um einen Namen auf den Wahlzettel schreiben zu können, muss er geläufig sein. Man könnte dies beispielsweise mittels der Höhe der Propagandaaufwendungen für den jeweiligen Kandidaten messen. Doch über die politischen Werbeaufwendungen weiss man nicht genaues. Eine weitere, voraussichtlich wichtige Information ist uns ebenso wenig bekannt. Sie hat damit zu tun, dass im Kanton Luzern, wie gesagt, ausseramtliche Wahllisten zulässig sind. Bei den aktuellen Wahlen wurden insgesamt 15 solcher vorgedruckten Wahllisten eingereicht. Die Wählerschaft kann anstelle des leeren Wahlzettels, der dem Wahlmaterial auch beiliegt, eine dieser vorgedruckten Wahllisten unverändert einlegen. Dabei ist klar: Die Wahlchancen eines Kandidaten sind nun umso grösser, je häufiger er oder sie auf diesen (bzw. auf einer «chancenreichen») vorgedruckten Wahllisten steht. Diese Information ist aber nur für die aktuellen, nicht für die vergangenen Wahlen vorhanden. Wir können sie deshalb nicht in unsere Voraussage einfliessen lassen. All dies verringert notwendigerweise die Prognosegüte des Modells, denn mindestens zwei wichtige Prädiktoren bleiben so unberücksichtigt. Das sind eben die «Grenzen» theoretischer Prognosemodelle.
Politische Werbeausgaben sind so durchsichtig wie Milchglas. Foto: Flickr/Lars Pelz
Das vorgeschlagene Modell vermag über 80 Prozent der Varianz zu erklären. Es hat allerdings ein wesentliches Problem: Die Wählerstärke der Parteien, die hinter den jeweiligen Kandidaturen stehen, ist nicht im Voraus bekannt. Die kantonalen Parlamentswahlen finden nämlich gleichzeitig mit den Regierungsratswahlen statt. Man könnte nun stattdessen die Wähleranteile der vergangenen Wahl oder der Nationalratswahl nehmen, doch liegt im Falle des Kantons Luzern beides vier Jahre zurück. Ein zwar nicht vollwertiger, aber passabler Ersatz sind sogenannte «Dummyvariablen»: Man bildet für jede Partei eine Variable, die in der Folge angibt, um wie viel besser (oder schlechter) ein Kandidat der betreffenden Partei abschneidet als eine vordefinierte Restgruppe. Ein Beispiel: SVP-Kandidaten schneiden in Anbetracht dessen, dass ihre Partei oftmals die wählerstärkste Partei im Kanton ist, bei Majorzwahlen eher schlecht ab. Denn es ist für die SVP schwieriger als für andere Parteien, ausserhalb ihrer eigenen Wählerschaft Stimmen für ihre Kandidaten zu erzielen. Eine entsprechende Dummyvariable trägt diesem Umstand Rechnung. Der Vorteil der Parteizugehörigkeit gegenüber der Wählerstärke einer Partei ist der Umstand, dass erstere schon lange vor den Wahlen bekannt ist, letztere erst nach den Wahlen.
Wie soll die Bekanntheit gemessen werden?
Weiter haben wir mit dem bei den Baselbieter Wahlen erstmals eingesetzten Medienmonitor versucht, die Bekanntheit der Kandidaten (retrospektiv) zu messen. Die erhobenen Werte haben wir in das nachfolgende Basismodell einfliessen lassen.[2]
Variablen
β-Koeff.
SE
P>|t|
untere Grenze 95%-Konf.int.
obere Grenze 95%-Konf.int.
Amtsinhaber
(0=nein; 1=ja)
11.75
2.98
0.000
5.67
17.83
SP-Parteizugehörigkeit
9.95
3.68
0.011
2.44
17.45
CVP-Parteizugehörigkeit
14.92
2.98
0.000
8.83
21.01
FDP-Parteizugehörigkeit
11.64
3.15
0.001
5.21
18.07
Anzahl Kandidaten
-2.58
.31
0.000
-3.20
-1.94
Medienmonitor
.44
.16
0.010
.11
.77
Konstante
51.26
3.70
0.000
43.71
58.81
n=38; R-Quadrat=.88
Das neue Modell ist statistisch gesprochen gar besser als das erste. 88 Prozent der Varianz können erklärt werden. Die mittlere Abweichung unserer modellgenerierten Prognosewerte beträgt 6 Prozent. Das heisst: Unser Modell lag im Schnitt um rund sechs Prozentpunkte daneben. Das heisst auch: Im Schnitt dürfte sich unser Modell auch bei der Prognose um denselben Betrag irren. Das ist happig – aber das gehört eben zu den «Grenzen» theoretischer Prognosemodelle. Die maximale Abweichung betrug im Übrigen 16 Prozent. Das ist viel – zu viel, wird manch einer einwerfen. Interessant ist jedoch, bei welchem Kandidaten unser Modell derart daneben lag: Daniel Bühlmann von der SVP wurde wegen einer Steueraffäre als einziger Amtsinhaber bei den untersuchten Wahlen abgewählt (siehe Kasten). Unser Modell prognostizierte ihm ex-post einen Anteil von 36 Prozent, am Ende erzielte er bloss 20 Prozent. Dieses Beispiel zeigt die im ersten Teil auf theoretischer Ebene andiskutierte Schwäche eines hochgeneralisierten Modells auf: Es prognostiziert jedem Amtsinhaber die Wiederwahl, weil dies in der Tat auch meistens erfolgt. Wird ein Amtsinhaber aufgrund eines Skandals (o.ä) von der Wählerschaft abgestraft, liegt ein theoretisches Modell, welches solche aussergewöhnlichen Fälle einer höchst unbeliebten Amtsführung nicht berücksichtigen kann, zwangsläufig daneben.
Ein weiteres, zur Vorsicht mahnendes Wort sei an dieser Stelle auch noch angebracht: Retrospektiv (in-sample forecasts) lässt sich (allenfalls) der Erklärungsgehalt eines Modells, nicht aber seine eigentliche Prognosegüte überprüfen. Denn nachträglich ermittelte Prognosewerte beruhen ja auf den tatsächlichen Ergebnissen der Wahlen (aufgrund dieser Datenpunkte wird das Modell geschätzt), sind demnach kein echter «Prüfstein» für die Prognosekraft eines Modells. Im Prinzip müsste man das Modell bloss mit einem Teil der Daten schätzen lassen und den anderen Teil zur Bewertung der Prognosegüte verwenden (out-of-sample forecasts). Aufgrund der geringen Fallzahl ist das in unserem Beispiel nicht möglich.
In einem weiteren Schritt haben wir uns eine Vorgehensweise zunutze gemacht, die im Zusammenhang mit Wahlen in den USA schon verschiedentlich zur Anwendung gelangt ist und im weitesten Sinne mit «Aggregation» zu umschreiben ist.[3] Dabei geht es darum, die Stärken verschiedener Modelle zu vereinigen, indem man ihre Prognosewerte poolt, nach ihrer Performanz gewichtet und daraus einen Mittelwert bildet. Zu diesem Zweck haben wir drei weitere Modelle gebildet, die neben den oben genannten Prädiktoren noch die Amtsdauer des Amtsinhabers, den Wahlgang, die Parteienkonkurrenz sowie weitere Dummy-Variablen für SVP- und Grüne-Kandidaten sowie Parteilose beinhalten.
Darauf basierend lauten die Prognosen für sieben der acht Kandidaten der Luzerner Regierungsratswahl wie folgt:
Wenig überraschend prognostiziert unser Modell die Wiederwahl aller Amtsinhaber. Es prognostiziert zudem auch einen zweiten Wahlgang, weil weniger als fünf Kandidaten das absolute Mehr erzielen. Allerdings wird eine weitere Schwäche unseres Modells sichtbar: Für Amtsinhaber (bzw. Neukandidierende) der gleichen Partei werden beinahe dieselben Stimmenanteile vorausgesagt. Unser Modell kann diese Kandidaten kaum voneinander unterscheiden. Das ist natürlich kein Zufall. Denn in der Vergangenheit haben Amtsinhaber derselben Partei tatsächlich oft ähnlich abgeschnitten. 2007 haben beispielsweise die beiden Bisherigen, Anton Schwingruber (CVP) und Markus Dürr (CVP), 65 bzw. 63 Prozent erzielt. Weiter unterscheidet unser Modell kaum zwischen Kandidaten der Grünen und der SVP. Wie um Himmels willen ist sowas möglich? Die einfache Antwort ist: SVP- und Grüne-Kandidaten mögen ideologisch sehr weit voneinander entfernt liegen, aber sie erzielten bei Luzerner Regierungsratswahlen etwa dieselben Stimmenanteile. Die Kandidaten der Grünen erzielten von 2003 bis 2011 zwischen 21 und 27 Prozent der Stimmen, diejenigen der SVP zwischen 15 und 34 Prozent. Wenn man zweite Wahlgänge nicht berücksichtigt, rücken die beiden Parteien noch näher zusammen: Bei den Grünen beträgt die Bandbreite 21 – 27 Prozent, bei der SVP 15 – 27 Prozent.
Wie beurteilen wir die Plausibilität unseres Modells? In der Tat zweifeln Prognostiker ja bisweilen selbst an den Ergebnissen ihrer Modelle. Wie gesagt, liegt das daran, dass solch theoretische Modelle allein auf der Basis von abstrakten Erfahrungswerten operieren. Ein theoretisches Modell «kennt» beispielsweise den SVP-Kandidaten Paul Winiker nicht, es kennt bloss seine Vorgänger (d.h. die früheren SVP-Regierungsratskandidaten) und errechnet darauf aufbauend die Erfolgschancen des erstgenannten – als wäre dieser ein Klon aller bisheriger SVP-Kandidaten, was natürlich nicht der Fall ist. Die untenstehende Abbildung zeigt im Übrigen, dass – gemessen an der Wählerstärke der eigenen Partei – die SVP-Kandidaten bisher am schlechtesten bei Luzerner Regierungsratswahlen abgeschnitten haben. Teilweise haben die SVP-Kandidaten tiefere Wähleranteile erzielt als ihre Partei bei den gleichzeitigen Parlamentswahlen. Wenn Paul Winiker dieses Muster durchbricht, wird er mit Gewissheit mehr Stimmen erzielen als es das theoretische Prognosemodell voraussagt.
Im Boxplot ist die Differenz zwischen dem Wähleranteil der Kandidaten bei den Exekutivwahlen und demjenigen ihrer Partei bei den gleichzeitig stattfindenden Parlamentswahlen angegeben. Quelle: Eigene Berechnungen.
Ein Prognosewert fehlt in der Grafik. Für die jungen Grünen kandidiert Irina Studhalter. Ihr prognostizierter Wert kann nicht geschätzt werden, da bisher erst ein Kandidat der jungen Grünen antrat (Olivier Dolder, 2007). Ihr dieselbe Prognose zu stellen wie den (nicht-jungen) Grünen-Kandidaten ist wohl falsch. Denn die bisher angetretenen Grünen-Kandidaten erzielten alle Stimmenanteile zwischen 21 und 27 Prozent, der Kandidat der jungen Grünen lag mit 12 Prozent klar unter diesen Werten.
Einen Spezialfall stellt Margrit Fischer (CVP) dar. Als der neu fünfköpfige Luzerner Regierungsrat 2003 gewählt wurde, erzielte sie im ersten Wahlgang das viertbeste Resultat – hinter drei weiteren CVP-Kandidaten. Da niemand das absolute Mehr erzielte, war ein zweiter Wahlgang nötig. Zu diesem trat Margret Fischer nicht mehr an, obwohl sie – wäre ein absolutes Mehr nicht nötig gewesen – im ersten Wahlgang gewählt worden wäre. Wir haben sie deshalb auch nicht zu den abgewählten AmtsinhaberInnen hinzugezählt. Daniel Bühlmann wiederum haben wir für unser vorgestelltes Prognosemodell nicht berücksichtigt. Wie gesagt, war er der einzige Amtsinhaber, der im Untersuchungszeitraum abgewählt wurde. Wegen der Steueraffäre wurde über ihn auch mit Abstand am meisten berichtet, was den Effekt des von uns verwendeten Medienindikators erheblich verzerrt. Deshalb haben wir Daniel Bühlmanns Kandidatur 2007 für unsere Prognose nicht berücksichtigt.
[1] Über den Amtsinhaberbonus haben wir im Rahmen der kantonalen Wahlen in Basel-Landschaft berichtet. Siehe hier.
Prognosen sind ein wesentlicher Bestandteil der Wahlkampfberichterstattung. Denn Wähler und Politiker werfen gerne einen Blick in die Kristallkugel. Dabei gibt es verschiedene Formen von Wahlprognosen. Dieser erste von zwei Blogbeiträgen befasst sich mit einer sehr kostengünstigen Form von Wahlprognosen.
Im Vorfeld der amerikanischen Präsidentschaftswahlen von 2008 wurden rund 1’000 Vorbefragungen durchgeführt mit dem Ziel, Aussagen darüber machen zu können, wer die Wahlen aller Voraussicht nach gewinnen wird. Doch neben Umfragen gibt es noch weitere Prognoseinstrumente: Wahlbörsen, Expertenbefragungen und –panels, Aggregationen (Stichwort: Nate Silver) und zuletzt auch theoretische (oder auch: statistische) Prognoseansätze. Letztere sind in der Regel Modelle, die auf Befragungswerte verzichten und stattdessen theoretisch hergeleitete Aggregatmerkmale als Prädiktoren verwenden. Entwickelt werden diese Modelle jeweils an vorangegangenen Wahlen, woraus sodann Erkenntnisse über den relativen Einfluss einzelner Wahldeterminanten gewonnen werden können. Diese Erfahrungswerte fliessen anschliessend in die Prognose zukünftiger Wahlen ein.
Theoretische Prognosemodelle sind in den USA weit verbreitet. Die American Political Science Association organisiert in einem ihrer Publikationsorgane seit den Präsidentschaftswahlen 2004 einen regelrechten Wettbewerb solcher theoretischer Prognosemodelle, an welchem renommierte Vertreter der akademischen Wahlforschung bereitwillig teilnehmen. Tatsächlich sind einige dieser Modelle dem effektiven Ergebnis ziemlich nahe gekommen.
Aufgrund welcher Variablen werden diese Wahlprognosen erstellt? Zumeist werden zu Prognosezwecken ökonomische Variablen verwendet: Geht es der Wirtschaft gut, dann wird der Präsident bzw. der Kandidat der incumbent party wieder gewählt – so lautet die Quintessenz dieser Modelle. Aber neben makroökonomischen Daten fliessen auch politische oder anderweitige Variablen in solche statistischen Modelle ein: Beispielsweise die Ergebnisse bei den «Primaries», der Amtsinhaberbonus, aber auch die Kriegstoten im Wahljahr.
CNNj Election Central 2012. Foto: Flickr/kimubert
Während sich theoretische Prognosemodelle in den USA grosser Beliebtheit erfreuen, sind sie in Europa und im Speziellen in der Schweiz Mangelware. Ein theoretisches Prognosemodell von Thomas Gschwend und Helmut Norpoth hat es allerdings nach den Bundestagswahlen 2002 und 2005, wo die Umfrageinstitute ein regelrechtes «Waterloo» erlitten, gar auf die Titelseiten der Deutschen Presse geschafft (bzw. einige Seiten dahinter, hier ein kritischer Beitrag dazu). Denn es war um einiges genauer als die Momentaufnahmen der etablierten Umfrageinstitute – und dies lange vor den Wahlen. Das Modell umfasste zudem bloss drei Prädiktoren: langfristige Parteibindungen (durchschnittlicher Wähleranteil bei den vergangenen drei Wahlen), die mittelfristige Dynamik des Regierungsverschleisses und die (kurzfristig wirkende Faktoren zusammenfassende) Kanzlerunterstützung bei Umfragen.
In der Schweiz sind theoretische Prognosemodelle selten und haben keine besonders lange Tradition. Kantonale Wahlbilanzen kann man als theoretische oder statistische Prognosemodelle bezeichnen, weil deren Prognosengleichung auf den Ergebnissen zu den kantonalen Parlamentswahlen der vergangenen Legislaturperiode beruhen. Ein gutes Beispiel ist das Modell von Andreas Ladner und Ivar Trippolini (siehe unten). Diese Wahlbilanzen schneiden im Übrigen ziemlich gut ab. Abgesehen von diesen kantonalen Wahlbilanzen gibt es jedoch kaum theoretische Prognosemodelle zu Wahlen. Oliver Strijbis rechnet auf der Seite 50plus1 jeweils ein mit Umfragedaten angereichertes, theoretisches Prognosemodell zu eidgenössischen Urnengängen.
Vor- und Nachteile von theoretischen Prognosemodellen
Was sind die Vor- und Nachteile solcher Modelle im Vergleich zu anderen Prognoseansätzen? Zunächst sind theoretische Prognosemodelle günstig. Es müssen keine Befragungen durchgeführt und bezahlt werden. Sodann liefern Prognosemodelle Prognosen und keine Momentaufnahmen. Damit sind ihre Ergebnisse auch überprüfbar. Ihre Prognoseleistung ist ausserdem nicht von der zeitlichen Nähe zum Wahltag abhängig. Bei Befragungen ist es anders: Die jeweiligen Momentaufnahmen liegen (voraussichtlich) umso weiter vom effektiven Ergebnis entfernt, je länger im Voraus die entsprechende Befragung durchgeführt wurde. Für theoretische Prognosemodelle gilt dieser Zeitfaktor kaum bzw. nur bedingt. Zuletzt bedingt die Spezifikation von theoretischen Prognosemodellen, dass man sich als ForscherIn zunächst einmal selbst im Klaren darüber werden muss, welche Faktoren wohl Einfluss auf das Wahlverhalten haben. Mit anderen Worten: Die Konzeption solcher Prognosemodelle schärft die Wahrnehmung dafür, was die Wähler und Wählerinnen zur Urne treibt und motiviert.
Aber natürlich gibt es auch Nachteile: Statistische Modelle stützen sich zwangsläufig auf Erfahrungswerte. Sie sind deshalb auch darauf angewiesen, dass die kommende, zu prognostizierende Wahl demselben «durchschnittlichen» Muster folgt. Mit anderen Worten: Statistische Modelle vermögen das Resultat einer «Normalwahl» ziemlich gut zu prognostizieren, liegen jedoch bei der Vorhersage einer aussergewöhnlichen Wahl oft weit daneben. Wenn also plötzlich ein Hurrikan das Land durchzieht, oder eine Finanzkrise das Land ergreift – beispielsweise der Wegfall des Euro-CHF-Mindestkurses (!) – dann sind die Prognosen hochgeneralisierter Modelle schnell einmal Makulatur. Ein weiterer Nachteil ist die Datenlage. Wie das Beispiel im zweiten Blogbeitrag zeigen wird, ist die Prognosegüte eines theoretischen Modells von den verfügbaren Daten abhängig. Denn die Stimmabsicht wird nicht wie bei einer Befragung erfragt, sondern aufgrund ihrer Prädiktoren ermittelt. Voraussetzung dafür ist aber, dass diese Prädiktoren in Datenform vorhanden sind. Das ist längst nicht immer der Fall.
Im folgenden Beitrag diskutieren wir die Probleme und Herausforderungen theoretischer Prognosemodelle an einem konkreten Beispiel: die Luzerner Regierungsratswahlen vom 29. März 2015.