Wann Forsa begann, für die SPD schwarz zu sehen

Kommen wir noch einmal zurück auf Forsa, das Umfrageinstitut, das zuverlässig die spektakulärsten Umfrageergebnisse liefert und dabei die SPD besonders schlecht aussehen lässt.

Das war nämlich nicht immer so. Es gab eine Zeit, in der die Zahl der Menschen mit SPD-Wahlabsicht, die Forsa bei den Sonntagsfragen ermittelte, keineswegs nach unten von den Ergebnissen der Konkurrenz abwich. Es ist relativ einfach, diese Zeit zu umschreiben: Es war die Regierungszeit von Gerhard Schröder.

Forsa-Chef Manfred Güllner war einer der wichtigsten Berater des Bundeskanzlers. Die beiden kannten sich schon länger. Schröder war angeblich fasziniert davon, dass Güllner im Wahlkampf 1994 früh deutlich gesagt habe: „Der Scharping schafft’s nicht.“ Und Güllner schätzt Schröder noch heute außerordentlich, weil er der einzige Politiker gewesen sei, den er erlebt habe, der richtig mit Umfrageergebnissen umgehen konnte.

Der SPD war Güllner suspekt, weil sie meinte, dass er Schröder darin bestärkte, die „falsche“ Politik zu machen — Politik, die laut Güllner von einer Mehrheit der Bevölkerung gutgeheißen wurde.

Die Zeitschrift „Cicero“ beschrieb es 2007 in einem Portrait so:

Der Forsa-Chef misstraut dem SPD-Apparat und der SPD-Apparat misstraut Forsa. Aber vermutlich trägt genau die­se Erfahrung dazu bei, dass Manfred Güllner und Gerhard Schröder schnell Freunde werden. Schließlich war Schröder schon früh davon überzeugt, dass er nicht mit der SPD, sondern nur gegen sie Kanzler werden kann. Da es bei Schröder gelegentlich recht populistisch zugeht, kann er Güllners Zahlen gut gebrauchen. Und als es der sozialdemokratische Außenseiter 1998 endlich geschafft hat, geht Güllner anders als im Willy-Brandt-Haus im Kanzleramt ein und aus. Auf die Forsa-Zahlen hört Schröder mehr als auf seine Genossen.

Güllner galt als „Schröders Freund“, was ihm und seinem Forsa-Institut nach eigener Einschätzung in der Wirtschaft sehr geschadet hat, aber in der SPD auch nichts brachte. Als Schröder abgewählt wurde, endete damit auch der unmittelbare Einfluss Güllners.

Güllner und die SPD — das ist die Geschichte einer enttäuschten Liebe. Es ist faszinierend, vor dem Hintergrund dieser Beziehung die Umfragewerte der SPD zu analysieren, die Forsa liefert.

In der aktuellen Wahlperiode liegt die SPD bei Forsa, wie gesagt, rund drei Prozent schlechter als im Schnitt der anderen Umfrageinstitute. In der ersten Amtszeit Schröders war das ganz anders. Vor allem nach dem Rücktritt Lafontaines fügten sich die Forsa-Zahlen unauffällig ins Gesamtbild ein:

Nach der Bundestagswahl 2002 ein ähnliches Bild. Es ist die Forschungsgruppe Wahlen, die die SPD konsequent abweichend bewertet: deutlich stärker als die Konkurrenz. Forsa aber neigt in keiner Weise dazu, die Wahlchancen der Sozialdemokrten auffallend negativ zu beurteilen:

Die von Forsa ermittelten SPD-Zahlen brechen dann aber nach unten aus, nachdem Güllners Freund Schröder das Kanzleramt verlassen hat und die SPD kein Interesse zeigt, weiter auf seinen Rat zu hören. Vor allem in der Zeit, in der Kurt Beck den Bundesvorsitz führt, aber schon beginnend unter Matthias Platzeck entfernen sich Forsas SPD-Zahlen von denen der anderen Institute: nach unten. Erst unter dem kommissarischen Vorsitz von Schröders früherem Vertrauten Frank-Walter Steinmeier springt die Forsa-Kurve plötzlich wieder in den Bereich der anderen Umfragen.

Nun kann man allerhand Verschwörungstheorien entwickeln, ob jemand ein Interesse daran hatte, Beck mit besonders negativen Zahlen aus dem Amt zu drängen. Tatsache aber ist, dass die Abweichung der Forsa-Werte für die SPD von denen der anderen Institute, ja nach Parteivorsitzendem deutlich anders ausfällt.

SPD-Vorsitzender Forsa Emnid Infratest FW Allensb.
Lafontaine 38,5 40,2 40,2 43,6 38,2
Schröder 35,2 35,2 34,9 36,2 33,8
Müntefering 29,4 28,9 29,0 29,8 29,0
Platzeck 30,0 30,5 31,7 32,9 31,6
Beck 24,5 28,4 29,0 28,3 28,7
Müntefering 23,3 25,1 24,7 24,9 24,7

(Tabellendaten umfassen nur Zeitraum zwischen BTW 98 und BTW 09.)

Fassen wir zusammen: Forsa hat nicht immer schon die Wahlchancen der SPD besonders niedrig eingeschätzt. Zur Amtszeit von Kanzler Schröder und insbesondere während dessen Zeit als SPD-Vorsitzender wichen die ermittelten Umfragewerte von Forsa kaum von denen der Konkurrenz ab. Danach aber tat sich eine Kluft auf, besonders unter Kurt Beck als SPD-Vorsitzendem. Im Schnitt um vier Prozentpunkte lagen die Forsa-Werte zu seiner Amtszeit unter denen der Konkurrenz.

Auf Nachfrage der „Süddeutschen Zeitung“ sagte Güllner 2007:

Ich sitze nicht hier und denke mir aus: Wie kann ich Herrn Beck schaden oder der SPD? (…) Wir würden zu Recht verprügelt, wenn ich persönliche Rachegelüste verfolgen würde. Wir referieren nur, was die Menschen uns sagen.

Die Menschen scheinen Forsa damals plötzlich etwas anderes gesagt zu haben als den anderen Umfrageinstituten. Und heute wieder.

(Hinweis, falls das nicht eh klar ist: Meine Berechnungen und Diagramme genügen keinen wissenschaftlichen Ansprüchen, sondern sind relativ grobe Näherungen. Quelle aller Umfragedaten: wahlrecht.de)

48 Replies to “Wann Forsa begann, für die SPD schwarz zu sehen”

  1. Eine spontane Erklärmöglichkeit, die mir einfiele, ist die, dass Forsa ja nicht nur nach den Wahlabsichten fragt, sondern auch Fragen zur aktuellen Politik stellt. Darüber kann man schon leicht einen Bias hineinbringen. Wenn ich z.B. den Befragten erst frage „Ist Steinbrück nach seinen Skandalen als SPD-Kanzlerkandidat“ noch tragbar?, wird das erfahrungsgemäß dazu führen, dass ein potentieller, aber unsicherer SPD-Wähler im späteren Verlauf der Umfrage bei der Sonntagsfrage dann doch nicht mit „SPD“ antwortet.

    Um die „Verschwörungstherorien“ gegen Forsa zu verwissenschaftlichen, müsste man also den „Beifang“ der Forsa-Umfragen auswerten.

  2. > Hinweis, falls das nicht eh klar ist: Meine Berechnungen
    > und Diagramme genügen keinen wissenschaftlichen
    > Ansprüchen, sondern sind relativ grobe Näherungen.

    nun, wenn nur annähernd so detaillierte Daten vorhanden sind, wie in den Diagrammen zu sehen, dann könnte man durchaus mal schauen, ob die Unterschiede statistisch signifikant sind.

  3. Mal abgesehen von Verschwörungstheorien — wie kann man als Meinungsforschungsinstitut die Sonntagsfrage aktiv beeinflussen?

    Verändert man die Reihenfolge der genannten Parteien? Ruft man zu einer bestimmten Uhrzeit an, wenn SPD-Wähler arbeiten oder beim Angeln sind? Fügt man Korrektur-Koeffizienten in die Auswertung ein?

  4. Stefan: Ich weiß. Aber intern und ausgewählten Kreisen gegenüber muss man sich ja rechtfertigen und Methoden zumindest zum Teil offenlegen.

    Ich habe viele Umfragen gesehen, deren Fragestellung manipulativ war– ganz im Sinne des Auftraggebers oder weil jemand sich nicht in die Rolle des Befragten versetzen konnte. Die Sonntagsfrage sollte jedoch so standardisiert sein, dass das schwer möglich ist.

  5. Ich finde es,nun ja, mutig, ein wissenschaftliches Institut in Ecke von Lobbyarbeit zu stellen, weil es ja „anders gar nicht sein kann“. Es kann eben doch vieles sein und Korrelität war noch nie gleich Kausalität. Die besondere Würze erreicht dieser Beitrag aber durch die salvatorische „Offenbarungseid“-Klausel am Ende. Ich habe hier schon gute Sachen gelesen, aber sowas geht wirklich nicht.

  6. @Torsten: Die Fragestellung der „Sonntagsfrage“ ist sicherlich weitgehend standardisiert, bei der Auswertung kommen aber noch viele zusätzliche Korrekturfaktoren rein (unter anderem basierend auf der Frage „Was haben Sie letztes Mal gewählt?“ und dem Abgleich mit den echten Ergebnisse) sowie Erfahrungs- und Erwartungswerte der einzelnen Institute.
    Das ist auch kein statisches System, sondern wird ständig weiterentwickelt und nach jeder falschen Prognose angepasst. Insofern wäre es interessant mal danach zu schauen, ob die vermeintlichen Sprünge in den SPD-Werten nicht auch einfach mit realen Wahlen korrelieren, bei denen Forsa daneben lag und reagieren musste.

  7. @OJ: Das ist kein Offenbarungseid. Es handelt sich bei diesem Eintrag nur, wie sonst auch, um Journalismus und nicht um Wissenschaft. Durch die Statistiken könnte ein anderer Eindruck entstehen.

    Die Zahlen sind so, wie sie sind. Die Unwissenschaftlichkeit beginnt aber schon dadurch, dass die Kurven abgerundet sind statt Kanten und Zacken zu haben. Das macht die Trends anschaulicher, aber natürlich auch einen Hauch ungenauer. Eine weitere Ungenauigkeit besteht darin, dass man eigentlich genau diskutieren müsste, ab wann ein Umfragewert einem neuen Vorsitzenden zuzuschlagen ist.

    Insofern sind meine Berechnungen ungenau. Ich halte die Diagramme und Zahlen trotz dieser und ähnlicher weiterer Einschränkungen für aussagekräftig und eindrucksvoll.

    Eine Kausalität stelle ich nicht her. Einen Offenbarungseid habe ich nicht formuliert. Und das scheinbare Zitat, dass es „anders nicht sein kann“, kommt weder wörtlich noch sinngemäß von mir.

    Die Forsa-SPD-Zahlen sind auffällig, und sie gewinnen sogar noch an Auffälligkeit, wenn man die Geschichte kennt, die Forsa und die SPD verbindet.

  8. (Um das mit der Kausalität noch genauer zu erläutern: Natürlich gibt es eine gewisse Kausalität zwischen der Frage, wer SPD-Bundesvorsitzender ist und wie die SPD in Umfragen abschneidet. Das würde ich mal für eine Tatsache halten.

    Dann suggerieren die Zahlen, dass die verschiedenen Institute die Frage, wie sich ein Vorsitzender wie Kurt Beck auf die Wahlchancen der SPD ausgewirkt hat, unterschiedlich beantwortet haben. Dafür gibt es zumindest deutliche Indizien.

    Einen kausalen Zusammenhang zwischen möglichen persönlichen Verletzungen des Forsa-Chefs und den nachweisbaren Abweichungen vom Umfragen-Mainstream aber kann ich in keiner Weise behaupten bzw. beweisen. Ich halte es aber für legitim, auf die auffälligen zeitlichen Zusammenhänge hinzuweisen.)

  9. @Torsten (#6)
    Auch derlei Institute (obwohl die Bezeichnung grundfalsch ist, denn es handelt sich bei Forsa und Allensbach um eine GmbH, bei TNS Emnid und TNS Infratest um eine GmbH & Co. KG, und nur die Forschungsgruppe Wahlen ist ein e.V. mit universitärem Hintergrund und ZDF-Finanzierung) haben ihre Geschäftsgeheimnisse. Dazu gehört auch die Gewichtung für die Hochrechnung der Umfrageergebnisse. Eine kleine Stellschraube mit großer Wirksamkeit.

  10. Ein recht persönliches Umfrageerlebnis:
    Ich war gerade dabei, eine leckere, scharfe Ingwerschokolade zu vernaschen, da wurde ich von Infratest angerufen und sehr freundlich gefragt, ob ich wohl einen Moment Zeit hätte und mich vielleicht zu meinen Lesegewohnheiten äußern wolle. Ich schluckte und wollte.
    Während sie also mein Alter, Familienstand, akademischen Grad usw. wissen will, gehe ich mit der Dame am Ohr, an meine kleine aktuelle Bücherwand. Zu den spannenden Büchern, wie Schorlau, Harris, Schätzing, Larsson, King usw. oder weiter oben zu den humorvollen bis leicht nachdenklichen wie Goldt, Kehlmann, Richter, Treziani, (Böll, Lenz, Grass, Tolstoi, Solschenizyn, Bradbury, Lem, Orwell und wie sie alle heißen, liegen mittlerweile in Kartons verpackt auf dem Dachboden.)
    Aber nein, sie möchte etwas über meine täglichen Lesegewohnheiten wissen, also welche Presseerzeugnisse ich konsumiere. „Ach so“, sage ich, und lege los: „TAZ, FR, FAZ, ZEIT, Freitag, Tagesspiegel, SZ, da schau ich täglich rein“. Die Frage nach einem Abonnement verneine ich. Ob ich denn auch mal die BILD lese oder den Spiegel. „Selten, “ meine ich, „ eigentlich nur, falls es mal irgendwo verlinkt ist und ich das Thema gerade spannend finde“. „Ach, “ sagt sie fragend, „sie lesen alles online?“ „Selbstverständlich“, sage ich, „aktueller kann man ja fast nicht unterrichtet sein.“ „Dann können wir das Gespräch jetzt auch beenden, denn diese Umfrage berücksichtigt nur die gedruckten Zeitungen und für anderes habe sie keine Rubrik“ („Spalte“ sagte sie, glaub ich).

    Im Nachhinein vermute ich mal, dass ich in dieser Umfrage, bzw. der daraus resultierenden Statistik, als ein nicht lesender und dementsprechend uninformierter Akademiker verbucht wurde…

  11. @OJ/7
    Ich finde es mutig, den Umfragefirmen Wissenschaftlichkeit zu unterstellen. Solange Methode und Rohdaten zur Überprüfung nicht zur Verfügung gestellt werden (sie publizieren nicht mal die Unschärfequote), werden die Institute zu Recht journalistisch als ein Problem von PR und Politikberatung betrachtet.

  12. „Im Nachhinein vermute ich mal, dass ich in dieser Umfrage, bzw. der daraus resultierenden Statistik, als ein nicht lesender und dementsprechend uninformierter Akademiker verbucht wurde…“

    Als jemand, der selbst bei einem Umfrageinstitut als Telefoninterviewerin beschäftigt ist, würden sie (zumindest bei uns) in diesem Fall als abgebrochenes Interview nicht in Gesamtauswertung eingehen. Die Geschichte klingt allerdings eher nach einer Mischung aus schlechtem Fragebogen und/oder unerfahrener Interviewerin (normalerweise gibtes für solche Fälle nämlich Ausweichbuttons oder ob online/auf Papier ist für die Befragung irrelevant und deshalb auch nicht als Filterfrage enthalten).

    Was die abweichenden Umfragewerte von Forsa angeht, stimme ich einem früheren Komentar zu, dass die vorhergehenden und nachfolgenden Fragen wahrscheinlich einen großen Einfluß ausüben. Ein anderer Effekt könnte sein, dass weniger SPD-Wähler bei Forsa-Umfragen mitmachen, weil die CDU-Nähe bekannt ist (also eine Art Sponsorship-Effekt am Werk ist).

  13. @OJ: Selbst wenn es sich um ein wissenschaftliches Institut handelte, wäre eine Überprüfung etwaiger Lobby-Tendenzen völlig angebracht. Leider ist Wissenschaft nämlich keineswegs mehr von politischen oder ökonomischen Interessen per se unabhängig (auch wenn der Hausherr dieses Blogs in einem anderen Fall solche kritischen Betrachtungen seinerseits als Sakrileg dargestellt hat).

  14. Demoskopie ist jene Fragekrankheit, für deren Diagnose sie sich hält – Karl der Käfer, ungefragt.

  15. @Hm?: Ich erinnere mich da an empörte „Rufschädigung!“-Rufe in Bezug auf kritische Reflexionen über die Leiterin eines Institutes mit fragwürdiger Finanzierungskonstruktion.

  16. @meykosoft: Weder die Umfrage, noch die Interviewerin war professionell. Aber ich bin sicher, dass du nicht in die Statistik eingegangen bist, erst recht nicht als Nicht-Leser. Interviewabbrüche sind Abbrüche und werden nicht gezählt. Die Umfrage wird sicherlich auch nicht auf Basis der Gesamtbevölkerung ausgewertet worden sein, sondern auf Basis aller Leser von Papiererzeugnissen oder so. Schade nur, dass man dich nicht gleich am Anfang gefragt hat, ob du zur Zielgruppe der Befragung passt.

  17. Das wahre Problem bei Wahlforschung ist übrigens selten die Erhebung (auch wenn der von „freiwild“erwähnte Bias durch vorgehende Fragen eine Rolle spielen kann), sondern die Annahmen, die bei der Auswertung getroffen werden. Die Ergebnisse stammen aus einer kleinen Stichprobe, meistens 1000 Personen, die trotz aller Mühen niemals repräsentativ für die Gesamtbevölkerung sein können – schon alleine, weil die meisten Wahlumfragen ausschließlich per Telefon durchgeführt werden. Die Resultate werden dann hochgerechnet auf die gesamte Wahlbevölkerung, wobei dutzende Annahmen gemacht werden, die sich aus der Erfahrung und vorhergehenden Wahlen speisen. Aber es sind nun einmal Annahmen. Ich unterstelle keine bewusste Manipulation, aber Ergebnisse werden dadurch beeinflusst.

  18. Wichtig ist doch eigentlich welches Institut direkt vor der Wahl am dichtesten an der Zahl der tatsächlich abgegebenen Stimmen ist. Wenn ich mich recht erinnere war Forsa da letztes Mal am Besten während die Konkurrenz speziell die SPD viel stärker eingeschätzt hatte als sie wirklich war.

  19. @Johannes Mirus
    „Schade nur, dass man dich nicht gleich am Anfang gefragt hat, ob du zur Zielgruppe der Befragung passt.“

    Ja, das dachte ich am Ende dann auch – während des Gesprächs verstärkte sich jedoch der Eindruck, weder die Interviewentwickler, noch die freundliche Frau am anderen Ende, hatten sich diese Art der „Informationsbeschaffung“, so konsequent „ohne Papier“ überhaupt vorstellen können . Naja…

  20. Ach so, das ist vielleicht auch eine grundsätzlichere politische Sache.
    Wenn ich im Supermarkt in der Leseecke ganz kostenloskulturmässig im Stern herumblättere, lese ich auch die umfragen. und der Güllner wird ja immer nach den Gründen für die Zahlen befragt. und da hat er ein Grundschema:
    die SPD-Zahlen sind schlecht, wenn die SPD irgendwie „links“ blinkt, und sie sind gut, wenn „rechts“ geblunken (?) wird.

  21. Lieber Herr Niggemeier,

    gerade las ich einen Spiegel-Artikel über die Arbeit Güllners von 2007, der in dieselbe Kerbe schlägt (http://www.spiegel.de/spiegel/print/d-52485382.html). Dass Forsas Umfrageergebnisse sich einzig zu Zeiten der Regierung Schröder denen der anderen Institute angenähert haben und ansonsten zumeist niedriger lagen, ist doch längst kein Geheimnis mehr. Sie verstärken diese Vermutung nun nur durch Zahlen, die aber auch nicht mehr als ein Indiz für einen den Zusammenhang zwischen dem jeweiligen SPD-Kanzlerkandidat und der Höhe der Umfragewerte abgeben. Worin liegt der eigentliche Unterschied Ihres Artikels gegenüber dem von Herrn Nelles? Inhaltlich sind die beiden Texte oft beinahe deckungsgleich.

    Ihre Worte im Vergleich zum Spiegel Artikel von 2007:

    Nelles: „Die Forsa-Zahlen für die SPD sind meist die schlechtesten auf dem Markt. Schlechter als bei den anderen Instituten.“
    Niggemeier: „Doch die Zahlen von Forsa neigen nicht nur grundsätzlich zur Überreaktion; sie schätzen systematisch die Chancen der SPD niedriger ein als sämtliche andere Institute.“

    Nelles: „Schröder hat durch seine Bindekraft den Niedergang für einige Jahre übertüncht“, sagt er [Güllner]. Seit dessen Abwahl setze sich der Abwärtstrend der SPD fort.“
    Niggemeier: „Fassen wir zusammen: Forsa hat nicht immer schon die Wahlchancen der SPD besonders niedrig eingeschätzt.“

    Nelles: „Doch sein [Güllners] Kampf hat auch etwas mit enttäuschter Liebe zur SPD zu tun.“
    Niggemeier: „Güllner und die SPD — das ist die Geschichte einer enttäuschten Liebe.“

    Nelles: „Güllner versucht seit Monaten, den Sozialdemokraten mit Umfragewerten zu schaden“, sagt Niedersachsens SPD-Chef Garrelt Duin. „Wir lassen uns Kurt Beck nicht forsauen“, schimpft SPD-Präsidiumsmitglied Ludwig Stiegler.“
    Niggemeier: “ Danach aber tat sich eine Kluft auf, besonders unter Kurt Beck als SPD-Vorsitzendem.“

  22. Thorsten: Neben dem Zufallsfaktor bei der Auswahl der Befragten, der aber bei über 1000 Interviews keinen grossen Einfluss mehr haben sollte, ergeben sich die Unterschiede zwischen den Instituten aus der Gewichtung der Antworten. Zum einen wird geprüft, ob die demographische Zusammensetzung annähernd der der Wählerschaft von vergangenen Wahlen gleicht, und gegebenenfalls ausgeglichen. Zum anderen gehen nicht alle Leute, die eine Wahlabsicht äussern, später auch wirklich zur Urne, also versucht man, die wahrscheinlichen Nichtwähler rauszufiltern. Beide Entscheidungen sind rein dem jeweiligen Institut überlassen, und das zugrundeliegende Modell wird nicht veröffentlicht. Wenn man also wirklich etwas manipulieren möchte, dann schiebt man Leute, die eigentlich „SPD“ geantwortet haben, in die Kategorie der Nichtwähler. Keine Ahnung, ob und inwieweit Herr Güllner für das Modell seines Instituts selbst verantwortlich ist, aber die Sonntagsfrage ist natürlich das prominenteste Produkt. Es ist in jedem Fall ratsam, den Durchschnitt aller Umfragen zur Information zu verwenden – bei 5-7 laufend veröffentlichenden Anbietern haben solche Ausreisser praktisch keinen Einfluss mehr bzw. gleichen sich aus.

  23. Aus meiner Sicht ist die entscheidende Frage, ob am Ende, bei den Wahlergebnissen, Forsa besser lag als die anderen Institute oder umgekehrt. Ansonsten könnte man ja behaupten, die anderen hätten halt falsch gewichtet. Sollten alle Institute etwa gleiche Prognosen kurz vor der Wahl erstellt haben: hat dann Forsa in den letzten Tagen vor der Wahl die SPD-Werte angezogen – oder haben die anderen die Werte gesenkt?

  24. Die Kurven zeigen ja eindeutig, dass Forsa den anderen Meinungsforschungsinstituten lediglich etwas voraus ist, beispielsweise werden ja die von Forsa unter Beck vorhergesagten 24,5 % etwas später unter Müntefering auch von allen anderen Instituten bestätigt. Kleiner Scherz. Aber ich finde, Theo hat schon nicht unrecht, wenn er sagt, entscheidend ist doch die Abweichung vom wahren Wert und nicht von anderen Meinungsforschungsinstituten. Und da scheint es doch so zu sein (Quelle: http://de.wikipedia.org/wiki/Bundestagswahl_2009), dass Forsa den wahren Wert 2009 von 23% ÜBERschätzt hat (25%), nur etwas weniger als INFO (27%), Infratest (26%) oder Emnid (26%). Allerdings ist das natürlich nicht unbedingt diagnostisch, da Beck nicht Kanzlerkandidat war. Aber was haben die bei Forsa gegen Steinbrück? Interessant ist sicher auch, auf welche anderen Parteien sich die fehlenden Prozentpunkte bei Forsa verteilen. Im Vergleich zu Emnid beispielsweise gibt Forsa am 19.6. der SPD 3% weniger, die gehen an Grüne (1%), FDP (2%), Sonstige (2%) im Vergleich zu Allensbach gibt Forsa 4% weniger, die gehen an CDU (2%), Grüne (1%), LINKE (1%), Sonstige (1%). Im Vergleich mit Allensbach gibt Forsa der LINKE immer etwas mehr: 1% (19.6.), 2% (22.5.), 2% (1.-3.5.), 1% (17.4.), 1% (20.3.), 0,5% (20.2.), 1% (23.1.), usw. Forsa, das die SPD hasst, liebt anscheinend die LINKE (zumindest mehr als Allensbach). Irgendwo logisch. Aber ist das glaubhaft? Interessant wären jedenfalls Vergleichsgrafiken, die zeigen, wo die Prozentpunkte im Vergleich zu den anderen Instituten stecken.

  25. Ich hatte letztes Jahr mal ein Spreadsheet mit den letzten Umfragen diverser Institute und den tatsächlichen Wahlergebnissen der BW 2009 und 11 Landtagswahlen der Jahre 2010-2012 erstellt. Forsa hat da im Vergleich weitaus am schlechtesten abgeschnitten, wenn man den Durchschnitt der quadrierten Fehler (Differenz zwischen Vorhersage und Wahlergebnis) über alle Wahlen betrachtet; Infratest und FGW waren hingegen sogar knapp besser bei der Vorhersage als der Durchschnitt aller Institute. Ich habe jetzt eben nochmal nachgesehen, ob diese schlechten Resultate vielleicht etwas mit der Unterschätzung der SPD zu tun haben. Das sieht aber nicht so aus – 2012 in NRW und 2011 in Meck-Pomm hatte Forsa die SPD zwar unter- und die CDU massiv überschätzt, aber das ging allen anderen genauso. Im Saarland 2012 und Berlin 2011 rührten die Fehler hingegen hauptsächlich aus einer zu optimistischen Prognose für die SPD. 2010 in NRW wurden sowohl SPD als auch CDU zulasten der Grünen überschätzt. In Ba-Wü 2011 war Forsa sehr präzise, und 2009 bei der Bundestagswahl auch OK, aber wieder mit leichter Überschätzung der SPD.
    Dazu muss man aber noch zwei Anmerkungen machen: erstens gibt es für Umfrageinstitute einen starken Herdentrieb, sich durch möglichst ähnliche letzte Prognosen vor Kritik zu schützen; und zweitens würde es für jemanden, der die programmatische Ausrichtung der Bundes-SPD kritisiert und das mit Umfragen belegen will, wohl keinen Sinn machen, Landtagswahl-Prognosen zu faken.

  26. „In der aktuellen Wahlperiode liegt die SPD bei Forsa, wie gesagt, rund drei Prozent schlechter als im Schnitt der anderen Umfrageinstitute.“

    Falsch, lieber Stefan, zu meinst drei Prozentpunkte. :-)

  27. @meykosoft: Möglicherweise sollten ganz einfach Werbekontakte gemessen werden. Und die unterscheiden sich bei Papier/ Online.

  28. @Nobilitatis
    Kann gut sein,die Frage nach meinen Lesegewohnheiten sollte an sich dazu dienen, meine Erreichbarkeit für die Werbeindustrie zu eruieren.

    (Obwohl es schon etliche Monate her ist, erinnere ich mich gerade, dass ich bei der gezielten Frage nach BILD und SPIEGEL, die ja angeblich ganz gut von ihrenWerbeeinnahmen leben, kurz stutzte, da ich ausgerechnet diese Beiden im Netz bewusst zu vermeiden suche.)

  29. DAS ist Journalismus. Danke. +1

    Ich kenne mich mit Statistik ein bisschen aus, und würde tippen dass die Kommentare (1) und (6) absolut richtig liegen. Wenn ich in so eine Umfrage eine Tendenz reinbringen wollte, würde ich das nicht durch das massieren der erhobenen Daten tun. Das ist zwar lächerlich einfach, aber über 20 Jahre habe ich ja Mitarbeiter die kommen und gehen, das fliegt mir ja irgendwann um die Ohren.

    Direkt bei der Datenerhebung gibt es aber eine Menge Möglichkeiten:

    1. Wie genau im Telefoninterview gefragt wird in welcher Reihenfolge, und wann ein Interview für gültig oder ungültig erklärt wird. Das wäre meine Lieblingsmethode. Mit genug Erfahrung in dem Job sieht man bestimmt Muster, die nur eine Handvoll Leute in der Branche erkennen können. Dazu müsste man dann die genauen Anweisungen an die Telefoninterviewer kennen, und wie die sich verändert haben. Simples Beispiel: Haushalte in denen Kinder das Telefon abnehmen zu einer bestimmten Uhrzeit, könnten bestimmte Eigenschaften haben, und ich erkläre diese Interviews dann für ungültig.

    2. Ich könnte minimal an meinem Standard, mit dem ich meine Stichprobe für repräsentativ erkläre, verändern. Das kann ich mit Kosten oder organisatorischen Gründen rechtfertigen. Vielleicht passt meine Einkommensverteilung auf ganz Deutschland für meine Stichprobe, aber nicht auf Nord-/Süd oder West-/Ost genau, oder die stimmt, aber eine weitere Dimension passt nicht, z.B. rufe ich für mittlere Einkommen im Osten hauptäschlich in Ost-Berlin an, wenn ich weiß dass das einen bestimmten Einfluss hat.

    3. Die Uhrzeit in der ich anrufe und wen ich da erreiche hat aus vielen Gründen ziemlich sicher eine Auswirkung auf die Daten, da gibt es bestimmt Erfahrungswerte, um den Ergebnissen schon den gewünschten Dreh zu geben.

    Ab dem Punkt wo ich Datensätze im System habe die ich als gültig ansehe, würde ich dann aber wasserdichte Statistik machen.

  30. „Der SPD war Güllner suspekt“ muss wohl heißen: „DIE SPD war Güllner suspekt“

    oder wer war wem suspekt?

  31. Das hat schon seine Richtigkeit. Güllner war der Partei immer suspekt – Erläuterung dafür folgt auf dem Fuss

  32. […] Ebenfalls um merkwürdige Statistiken geht es in einem Beitrag von Stefan Niggemeier. Er untersucht den merkwürdigen Trend, dass die SPD in Forsa-Umfragen komischerweise immer ein paar Prozentpunkte unter den Umfragen der anderen Meinungsforschungsinstitute liegt. “Wann Forsa begann, für die SPD schwarz zu sehen.” […]

  33. @Lorenz Wolf-Doettinchem: „Auch“ im Sinne von…?

    Sie verstehen den konkreten Vorwurf an Forsa wirklich überhaupt nicht, stimmt’s? Es geht nicht darum, ob die Forsa-Vorhersagen prinzipiell im Trend liegen; das tun sie in der Regel, wie man auch an den Diagrammen oben sieht. Die Kritik ist, dass Forsa diese Trends überzeichnet, teilweise einfach nur durch unwahrscheinliche und extreme Übertreibungen, teilweise (vor allem was die SPD angeht) durch systematisch schlechtere Werte, je nachdem, wer die Partei gerade führt.

    Forsa hat nicht, wie der ARD-Deutschlandtrend, den größten Abstand zwischen CDU und SPD seit Juni 2005 gemeldet. Forsa behauptet, die SPD liege aktuell noch unter ihrem Wahlergebnis von 2009.

    Ob das stimmt oder nicht, wissen weder Sie noch ich. Aber Ihr Versuch, so zu tun, als werde diese Einschätzung von Forsa von anderen Umfrageinstituten jetzt mit etwas Verspätung geteilt, ist unredlich und — Stand heute — falsch. Forsa sieht die SPD bei 22 %, Infratest, Forschungsgruppe Wahlen, Emnid, Allensbach, Insa bei 25-26 %.

    22 ≠ 25.

    Ist das nicht anstrengend, als „Stern“-Journalist den von Ihrem Arbeitgeber beauftragten Dienstleister unbedingt verteidigen zu müssen, selbst um den Preis der Unredlichkeit?

  34. @Stefan Niggemeier
    Wenn die Argumente knapp werden, dann hilft offenbar nur noch Polemik ….
    Sie wollen offenbar nicht verstehen, was die besondere Stärke von Forsa ist: Es meldet die Trends in der Regel als erstes Institut. Das macht die Umfrage für den STERN journalistisch wertvoll.
    Und wer mit Umfragen umgehen kann, weiß sehr wohl, dass SPD-Werte von 25 und 22 Prozent die gleiche Wirklichkeit abbilden können. Wir geben unter jede Meldung zum STERN-RTL-Wahlrend die Zahl der Befragten und die Fehlertoleranz an – ganz so, wie es der Presserat empfiehlt. Es sind bei den großen Parteien 2,5 Prozent. Der Deutschlandtrend nennt eine Marge von 1,4 bis 3,1 Prozent. Insofern kann es eben stimmen:
    25 +/- Marge = 22 +/- Marge

  35. Ein findiges Kerlchen bei der TAZ hat, spät aber doch, diesen Artikel gefunden und für sich das beste draus gemacht: eine mittelgute Zusammenfassung ohne namentliche Nennung der Quelle:http://www.taz.de/Meinungsumfragen-von-Forsa/!123176/

    Böse Menschen würden jetzt vermuten, er traut sich nicht jemanden ins Blatt zu heben, der sich erst kürzlich mit seiner Chefin angelegt hat. Wahrscheinlich ist es aber nur wieder ein Beleg für die kollegialen Standards in der Zunft.

Comments are closed.