1 Einleitung

Die Kongruenz der politischen Kultur der Bürger und der politischen Eliten spielt hinsichtlich der Legitimität und Unterstützung politischer Systeme eine bedeutende Rolle. Die von den politischen Eliten ausgehende Herrschaft wird nur dann als legitim angesehen, wenn sie Normen und Regeln produziert, die auf geteilten sozialen Überzeugungen der Beherrschten, der Bürger, beruhen (Beetham und Lord 1998, S. 3). Politische Systeme versuchen Legitimitäts- und Unterstützungsdefizite zu vermeiden. Diese Debatte ist nicht nur relevant, wenn wir über junge Demokratien sprechen, sondern betrifft auch etablierte Demokratien und in verstärktem Maße komplexe politische Gebilde wie die Europäische Union. Quasi von Beginn an wurde sowohl in der Wissenschaft als auch in der Politik und der Gesellschaft über Legitimitätsdefizite der Europäischen Union debattiert. Prominentester Vertreter ist Scharpf (1999), der aufgrund mangelhafter Partizipationsmöglichkeiten und schwacher Institutionenbildung für die EU weder ein großes Potential an Input-Legitimation noch an Output-Legitimation sieht.

Jüngste Untersuchungen beschäftigen sich mit der Frage, wie die politischen Eliten auf diese EU-Legitimitätsproblematik reagieren. Barnickel et al. (2012) kommen in ihrer Untersuchung, basierend auf der Analyse von Redebeiträgen politischer Eliten, zu dem Ergebnis, dass die politischen Eliten davon ausgehen, dass „anerkennenswerte Entscheidungen im europäischen Institutionensystem (…) durch die Abkehr von gewählten Akteuren“ (Barnickel et al. 2012, S. 221) entstehen und des Weiteren annehmen, die drohende Output-Schwäche der EU durch intensive politische Kommunikation mit politikexternen Instanzen kompensieren zu können. Damit ergibt sich ein Spannungsverhältnis in der Wahrnehmung der Legitimitätsproblematik zwischen politischen Akteuren und der Wissenschaft. Letztere rät zu einer „Rückkehr zu politisch-pluralistischen Legitimitätsformen und zur Öffnung für ergänzende Legitimationsmodi“ (Barnickel et al. 2012, S. 221). Vor dem Hintergrund der Bedeutung der Kongruenz der politischen Kultur der Bürger und der Eliten für die Systemstabilität stellt sich die Frage, wie die Wahrnehmung der Bürger zur Legitimitätsproblematik der EU ist.

Die Schlüsselfrage in der Debatte über das Legitimitätsproblem und die Demokratiedefizite der EU ist, ob die Herrschaftsausübung der EU am demokratischen Legitimitätskonzept gemessen werden soll (Höreth 1999) oder ob demokratische Verfahren auf europäischer Ebene völlig unnötig sind, weil die EU als bloßer Zweckverbund oder „regulatory state“ (Majone 1996) über die demokratisch legitimierten Mitgliedsstaaten die Legitimität der Entscheidungen auf europäischer Ebene vorab sicherstellt. Die auf erster Position basierenden Erwartungen einer tiefgreifenden Delegitimierung der EU-Herrschaftsordnung ließen sich auf der Einstellungsebene der Bürger mittels Umfragedaten der Eurobarometer 1982–2007 erstaunlicherweise nicht nachweisen (Beichelt 2010). Möglicherweise ist die These vom Demokratiedefizit und Legitimitätsproblemen der EU (Blondel et al. 1998; Fuchs 2003; Katz und Weßels 1999; Kielmannsegg 1996; Scharpf 1999; Thomassen und Schmidt 1999) schlicht und ergreifend nicht haltbar und die EU wird als bloßer Zweckverband wahrgenommen, der keiner eigenen Legitimation bedarf (Ipsen 1972; Majone 1996). Möglicherweise führen aber auch Defizite der Erhebungsmethode zu diesem Ergebnis, bei dem es sich dann lediglich um ein wissenschaftliches Artefakt handelt.

Das methodische Vorgehen in der empirischen Legitimitätsforschung ist ebenso wie bei der Messung von Bürgerkultur traditionellerweise der standardisierte Fragebogen. Vielfach diskutiert sind jedoch einerseits die Defizite standardisierter Methoden für die politische Kulturforschung (Lauth et al. 2009; Pickel 2006), andererseits auch die grundsätzliche Frage, ob Legitimitätsforschung als „Messung“ oder als „Beurteilung“ verstanden werden soll (Patberg 2013; Zürn 2011a, b, 2013). Diese Debatte um die Modelle der empirischen Legitimitätsforschung soll neben der Diskussion der angemessenen Datenbasis aufgegriffen und weitergeführt werden. Insbesondere die Problematik sprachlicher und kultureller Äquivalenz in standardisierter Forschung soll hier diskutiert werden, ebenso die Phänomene der sozialen Erwünschtheit und des Lippenbekenntnisses. Das Resümee in der Literatur ist, dass profunde vergleichende Forschung zu Werten, Normen und Verhalten standardisierte Interviews benötigt. Aufgabe der qualitativen Forschung sei es indes, eine solide Basis für das Design der quantitativen Forschung zu schaffen (Pickel 2009, S. 303). Die vergleichende Politikwissenschaft versucht von beiden Ansätzen gleichermaßen zu profitieren, indem sie dafür plädiert, beide in Mixed methods-Designs zu kombinieren (Pickel 2009, S. 309). Während benachbarte Disziplinen einen solchen Ansatz seit Jahrzehnten verwenden, ist die vergleichende Politikwissenschaft, und die Politikwissenschaft generell (Scheer 2008), noch immer im Wettstreit zwischen quantitativer und qualitativer Forschung verhaftet.

Dieser Beitrag möchte darum die in der Psychologie entwickelte Methode des Repertory Grid-Interviews (Jankowicz 2004; Kelly 1955) auch für die Politikwissenschaft zugänglich machen und diskutieren, inwieweit die Datenbasis der Einstellungsforschung durch Repertory Grid im Sinne eines „nested analysis approach“ (Lieberman 2005) verbessert werden kann. Die Besonderheit von Repertory Grid liegt in der Kombination sowohl des qualitativen als auch des quantitativen Ansatzes. Die Datenerhebung ist qualitativ und gewährleistet damit ein hohes Lösungspotential für die sprachliche und kulturelle Äquivalenzproblematik. Die Analyse der Daten ist jedoch, neben qualitativen Auswertungsverfahren, auch quantitativ. Somit können die individuellen Ergebnisse auch auf die Makroebene transferiert werden, und eine Vergleichbarkeit und Übertragbarkeit der gewonnenen Erkenntnisse von der Stichprobe auf eine größere Gruppe wird möglich. Da Repertory Grid, wie in einem gesonderten Kapitel ausführlich erläutert werden wird, weder mit bereits formulierten Fragen noch vorgefertigten Antwortskalen arbeitet, sondern mit den Worten und Bewertungsskalen der Befragten selbst, soll auch diskutiert werden, inwieweit Repertory Grid ein Brückenschlag zwischen den Positionen der empirischen Legitimitätsforschung „messen vs. beurteilen“ (Patberg 2013) sein kann.

Gegenstand der empirischen Untersuchung für diesen Artikel ist die Wahrnehmung des EU-Legitimitätsproblems von BürgernFootnote 1 und deren Einstellungen zu der Problematik. Diese Ergebnisse sollen anschließend den Ergebnissen Barnickels et al. (2012) zur Einstellung der deutschen politischen Eliten zur Herstellung von Legitimität in der EU gegenübergestellt werden. Entgegen den Ergebnissen standardisierter Interviews, die keine Delegitimierung der EU unter der Bevölkerung hatten feststellen können (Beichelt 2010), erwartet die Autorin mittels des Repertory Grid-Interviews diese in den Wahrnehmungen der Bürger nachweisen zu können. Damit würde die politische Kultur der Bürger in Inkongruenz zu der politischen Kultur der politischen Eliten in Deutschland stehen, die laut Barnickel et al. (2012) vornehmlich für eine „Abkehr von gewählten Akteuren“ zur Erreichung „anerkennenswerte(r) politischer Entscheidungen im europäischen Institutionensystem“ (Barnickel et al. 2012, S. 221) plädieren. Forschungsergebnisse (Hooghe 2003) zu Elitenmeinung und öffentlicher Meinung in den Mitgliedsländern unterstützen die Vermutung eines abweichenden Legitimationsverständnisses. Die Konsequenz dieser Inkongruenz wäre nicht nur relevant bezüglich der Frage nach zukünftiger Legitimität von EU-Politik, sondern auch hinsichtlich der Qualität der Demokratie in der Union und der Bundesrepublik Deutschland sowie der Unterstützung beider politischer Systeme durch ihre Bürger.

Der Beitrag wird dazu als erstes den aktuellen Forschungsstand hinsichtlich der Theorie zur Legitimität der EU und der empirischen Legitimitätsforschung in Kap. 2 darstellen. Im Rahmen der aktuellen Debatten der empirischen Legitimitätsforschung werden die Vor- und Nachteile der qualitativen und quantitativen Ansätze sowie empirischer Legitimitätsforschung als „messen“ und als „beurteilen“ gegenübergestellt und schließlich in die Überlegungen zu Mixed methods-Ansätzen überführt. Im nachfolgenden Kap. 3 wird die Repertory Grid-Methode als alternativer Ansatz an der Schnittstelle zwischen den verschiedenen Positionen des vorhergehenden Kapitels vorgestellt. Dazu wird auf den theoretischen Hintergrund der Methode eingegangen, bevor die Datenbasis vorgestellt wird. In Kap. 4 folgt schließlich die empirische Analyse der Wahrnehmung der Legitimität der EU mittels Repertory Grid. Im Fazit werden die gewonnenen Ergebnisse eingeordnet und den Wahrnehmungen der politischen Elite zur Legitimität der EU gegenübergestellt.

2 Forschungsstand

2.1 Theorie

Die Kernfrage der EU-Legitimitätsdebatte ist, ob die EU und damit ihre Politik legitim ist oder nicht. Wenig ausgebildet ist dabei die Diskussion über das zu Grunde gelegte Legitimitätskonzept, wobei Einigkeit herrscht, „dass sich die Europäische Union nicht an nationalstaatlichen Legitimitätskonzepten messen läßt [sic]“ (Glaser 2013, S. 85). Beetham und Lord (1999) folgend gibt es drei Dimensionen, die in jedem Regierungssystem und in jeder Gesellschaft in der Frage entscheidend sind, ob politische Herrschaft als rechtmäßig oder legitim wahrgenommen wird. Als erstes die Dimension der Legalität, also ob die Herrschaft auf der Basis der etablierten Regeln und Gesetze ausgeübt wird. Die Dimension der normativen Rechtmäßigkeit, als zweite Dimension, zielt auf die Frage, ob die Art des Herrschaftszugangs und der Herrschaftsausübung mit den allgemein geteilten Überzeugungen übereinstimmen. Drittens folgt schließlich die Dimension der effektiven Herrschaftsgewalt oder Legitimation, die darauf zielt, inwiefern Bürger und andere legitime Autoritäten die politische Herrschaft auch anerkennen (Beetham und Lord 1999, S. 3). Die empirische Legitimitätsforschung zielt weniger auf die Frage der Rechtmäßigkeit von Herrschaft, also das Spannungsfeld zwischen Legalität und Illegitimität sowie Legitimation und Delegitimation, sondern legt den Fokus auf die Frage, inwieweit die Herrschaft normativ rechtmäßig ist, im Sinne der in der Gesellschaft gegebenen Überzeugungen (Beetham und Lord 1999, S. 4). Oder mit den Worten Webers (1992) geht es darum, ob „Herrschende und Beherrschte […] die Prinzipien, auf denen der Herrschaftsanspruch aufbaut“ (Weber 1992, S. 151–152), teilen. Ein Puzzleteil der Frage nach Legitimität ist also auch, inwieweit die Wahrnehmungen von der Legitimität und die Einstellungen zu einer politischen Ordnung zwischen Herrschenden und Beherrschten kongruent verlaufen.

Mit Maastricht 1993 haben sich die Kompetenzen der EU über ein supranationales Regime mit ökonomischen Interessen hinaus entwickelt. Die Legitimationsgrundlage der EU hat sich mit dieser Transformation gravierend verändert (Beetham und Lord 1998; Fuchs 2003; Thomassen und Schmitt 1999). Bis dahin war die EG indirekt über die jeweiligen eigenen nationalen Regierungen legitimiert, und die Bürger vertrauten darauf, dass die nationalen Regierungen ihre Interessen auch auf der europäischen Ebene angemessen vertreten würden. Dieser „permissive consensus“ (Lindberg und Scheingold 1970) gilt nach Maastricht als aufgekündigt (Beichelt 2012). Die Bürger haben in Folge von Maastricht ihre Bewertungskriterien geändert (Fuchs 2003, S. 36).

Das Forschungsinteresse der empirischen Legitimitätsforschung ist es zu klären, ob diese theoretische Annahme stimmt und ob das Ende des „permissive consensus“ tatsächlich auch zu einem Legitimitätsdefizit (Beetham und Lord 1999) führt. Grundlegend ist dabei die Frage, welche theoretische Position sich auf der Einstellungsebene der Bürger nachweisen lässt: die Demokratie- und Legitimationsdefizit-These oder die Gegenposition einer EU als Zweckverband bzw. des „Regulating Europe“ (Majone 1996), die keinerlei eigener Legitimationsgrundlage bedarf.

Das heute wahrgenommene Demokratiedefizit der EU, so eine verbreitete These der ersten Position, erzeugt ein Legitimationsproblem (Blondel et al. 1998; Katz und Weßels 1999; Kielmannsegg 1996; Scharpf 1999; Thomassen und Schmidt 1999). Zwar wurde die europäische Integration von demokratisch legitimierten Regierungen angestoßen, durch die zentrale Stellung des Rates wird die europäische Politik weiterhin vielfach von diesen Regierungen gestaltet, nationale Parlamente stimmen Verträgen zu bzw. die Völker entscheiden per Referenden direkt, und auch das direkt gewählte Europäische Parlament erhält zunehmend mehr Entscheidungsbefugnisse. Dennoch stellt sich die Frage, ob die europäische Politik eng genug „an den politischen Willen der Regierungen sowie des EP und der nationalen Parlamente [rückgebunden ist], um die demokratische Legitimität europäischer Politik zu gewährleisten“ (Kohler-Koch et al. 2004, S. 195) und inwieweit die EU-Politik an den Willen der Bürger rückgebunden ist. Wenn diese These stimmt, ist die „Institutionalisierung einer vollständigen europäischen Demokratie“ (Fuchs 2003, S. 30) unabdingbar. Die Zukunft einer solchen EU läge dann in einem Föderal- oder Superstaat (Ruchet 2011, S. 11).

Eine alternative Sichtweise auf die EU betrachtet die EU lediglich als Zweckverband (Ipsen 1972) oder „regulatory state“ (Majone 1996) bzw. als „multi-level regulatory politics“ (Moravcsik 2000, 2002), der vornehmlich ökonomische und regulierende Interessen wahrnimmt. Eine solche regulierende EU bedürfte in der Konsequenz vielmehr unabhängiger Regulierungsbehörden, die über weitreichende unabhängige Entscheidungsbefugnisse verfügen, statt gewählter Parlamente und Politiker. Um effektiv handeln zu können, müssten die getroffenen Entscheidungen undemokratisch, außerhalb des Theaters der Mehrheitspolitik in den Parlamenten, stattfinden (Ruchet 2011, S. 12). Dieser Argumentation folgend hat die EU weder ein Legitimationsdefizit noch ein Demokratiedefizit. Die nationalen Regierungen würden über ihre Präsenz in den Entscheidungsprozessen für indirekte Legitimation der EU sorgen. Der Trend zu delegierten Entscheidungen und nicht mehrheitlich organisierten Institutionen sei darüber hinaus ohnehin vielmehr ein Phänomen technischer, politischer und logistischer Komplexität modernen Regierens als der europäischen Integration (Ruchet 2011, S. 14). Dieses Argument weiterentwickelnd vertritt Moravcsik (2002) die Position, die EU solle nicht an normativen Demokratiekriterien gemessen werden, sondern an der Regierungspraxis in den Mitgliedsstaaten, die ebenfalls bestimmte Funktionen an spezialisierte Agenturen jenseits parlamentarischer und öffentlicher Kontrolle delegieren würden (Kohler-Koch et al. 2004, S. 198; Ruchet 2011, S. 14–15). Anstelle eines demokratischen Modells von Legitimität stünde dann ein technokratisches Legitimitätsmodell (Beetham und Lord 1999), in dessen Fokus die Regierungsperformanz hinsichtlich der Wohlstandsmaximierung als Aufgabe von Experten und Technokraten (Lindberg und Scheingold 1970), also Output- statt Input-Legitimität (Scharpf 1999), stünde.

Was diese Ansätze jedoch wenig berücksichtigen, ist, dass diese Art des Regierens von den politischen Eliten dominiert wäre und wenig Beteiligungsmöglichkeiten für die Bürger ließe (Ruchet 2011, S. 15), was wiederum zu einem Gap zwischen der Politik, die Bürger wollen, und der Politik, die sie bekommen, führen könnte (Hix 2008). Dieser Sichtweise auf die EU, und damit der ersten Position folgend, soll untersucht werden, ob sich in der Wahrnehmung der Bürger das beschriebene Demokratiedefizit finden lässt oder ob die Bürger der zweiten Position, nämlich der EU als modernem regulierendem Staat ohne direkten Legitimierungsbedarf, zustimmen. Dieser zweiten Position ist die Wahrnehmung der Legitimationsproblematik der EU der politischen Eliten zuzuordnen, wie sie Barnickel et al. (2012) in ihrer Analyse herausgearbeitet haben. Verhält sich die Wahrnehmung der Legitimitätsproblematik der Europäischen Union der politischen Eliten und der Bürger kongruent zueinander oder besteht vielmehr ein Spannungsverhältnis zwischen beiden? Die grundsätzliche These dieses Beitrages ist, dass die Befragten ein demokratisches Legitimitätsverständnis teilen. Folgende Hypothesen leiten sich schließlich aus der Debatte um das Legitimitäts- und Demokratiedefizit der EU ab:

Wenn der Trend zu delegierten Entscheidungen und nicht mehrheitlich organisierten Institutionen tatsächlich als ein Phänomen technischer, politischer und logistischer Komplexität modernen Regierens (Ruchet 2011, S. 14) wahrgenommen wird und die These des demokratischen Legitimitätsverständnisses der Befragten stimmt, werden weder die nationalen noch die europäischen Institutionen den idealen Vorstellungen eines legitimen Entscheidungsträgers entsprechen (H1).

Bleibt nämlich das Prinzip der Volkssouveränität Kernelement des Legitimitätsverständnisses, müssen die herrschenden Akteure gewählte Repräsentanten sein (Glaser 2013, S. 103), also demokratisch autorisiert sein (Beetham und Lord 1999, S. 22). Daraus lässt sich die Hypothese herleiten, dass sich die Forderung nach mehr Beteiligung (direkte Partizipation) an den politischen Prozessen vom Legitimitätsverständnis der Befragten ableitet (H2a). Die Einflussnahme von Experten „auf die über demokratische Verfahren vermittelte Inputlegitimität“ (Glaser 2013, S. 103) bewirkt hingegen selbst keine Legitimität. Es ist zu erwarten, dass Experten folglich nicht als legitime Entscheidungsträger wahrgenommen werden (H2b). Der Grundsatz der Verantwortungszurechnung und Kontrollmöglichkeiten im demokratischen Legitimationsverständnis verlangt schließlich nach Transparenz der politischen Entscheidungsprozesse auf europäischer wie auch auf nationaler Ebene (Beetham und Lord 1999, S. 25; H3).

2.2 Empirische Legitimitätsforschung

Bis Maastricht fand die Debatte um die Legitimität der EU ausschließlich unter den politischen Eliten statt (Schrag/Sternberg 2013), wie die EU als solche bis dahin auch als Projekt der Eliten gelten kann. In der öffentlichen und auch in der wissenschaftlichen Wahrnehmung erlangte die Europäische Gemeinschaft ihre Legitimität vor allem auf der Output-Dimension, nämlich ihrer Performanz in der Friedenssicherung und der Wohlstandsmaximierung ihrer Mitgliedsländer (Fuchs 2011, S. 27 Schrag/ Sternberg 2013, S. 14). Während es zahlreiche Studien (Beichelt 2010; Fuchs 2003; Lubbers und Scheepers 2010; Weßels 2007) zu den Einstellungen der Bürger gegenüber der EU gibt, untersuchten bisher wenige die Legitimität der EU auf Bürgerebene. Der Vergleich der Bürger und Eliten auf Einstellungsebene zeigt hohe Zustimmungswerte unter den Eliten und niedrige Zustimmungswerte unter den Bürgern. Für die Frage der Legitimität wären in der logischen Folge der niedrigen Zustimmungswerte zur EU eine ausgeprägte Wahrnehmung der Legitimitätsproblematik und der Demokratiedefizite der EU zu erwarten. Überraschend sind jedoch die Ergebnisse Beichelts (2010) zur Untersuchung der EU-Skepsis der Bürger von EU-Mitgliedsstaaten. Entgegen der theoretischen und empirischen Erwartungen jener Autoren, die von einem Legitimitätsdefizit der EU ausgehen, liegt die EU-Skepsis in Deutschland in den Jahren von 1982 bis 2007 lediglich zwischen 5 und 15 %.Footnote 2 Zuletzt für das Jahr 2008 konstatieren die empirischen Befunde eine Zustimmung zur EU von beinahe 70 % (Beichelt 2010, S. 5).Footnote 3

Fuchs (2003) untersuchte ebenfalls mittels Daten des Eurobarometers den Einfluss von systemischer PerformanzFootnote 4 (output-orientiert) und demokratischer PerformanzFootnote 5 (input-orientiert) auf die generalisierte Unterstützung der Bürger für die EU.Footnote 6 Das Demokratiedefizit der EU hat folglich in dieser Studie auch nicht die von zahlreichen Autoren (Blondel et al. 1998; Katz und Weßels 1999; Kielmannsegg 1996; Scharpf 1999; Thomassen und Schmidt 1999) angenommene „negative Auswirkung auf die Unterstützung der EU durch die Bürger der Mitgliedsländer“ (Fuchs 2003, S. 50).

Auf der Basis dieser Untersuchungen stellt sich die Frage, ob die These des Legitimitätsdefizits tatsächlich falsch ist und das EU-Legitimitätsproblem lediglich in den wissenschaftlichen Debatten existiert. Statt diese und die damit verbundenen Thesen zum Demokratiedefizit der EU auf der vorliegenden Datengrundlage mittels einer Erhebungsmethode zu verwerfen, gilt es zu prüfen, ob möglicherweise die Defizite der bisherigen Erhebungsmethode zu diesem Ergebnis führen.

2.2.1 Quantitativ vs. qualitativ

Der erste Kritikpunkt an der herkömmlichen Legitimitätsforschung ist die Unschärfe des Begriffs. Ursprünglich mit Blick auf die Nationalstaaten konzipiert (Easton 1965, 1975) hat sich der Begriff der Legitimität nicht modifiziert auch auf politische Ordnungen jenseits des Staates ausgeweitet. Die „Messung von Legitimität und die Erklärung unterschiedlicher Niveaus der Regime-Unterstützung“ (Schmidtke und Schneider 2012, S. 225) stehen weiterhin im Vordergrund, während es kaum „Forschung zu Legitimationsprozessen und -praktiken“ gibt (Schmidtke und Schneider 2012, S. 225). Darüber hinaus sind die Vorstellungen von legitimer Herrschaft stark normativ geprägt. Die Anerkennungswürdigkeit politischer Herrschaft unterliegt dieser normativen Perspektive folgend, die Fuchs (2011) als objektive Legitimität bezeichnet, universalen demokratie- oder gerechtigkeitstheoretischen Bewertungsmaßstäben. Vernachlässigt werden durch diese von außen vom Forscher herangetragenen Bewertungskriterien die Legitimitätsansprüche und -urteile der Regierenden und der Regierten selbst, also die tatsächliche Anerkennung der Ordnung (Schmidtke und Schneider 2012, S. 226) bzw. die subjektive Legitimität (Fuchs 2011). Mittels standardisierter Umfragen wie dem Eurobarometer sind Forscher ausschließlich in der Lage, diese normative Perspektive zu messen. Die empirische Perspektive, wie Schmidtke und Schneider (2012, S. 226) die tatsächliche Anerkennung der Ordnung (subjektive Legitimität) bezeichnen, bleibt unberücksichtigt. Gemessen wird also lediglich die geäußerte Positionierung der Befragten innerhalb der wissenschaftlichen Konstruktion von Realität und nicht die tatsächliche Einstellung der Befragten in der Realität selbst. Stattdessen liegt das Forschungsinteresse der empirischen Legitimitätsforschung darin zu hinterfragen, welche normativen Standards den Beurteilungen, ob ein Regime legitim ist oder nicht, zu Grunde liegen (Fuchs 2011, S. 31).

Diese Problematik ist eng verbunden mit der Frage nach einem homogenen Verständnis der gemessenen Begriffe, also welche die dahinter liegenden normativen Grundprinzipien sind. Ein weiterer Zusammenhang besteht mit der Frage nach sprachlicher und kultureller Äquivalenz sowie den Phänomenen des Lippenbekenntnisses und der sozialen Erwünschtheit. Diese Probleme sind jedoch nicht nur auf die Legitimitätsforschung beschränkt, sondern betreffen allgemein die politische Kulturforschung, Einstellungsforschung und Forschung zu Werten und Normen, insbesondere dort, wo Einstellungen zu abstrakten Begriffen gemessen werden sollen, wie zum Beispiel zu Legitimität oder auch zu Demokratie.

Bevor die Legitimität der EU auf der Einstellungsebene der Bürger gemessen werden kann, sollte geklärt werden, was die Bürger eigentlich unter Legitimität verstehen und ob dieser Begriff tatsächlich so homogen gebraucht wird, wie es die normative Sichtweise der Politikwissenschaft vorgibt. Möglicherweise liegt hier eine Erklärung für den dargestellten Widerspruch zwischen empirischen Ergebnissen und theoretischer Forschung zur EU-Legitimität, und eine Anpassung der Fragen standardisierter Umfragen an heterogenere Begriffsdefinitionen wäre nötig. Dem Argument folgend soll im empirischen Teil zusätzlich getestet werden, ob der Legitimitätsbegriff der Befragten homogen oder heterogen ist (H0).

Die Probleme der normativen Ausrichtung und homogenen Verwendung von Begriffen weisen zum Phänomen der sprachlichen und funktionalen Äquivalenz. Bereits in national angelegten Studien problematisch, werden Äquivalenzprobleme in Cross country- und Cross culture-Studien ein Hindernis, da weder von einem vergleichbaren Verständnis der Fragen noch einer vergleichbaren Verwendung der genutzten Begriffe und Assoziationen ausgegangen werden kann (Lauth et al. 2009). Standardisierte Umfragen ignorieren jedoch genau diese Unterschiede.

Eine verwandte Herausforderung der Umfrageforschung sind die Unterschiede der subjektiven Verwendung der vorgegebenen Skalen (Wand 2012, S. 1). In der Praxis gehen Forscher davon aus, dass alle Befragten subjektive Skalen in exakt der gleichen Weise interpretieren. Da Befragte aber durchaus in der Interpretation der Skalen differieren, ist diese Vorgehensweise fraglich (Wand 2012). So haben Forschungen der Methoden der Umfrageforschung und der Cross culture-Psychologie ergeben, dass es Länder gibt, in denen die Befragten dazu tendieren, eine Seite der Skalen häufiger zu verwenden als die andere. In anderen Ländern oder Kulturen lässt sich das Phänomen beobachten, dass entweder hauptsächlich die jeweils extremen Pole einer Skala verwendet werden oder hauptsächlich die mittleren Bereiche der Skala (Stegmüller 2011, S. 3). In der Konsequenz kann es also durchaus sein, dass Befragte aus verschiedenen Ländern oder Kulturen verschieden antworten, obwohl sie Vorlieben und Einstellungen teilen. Damit sind die Daten nicht äquivalent und nur schwer vergleichbar.

Eine Methode, mit der heterogenen Verwendung von Ordinalskalen umzugehen, ist das Setzen von Anchoring vignettes (King et al. 2004; King und Wand 2007; Wand 2012). „By observing how each individual rates a common set of vignettes, a researcher may discern differences in scale use and thereby adjust the meaning of each individual’s self-evaluation“, wie Wand (2012, S. 1) es beschreibt. Da jedoch Anchoring vignettes der ursprünglichen Umfrage hinzugefügt werden, sind sie in der Anwendung recht aufwendig und nicht weit verbreitet (Pickel et al. 2009). Anchoring vignettes bieten eine Antwort auf das Problem unterschiedlich verstandener und verwendeter Antwortkategorien (King und Wand 2007, S. 46).

Das Problem der sprachlichen und kulturellen Äquivalenz von Begriffen und Konzepten selbst können aber auch die Anchoring vignettes nicht aufheben. Etablierte Lösungsstrategien für diese Problematik sind gewissenhafte Übersetzung und Rückübersetzung der Fragen und Antwortoptionen, Fokusgruppen oder Cognitive debriefing (King und Wand 2007, S. 46). Ziel der Übersetzung und Rückübersetzung ist es zum Beispiel, den Unterschied zwischen sprachlicher und funktionaler Äquivalenz zu identifizieren. Dieses Vorgehen kann jedoch nicht verhindern, dass ein unterschiedliches Verständnis nach wie vor die Antworten beeinflusst (Lauth et al. 2009). Dennoch ignorieren Forscher dieses unterschiedliche Verständnis in unterschiedlichen Untersuchungsfällen und nehmen weitestgehende Ähnlichkeiten an, so dass die erzielten Ergebnisse aussagekräftig werden. Fragebogenrückübersetzung, so kann festgehalten werden, unterscheidet nicht zwischen sprachlicher und kultureller Äquivalenz. In der westlichen Welt hat sich dieses Vorgehen zwar durchaus bewährt. Für Studien, die über Westeuropa und Nordamerika hinausgehen, bietet es jedoch keine geeignete Lösungsstrategie. Konsequenterweise schließen in Folge dessen einige Wissenschaftler diese Länder von ihren Studien aus, was jedoch gravierend die Generalisierbarkeit (Pickel 2006), Übertragbarkeit und Vergleichbarkeit der Ergebnisse einschränkt. Eine bessere Lösung scheint jedoch nicht in Sicht, weshalb Pickel et al. (2009) davon ausgehen, dass die bisherige Vorgehensweise auch in Zukunft dominieren wird.

Ein alternativer Ansatz, um die oben angesprochenen Defizite rein quantitativen Vorgehens zu mildern, sind offene Fragen. Ebenso wie Dalton et al. (2008) im Anschluss an standardisierte Fragen einiger großer Cross national-surveysFootnote 7 qualitative Daten zum Verständnis von DemokratieFootnote 8 gesammelt haben, wäre auch eine vergleichbare Untersuchung zur Frage nach dem Legitimitätsverständnis der Bürger vorstellbar, um die oben angesprochenen Defizite rein quantitativen Vorgehens zu mildern.

Der Bezug auf den Einzelfall ist der Hauptvorzug qualitativer Forschung. Um den subjektiven Sinn menschlichen Handelns zu analysieren ist es notwendig, das Subjekt ins Zentrum der Forschung zu rücken. Durch eine höchstmögliche Offenheit, eine möglichst geringe Beeinflussung durch Fragen und Antwortmöglichkeiten sowie die aktive Artikulation und Formulierung von Meinungen und Einstellungen mit den eigenen Worten sollen die Probleme der sozialen Erwünschtheit und des bloßen Lippenbekenntnisses abgeschwächt werden (Pickel und Pickel 2009). Zusätzlich hat die Äquivalenzproblematik in offenen Interviews weniger Gewicht, weil der Interviewer bei konzeptionellen Widersprüchen die Möglichkeit hat, für ein besseres Verständnis vertiefend nachzufragen. Komplett frei von diesen Einschränkungen ist das qualitative Interview jedoch auch nicht.

Ein spezifisches Problem, mit dem Interviews mit offenen Fragen konfrontiert sind, ist das Problem der vagen Antworten. Des Weiteren kann die Reihenfolge der gestellten Fragen, die häufig während der Erstellung des Interviewleitfadens festgelegt wird, die Antworten beeinflussen. Und schließlich liegt auch beim Kodierer der Interviews eine mögliche Fehlerquelle. Während der Kodierer die Bedeutung der (möglicherweise vagen) Antwort identifiziert, wird den Daten automatisch zusätzliche Variabilität und Subjektivität hinzugefügt und damit die Reliabilität reduziert. Zudem können qualitative Daten nicht auf der Makroebene verglichen werden. Und schließlich ist die Repräsentativität der Daten eingeschränkt, da es, verglichen mit quantitativen Daten, zu zeit- und kostenintensiv ist, auf qualitativem Weg eine ausreichend große Menge an Daten zu sammeln (Pickel 2009; Pickel et al. 2009).

Auch qualitative Forschung, so lässt sich festhalten, kann die Schwächen quantitativer Forschung maximal reduzieren, aber nicht aufheben. Auch wenn Dalton et al. (2008) in der oben genannten Studie die (vermeintlich) eigenen Definitionen der Befragten von Demokratie in ihre Analysen einbeziehen, gelingt es ihnen nicht, soziale Erwünschtheit und Lippenbekenntnisse von tatsächlichen Normen und Werten der Gesellschaften zu unterscheiden und das Problem der sprachlichen und funktionalen Äquivalenz zu lösen.Footnote 9 Die Einstellungen, Normen und Werte, die sich hinter dem Geäußerten verbergen, bleiben weiterhin nicht messbar. Gleichzeitig bleiben die, gegenüber quantitativer Forschung, nicht unwesentlichen Nachteile bestehen.

2.2.2 Messen vs. Beurteilen

Standardisierte Umfragen geraten auch als Methode der empirischen Legitimitätsforschung ins Kreuzfeuer der akademischen Debatte (Patberg 2013; Zürn 2011a, b, 2013). Ein auf Umfragedaten basierender Akzeptanzbericht könne nicht die Analyse der empirischen Legitimität eines politischen Systems sein, so die Kritik (Patberg 2013). Zudem verfehlen Umfragedaten die Konzeptionalisierung empirischer Legitimität, da es nicht bloß um die Akzeptanz einer politischen Ordnung gehe (Zürn 2013), sondern um die Frage, ob die Art des Herrschaftszugangs und der Herrschaftsausübung mit den allgemein geteilten Überzeugungen übereinstimmt (Beetham und Lord 1999), also auch inwieweit die Wahrnehmungen von der Legitimität und Einstellungen zu einer politischen Ordnung zwischen Herrschenden und Beherrschten kongruent verlaufen. Mit Beetham (1991) argumentiert Patberg (2013), dass es zu kurz greife, lediglich zu messen, „ob die Bürger an die Legitimität ihrer politischen Ordnung glauben, sondern ob die Herrschaft in Übereinstimmung (Hervorhebung im Original) mit den Überzeugungen, Werten und Erwartungen der Bürger ausgeübt werde“ (Patberg 2013, S. 158). Statt des umfragedatenbasierten Akzeptanzberichts, der Legitimitätsforschung als Messung, sollte die Beurteilung, ob sich die institutionelle Struktur und die Performanz eines politischen Systems in Übereinstimmung mit den „normativen Maßstäbe[n] (…) und Erwartungen an politische Herrschaft, welche die Bürger generell und ohne Bezug zum gegenwärtigen Zustand des eigenen politischen Systems hegen“ (Patberg 2013, S. 159), befinden oder nicht, im Zentrum der Forschung stehen. Der zentrale Unterschied zwischen der Legitimitätsforschung als Messung und der Legitimitätsforschung als Beurteilung ist Patberg (2013) folgend das urteilende Subjekt. In der Legitimitätsforschung als Messung sind die Beherrschten das Subjekt, welches über die Legitimität einer politischen Ordnung urteilt, worüber der Forscher berichtet. In der Legitimitätsforschung als Beurteilung wird der Forscher selbst zum beurteilenden Subjekt (Zürn 2013). Bei aller Kritik an der Unterscheidung zwischen „messen“ und „beurteilen“ teilt Zürn (2013) den Einwand Patbergs (2013), dass es „in der empirischen Legitimitätsforschung (…) letztlich um die Legitimität aus der Sicht der Betroffenen“ (Zürn 2013, S. 175) gehen müsse und nicht „um die normative Beurteilung einer Praxis als gut oder schlecht anhand von externen Kriterien, die vom Beobachter bestimmt werden“ (Zürn 2013, S. 175). Oder mit Patbergs Worten sollte es bei empirischer Legitimitätsforschung darum gehen, dass „[d]ie Legitimität von Herrschaftspraktiken (…) nicht anhand eines theoretisch konstruierten normativen Ideals beurteilt [wird], sondern der Maßstab (…) die empirisch zu ermittelnden normativen Standards der Bürger (…) [sind]“ (Patberg 2013, S. 159). An dieser Stelle ist Patberg (2013) m. E. zu widersprechen, wenn er aus dieser Erkenntnis schlussfolgert, dass eben diese „Beurteilung einer politischen Ordnung als legitim oder illegitim“ dem Modell der Legitimitätsforschung als Beurteilung folgend „nicht dem Bürger, sondern dem Wissenschaftler“ (Patberg 2013, S. 160) obliegt. Patberg (2013, S. 160) zufolge identifiziert der Forscher die normativen Standards der Bürger, rekonstruiert anschließend die existierende Herrschaftsordnung und setzt dann die Wertüberzeugungen der Bürger in Beziehung zu den rekonstruierten Herrschaftspraktiken, beurteilt also, ob eine Übereinstimmung vorliegt oder nicht, ob also die gegebene politische Ordnung als legitim wahrgenommen wird oder nicht. Geht es hier aber um subjektive Legitimität und nicht um objektive Legitimität, sollte doch der Bürger selbst beurteilen, inwieweit seine normativen Maßstäbe mit der existierenden Herrschaftsordnung übereinstimmen und nicht der Forscher, der bei aller Gewissenhaftigkeit eine externe Position einnimmt und von theoretisch konstruierten Idealvorstellungen beeinflusst ist. Insofern ist der Einschätzung Zürns (2013) m. E. zuzustimmen, dass „der Gegenstand der empirischen Legitimitätsforschung (…) der Legitimitätsglaube sein [sollte] – und nicht das, wie bei Markus Patberg, möglicherweise in der Rekonstruktion der Verhältnisse versteckte Gerechtigkeitsempfinden des Forschers“ (Zürn 2013, S. 176). Zürn leitet daraus ein prozessorientiertes Modell der empirischen Legitimitätsforschung ab, auf dessen einer Seite die Autoritätsausübenden mit ihrer Herrschaftspraxis und ihre Rechtfertigungen stehen und auf der anderen Seite die Autoritätsunterworfenen mit der Bewertung dieser Rechtfertigungen anhand ihrer normativen Überzeugungen. Eine zusätzliche Dimension dieses Modells ist der Legitimationsprozess im öffentlich Raum, in dem die Rechtfertigungen und Anforderungen miteinander interagieren (Zürn 2013, S. 178). Datengrundlage dieses Modells wären Umfragedaten, Diskurse und Stellungnahmen auf Seiten der Autoritätsunterworfenen und Analyse der Entscheidungsprozesse sowie Diskurs- und Inhaltsanalysen auf Seiten der Autoritätsausübenden (Zürn 2013, S. 178–179). Die Beurteilung der Übereinstimmung wird in diesem Modell jedoch im Vergleich zu Patberg (2013) vernachlässigt. Empirische Legitimitätsforschung als „Messung“ und „Beurteilung“ durch den Beherrschten selbst erscheint, auf der theoretischen Basis der Legitimitätsforschung (Beetham und Lord 1999; Fuchs 2011), als lohnenswerte Weiterentwicklung der Debatte.

Ein weiterentwickeltes Modell zur empirischen Legitimationsforschung könnte demnach folgendermaßen aussehen (Abb. 1): Zunächst interpretieren die Beherrschten die von ihnen wahrgenommenen Herrschaftspraktiken und schließen damit auf die zu Grunde liegende Herrschaftsordnung. Diese angenommene Herrschaftsordnung wird mit den eigenen normativen Standards verglichen. Stimmen die angenommene Herrschaftsordnung und die normativen Standards überein, entsteht Legitimität. Daraus ergeben sich für den Forscher drei Analyseschritte. Der erste Analyseschritt untersucht die zu Grunde liegenden normativen Standards der Bürger. Im zweiten Analyseschritt wird die Übereinstimmung der normativen Standards mit der Herrschaftsordnung gemessen. Und in einem dritten Schritt gilt es die Gewichtung der normativen Standards, also welche normativen Standards tatsächlich letzten Endes auch legitimitätsstiftend sind, zu analysieren. Die Festlegung der normativen Standards und die Beurteilung der Übereinstimmung mit der Herrschaftsordnung liegen beim Befragten, während der Forscher lediglich analysiert.

Abb. 1
figure 1

Modell empirischer Legitimitätsforschung. (Quelle: Eigene Darstellung)

Mittels standardisierter Umfragen wie dem Eurobarometer sind Forscher ausschließlich in der Lage, die normative Perspektive von Legitimität zu messen, die empirische Perspektive, wie Schmidtke und Schneider (2012, S. 226) die tatsächliche Anerkennung der Ordnung (subjektive Legitimität) bezeichnen, bleibt unberücksichtigt. Gemessen wird, sowohl mittels Umfragedaten als auch durch Inhalts- und Diskursanalysen, lediglich die geäußerte Positionierung der Befragten innerhalb der wissenschaftlichen Konstruktion von Realität, nämlich der Analyse der Entscheidungsprozesse, und nicht die tatsächliche Einstellung der Befragten in der Realität selbst. Stattdessen liegt das Forschungsinteresse der empirischen Legitimitätsforschung darin zu hinterfragen, welche normativen Standards den Beurteilungen, ob ein Regime legitim ist oder nicht, zu Grunde liegen (Fuchs 2011, S. 31) und inwieweit diese mit der Herrschaftspraxis übereinstimmen. Dazu bedarf es alternativer Methoden oder wie bereits im Modell Zürns (2013) angeregt, eines Methodenmix.

2.2.3 Mixed methods

Die unterschiedlichen Strategien zur Messung abstrakter Begriffe wie Legitimität oder Demokratie und die Kritik an ihnen spiegeln die generelle Debatte der vergleichenden Politikwissenschaft zu den jeweiligen Vor- und Nachteilen der quantitativen und der qualitativen Methoden wider sowie die Frage nach dem methodischen Königsweg (Jahn 2009; Lauth et al. 2009; Pickel 2006, 2009; Pickel und Pickel 2009).

Qualitative und quantitative Forscher sind sich indes soweit einig, dass nur eine Quantifizierung der Ergebnisse die notwendige Verallgemeinerungsfähigkeit der Aussagen gewährleistet. Einzig über standardisierte Interviews sei es möglich, überhaupt erst zwischen Makroeinheiten vergleichbare Aussagen über Bürger treffen zu können (Pickel et al. 2009). Das Resümee lautet: „Nur durch die standardisierte Umfrageforschung wird eine empirisch fundierte vergleichende Werte-, Einstellungs- und auch Verhaltensforschung überhaupt erst umsetzbar“ (Pickel 2009, S. 303). Die wichtige Aufgabe der qualitativen Forschung sei es, sinnvolle Quantifizierung zu ermöglichen (Pickel und Pickel 2009), indem sie dabei unterstützt, valide Messinstrumente zu erstellen (Coppedge 1999).

So wird auch verstärkt das Potential der verschiedenen Methoden in sogenannten Mixed methods-Designs diskutiert. Die Kombination qualitativer und quantitativer Daten in einer Untersuchung ermöglicht ein besseres Verstehen des Forschungsproblems als eine der beiden methodischen Herangehensweisen es für sich allein leisten kann (Pickel 2009). Auch in der empirischen Legitimitätsforschung wird, wie herausgearbeitet, darüber diskutiert, dass Umfragedaten allein nicht die einzige Datenquelle sein sollten (Schmidtke und Schneider 2012; Zürn 2013). Wenn das Ziel aber nicht bloß ein Nebeneinander quantitativer und qualitativer Methoden sein soll, sondern tatsächliche Integration, liegt eine Umsetzungsmöglichkeit eines Mixed methods-Designs in einem Nested analysis-Ansatz (Lieberman 2005). Bei diesem Ansatz sind quantitative Large-N-Untersuchungen gut zur Auswahl von Small-N-Untersuchungen in die Tiefe. Sie dienen dazu, den Fokus auf bestimmte Fallstudien und Vergleiche zu lenken oder dazu, aus Small-N Studien generierte Hypothesen zusätzlich zu überprüfen. Small-N-Analysen wiederum können dazu dienen, die Plausibilität der statistisch beobachteten Beziehungen zwischen Variablen zu testen, auf der Basis von Ausreißern und anderen Fällen neue Erkenntnisse zu generieren und bessere Messstrategien zu entwickeln (Lieberman 2005). Ziel der Nested analysis ist also, sowohl qualitative als auch quantitative Forschung zu integrieren und von beiden zu profitieren. Lieberman (2005, S. 437) entwickelt ein Pfadmodell, wie und zu welchen Analysezwecken beide Forschungsansätze kombiniert werden können.

Ein möglicher Pfad zum aufgeworfenen Forschungsproblem wäre, nach der Large-N-Analyse, die, wie im Kap. 2.2. zur „Empirischen Legitimitätsforschung“ mit u. a. Beichelt (2010) dargestellt, keine zufriedenstellenden Ergebnisse geliefert hat, mit einer Small-N-Analyse das zu Grunde liegende Modell weiterzuentwickeln. Die Fallauswahl wäre in diesem Pfad von der Logik bestimmt, sowohl typische Fälle als auch Ausreißer zu untersuchen. Sollte sich aus der Analyse ein kohärentes Modell ergeben, ist dieses erneut durch eine Large-N-Analyse zu testen, um zu generalisierbaren Aussagen zu gelangen.

Als besondere Herangehensweise werden die Mixed model-Studien diskutiert, „in welchen bereits innerhalb der verschiedenen Stufen des Forschungsprozesses beide Ansätze zum Tragen kommen. Es erfolgt also kein Austausch der Ergebnisse parallel zueinander durchgeführter Studien, sondern eine Vermengung innerhalb der Untersuchungsphasen (Fragestellung, Datenerhebung, Datenanalyse)“ (Pickel 2009, S. 309).

3 Repertory Grid als alternative Methode zwischen qualitativ und quantitativ und zwischen Messen und Beurteilen

Mixed model-studies kennen andere Disziplinen bereits seit Jahrzehnten. In den 1960ern entwickelte der Psychologe Kelly (1955) das Repertory Grid-Verfahren, um „subjektive Wirklichkeitskonstrukte im Erfahrungshorizont“ (Rosenberger und Freitag 2009, S. 477) von Personen zu erfassen. Die Besonderheit dieses Verfahrens ist, dass die Datenerhebung qualitativ ist, die Auswertung der Daten aber auch mit quantitativen Analyseverfahren möglich ist. Repertory Grid steht aber nicht nur an der Schnittstelle zwischen qualitativem und quantitativem Ansatz, sondern auch an der Schnittstelle zwischen der empirischen Legitimitätsforschung als „Messen“ und „Beurteilen“.

3.1 Theoretischer Hintergrund

Die Grundlage der Repertory Grid-Methode ist die Annahme, dass Menschen die Realität (re)konstruieren, um mit der Welt in Kontakt treten zu können. Menschen antizipieren Ereignisse durch die individuelle Verknüpfung ihrer eigenen Erfahrungen. Sie evaluieren die Ergebnisse ihres Handelns mit den verfügbaren persönlichen Konstrukten, um ihr Verhalten an die Erfordernisse der Umwelt anzupassen (Jankowicz 2004).

Die Repertory Grid-Methode ermöglicht die Beantwortung zahlreicher substantieller Fragen: 1. In welchem Verhältnis stehen verschiedene Realitäten (Elemente) zueinander? 2. Wie beschreiben (Konstrukte) Menschen die Realität (Elemente)? 3. Was meinen Menschen, wenn sie über spezifische Dinge sprechen? und 4. Welche Bedeutung haben die Worte des Befragten?

3.2 Datenerhebung

Repertory Grid arbeitet mit den Worten der Befragten selbst, um die subjektiven Konstrukte von Individuen zu messen. In der Vorbereitung der Datenerhebung werden Begriffe („Elemente“) festgelegt, die den (Ziel)Begriff, z. B. Legitimität in real existierende, repräsentative Referenzen oder Objekte übersetzt. Für die Erforschung der Wahrnehmung der Legitimität der EU können das zum Beispiel „das Europäische Parlament“, „die Europäische Kommission“ oder „die Europäische Zentralbank“ sein. In der Theorie Kellys (1955) sind diese „Elemente“ für den Befragten relevante Dinge, Situationen oder Ereignisse. Die Auswahl der richtigen und möglichst aussagekräftigsten Elemente ist Teil des pre-set research design. Die Festlegung der Elemente ist der sensibelste Teil der Methode, da sie das gesamte Interview und dessen Ergebnisse beeinflusst. Darum ist es wichtig, die Elemente vor der tatsächlichen Forschungsphase gewissenhaft zu testen und nötigenfalls nachzujustieren.

Im ersten Schritt des Repertory Grid-Interviews werden drei dieser festgelegten Elemente zufällig ausgewählt und gegenübergestellt. Der Interviewte wird gebeten, zwei der drei Elemente als einander ähnlich oder voneinander verschieden zu bewerten. Im zweiten Schritt formuliert der Interviewte eine subjektive Einschätzung, worin sich die ausgewählten zwei Elemente unterscheiden bzw. worin sie sich ähneln, um in einem dritten Schritt zu formulieren, durch welche eigene Beurteilungsdimension (Konstrukt) sich das dritte Element von den anderen beiden abgrenzt. Mit Hilfe persönlicher „Konstrukte“ vergleicht der Befragte die charakteristischen Eigenschaften der „Elemente“ und setzt die „Elemente“ zueinander in Beziehung. Die „Elemente“ und „Konstrukte“ helfen Menschen, ihre Realität zu strukturieren. Konstrukte können nach Kelly (1955) als dichotome Dimensionen von beispielsweise „gut“ versus „böse“ bis zu „warm und sonnig“ versus „kalt und windig“ reichen, um die „Elemente“ auf der Basis ihrer Ähnlichkeit bzw. Unterschiedlichkeit zu sortieren und zu evaluieren. Um beim Beispiel der Legitimität zu bleiben, können das die Konstruktdimensionen „gewählt“ versus „ernannt“ sein. Die Abb. 2 visualisiert diese ersten drei Interviewschritte.

Abb. 2
figure 2

Erstellen der Konstruktdimensionen. (Quelle: Eigene Darstellung)

Im vierten Schritt werden alle übrigen Elemente des Interviews mit den eigens erstellten Beurteilungskonstrukten bewertet. Diese Bewertung findet in einem Tetralemmafeld statt, welches neben der Zuordnungsposition zwischen Konstrukt 1 und 2, z. B. „gewählt“ versus „ernannt“ auch die Optionen „beides“ oder „keines von beiden“ zulässt (Elements and Constructs 2013). Jedes „Element“ wird mit den „Konstrukten“ bewertet (Jankowicz 2004), wie Abb. 3 exemplarisch zeigt. Das Repertory Grid-Interview erstellt damit für den Forscher eine Art „mental map“ (Jankowicz 2004, S. 14), wie Menschen denken und die Welt sehen.

Abb. 3
figure 3

Bewertung der Elemente im Tetralemmafeld. (Quelle: Eigene Darstellung)

Diese Schritte werden mit verschiedenen, zufällig ausgewählten Sets von je drei Elementen wiederholt, um unterschiedliche Konstrukte des Interviewten und dessen entsprechende Zuordnung der Elemente zu sammeln. Um aussagekräftige Ergebnisse zu erhalten, sind mindestens fünf Interviewdurchgänge pro Befragten notwendig. Abbildung 4 fasst den kompletten Ablauf einer Repertory Grid-Analyse, von der Vorbereitung, über die Durchführung, bis zur Auswertung der Daten, mit der sich Kap. 3.3 im Anschluss befasst, zusammen.

Abb. 4
figure 4

Ablauf einer Repertory Grid Untersuchung. (Quelle: Rosenberger und Freitag 2009, S. 481)

3.3 Datenanalyse

Die mit den Interviews gesammelten Daten ermöglichen zahlreiche statistische Analysen. Für eine manuelle Analyse werden die Daten in ein Elemente- und Konstruktgrid übertragen. Es handelt sich dabei um eine Ratingskala, angeordnet in Zeilen und Spalten in einer Tabelle oder in einem Grid (Jankowicz 2004, S. 8). Von dieser manuellen Analyse eines einzelnen Interviews, wie in Abb. 5 Footnote 10 dargestellt, leitet sich auch der Name der Methode ab. Die Abbildung zeigt oben links die zwölf Elemente einer Beispieluntersuchung zur Messung des Demokratieverständnisses und in der rechten Tabellenhälfte die individuellen Konstrukte des Befragten. Im Grid schließlich lässt sich die Zuordnung der Elemente zwischen den jeweiligen Konstruktpolen ablesen. Beispielsweise in der ersten Zeile werden die Elemente zwischen den Polen „Verlässlichkeit“ und „Unberechenbarkeit“ zugeordnet. Die Elemente „Ideale Regierungsform“ und „Rechtsstaatlichkeit“ werden in absoluter Übereinstimmung mit der Eigenschaft „Verlässlichkeit“ (numerischer Wert 1) wahrgenommen und das Element „Diktatur“ in Übereinstimmung mit „Unberechenbarkeit“ (numerischer Wert 10). Die verbleibenden Elemente wurden vom Befragten zwischen den beiden Polen zugeordnet. Je näher der Wert bei 1 liegt, desto eher ist „Verlässlichkeit“ charakteristisch für das entsprechende Element, und je näher der Wert bei 10 liegt, desto besser wird das Element durch das Konstrukt „Unberechenbarkeit“ beschrieben.

Abb. 5
figure 5

Beispiel einer Element-Konstrukt-Matrix (Einzelgrid). (Quelle: Eigene Erhebung)

In einem Einzelgrid ist es möglich, einfache Zusammenhänge zwischen Elementen und einfache Zusammenhänge zwischen Konstrukten zu analysieren sowie mittels Clusteranalysen und Hauptkomponentenanalysen tiefer in die Struktur der Daten zu gehen (Jankowicz 2004, S. 94–95). Wesentlich spannender als die Analyse eines Einzelgrids ist jedoch die Analyse einer größeren Zahl von Interviews. Um Daten von vielen Befragten zu sammeln und mehr als ein Grid zu analysieren, stehen zahlreiche Software-AnwendungenFootnote 11 zur Verfügung. Wie in standardisierten Umfragen ist es möglich, die Individualdaten zu aggregieren, und damit werden auch Vergleichbarkeit und ÜbertragbarkeitFootnote 12 der gewonnenen Ergebnisse möglich.

Verschiedene Auswertungsmethoden sind geläufig. Mit Hilfe der Clusteranalyse werden die Elemente und Konstrukte auf der Basis ihrer Ähnlichkeit zueinander in Beziehung gesetzt. Mit der Hauptkomponentenanalyse werden die Zahlen der Matrix entsprechend umgerechnet, sodass man für die Elemente und Konstrukte Koordinaten erhält. Die wechselseitige Bezogenheit der Elemente und Konstrukte können mittels des Biplot-Verfahrens abgebildet werden. Dazu werden die Zusammenhänge zwischen den gebündelten Konstrukten durch die Faktoranalyse ermittelt (Rosenberger und Freitag 2009, S. 485–486). Die qualitativ erhobenen Daten werden für die Analyse standardisiert und wie in der standardisierten Umfrage können die erhobenen Individualdaten auf die Aggregatebene transferiert werden.Footnote 13

Inwiefern Repertory Grid-Daten reliabel und valide sind, wird unter Personal Constructs Psychology-Experten viel diskutiert. Bannister und Fransella (1971), sich auf Kelly (1955) beziehend, beantworten die Frage nach der Reliabilität folgendermaßen: „Kelly is reported as referreing to reliability as ‚a measure of the extent to which a test is intensive to change‘. This is no facetious comment but a logical deduction from his theory which sees man as a form of motion. Our aim should be to understand the meaning of change, not to regard it as an irritating interference with the ‚reliability‘ of our tests by an irresponsible subject – to be looked on as error variance“ (Bannister und Fransella 1971, S. 76). Es gibt aber zahlreiche Repertory Grid-Studien (Bavelas et al. 1976; Gathercole et al. 1970; LeCompte und Goetz 1982), in denen Reliabilität nachgewiesen werden konnte. Einigkeit herrscht hingegen in der Frage der gegebenen Validität von Repertory Grids, wie zahlreiche Studien bestätigen (Fransella und Bannister 1967; Hill 1976; LeComte und Goetz 1982; Leitner 1981; Munby 1982). Interne Validität von Repertory Grid-Daten kann als gesichert gelten, da die erzielten Ergebnisse nicht von Interpretationen abhängig sind. Bezüglich der externen Validität unterscheiden LeCompte und Goetz (1982, S. 34) Generalisierbarkeit, Vergleichbarkeit und Übertragbarkeit. Während bei der Generalisierbarkeit der Ergebnisse durchaus Einschränkungen diskutiert werden, sind Vergleichbarkeit und Übertragbarkeit der Ergebnisse vom Sample auf eine große Gruppe gegeben.

Als ein erstes Beispiel für die Methode mit einer politikwissenschaftlichen Fragestellung soll in den folgenden Kapiteln der Prozess der Datenerhebung, -analyse und -auswertung mit der Repertory Grid-Methode demonstriert werden. Es handelt sich bei dem Datensatz um die Vorstudie eines Projektes, bei der es, neben der Erzielung erster Erkenntnisse zur Wahrnehmung der EU-Legitimität, um die Evaluierung der ausgewählten Elemente sowie die Festlegung des Untersuchungsdesigns geht.

4 Empirische Analyse: Die Messung der Wahrnehmung der EU-Legitimität mit Repertory Grid

4.1 Operationalisierung: Elemente, Triaden, vorgegebene Konstrukte

Die Analyse basiert auf einem Datensatz von N = 26. Es handelt sich bei der Befragung um ein Pilotprojekt, bei dem Studierende interviewt wurden. Befragt wurden Studierende verschiedener StudiengängeFootnote 14 und PromovierendeFootnote 15 im Zeitraum Juni/Juli 2013.Footnote 16 Da es sich bei den Daten um eine studentische Population handelt, können die getroffenen Aussagen auch nur für diesen Ausschnitt der Gesellschaft gelten. Nun kann dieser Gruppe möglicherweise eine bestimmte soziopolitische Orientierung unterstellt werden. Gleichzeitig kann dieser Gruppe jedoch auch, auf Grund ihrer Bildung, Interessen, Informiertheit und internationalen Vernetztheit, eine weit ausgeprägtere europäische Identität als dem Rest der Gesellschaft unterstellt werden, so dass für die Gesellschaft insgesamt eine noch viel distanziertere und ablehnendere Haltung gegenüber europäischen Institutionen zu erwarten ist. Diese These mittels Repertory Grid-Interviews auch anderer Gesellschaftsgruppen zu prüfen, könnte Gegenstand weiterer Forschung sein, die im Sinne von nested-analyses (Lieberman 2005) Einzelaspekte von Large-N Analysen vertiefen könnten. Für das Interview wurden zehn Elemente aus den Bereichen nationale Institutionen, europäische Institutionen und dem idealen Leitbild eines legitimen Entscheidungsträgers definiert, um die normativen Standards und deren Übereinstimmung mit der angenommenen Herrschaftsordnung zu analysieren (Tab. 1).

Tab. 1 Elemente der Untersuchung

Das Interviewdesign wurde triadisch angelegt, das heißt jeweils drei Elemente wurden zum Vergleich nach Gemeinsamkeiten und Unterschieden gegenüber gestellt. Folgende Triaden wurden im Vorfeld für die ersten Interviewdurchgänge pro Befragten festgelegt. 1. Legitimste Entscheidungsträger – Bundesregierung – Europäische Kommission, 2. Legitimste Entscheidungsträger – Bundestag – Europäisches Parlament, 3. Bundesregierung – Europäische Kommission – Expertengremien und 4. Bundesverfassungsgericht – Europäischer Gerichtshof – Europäische Zentralbank. Alle nachfolgenden Elemente-Kombinationen im weiteren Verlauf der Interviews waren zufällige Kombinationen. In den Interviews wurden von den Befragten insgesamt 502 Konstrukte entwickelt, das heißt ein Datensatz mit 251 Fällen mit je zwei Polen liegt der Untersuchung zu Grunde. Das Untersuchungsdesign war gemixt angelegt. Nach jeweils 5–7 offenen Interviewdurchgängen, in denen der jeweils Befragte seine eigenen Konstrukte zur Charakterisierung der Elemente entwickelt hat, wurde der Befragte mit standardisierten Konstrukten konfrontiert, in die alle Elemente des Interviews eingeordnet werden sollten: bürokratisch vs. charismatisch, rechtmäßig vs. willkürlich, gewählt vs. ernannt, Vertrauenswürdigkeit vs. Unvorhersagbarkeit, transparent vs. hinter verschlossenen Türen, effizient vs. langsam, Experte vs. Generalist. Die vorgegebenen Konstrukte basieren auf theoretischen Überlegungen zur Legitimität der EU. Ziel dieses Vorgehens war die Evaluierung des methodischen Designs für Studien mit einer größeren Fallzahl, um möglicherweise den Zeitaufwand und die Komplexität der Befragung zu reduzieren.

Das Alleinstellungsmerkmal der Repertory Grid-Methode liegt zum einen in der vollkommenen Offenheit während der Befragung und gleichzeitig in der Möglichkeit, die erhobenen Daten sowohl mit Hilfe qualitativer als auch quantitativer Auswertungsmethoden zu analysieren. Und Repertory Grid ermöglicht eine Bewertung von der Übereinstimmung zwischen dem Ist- und dem Soll-Zustand durch den Befragten selbst. Tabelle 2 macht transparent, welche Methodik zum Test welcher Hypothese angewandt wurde. Neben der qualitativen Inhaltanalyse sind die Hauptkomponentenanalyse und Faktoranalysen, die Berechnung der euklidischen Distanzen, Clusteranalysen und Korrelationsberechnungen die grundlegenden Analyseverfahren.

Tab. 2 Hypothesen, Operationalisierung und Auswertungsmethoden

4.2 Die Heterogenität des Legitimitätsverständnisses

Im Unterschied zu standardisierten Umfragen ist das individuelle Verständnis der Befragten von den verwendeten Begriffen, erhoben mit Repertory Grid-Interviews, transparent. Damit kann offengelegt werden, wie homogen oder auch heterogen die gleichen Begriffe verstanden und folglich auch zur Beurteilung der Realität verwendet werden. Außerdem kann über die Analyse der erstellten Konstrukte offen gelegt werden, welche Vorstellungen von Legitimität tatsächlich geteilte normative Grundprinzipien sind.

Abbildung 6 verdeutlicht das Antwortverhalten exemplarisch an den beiden Elementen „Legitimster Entscheidungsträger“ und „Expertengremien“. Die Vorstellung der Befragten von Legitimität, dem „Legitimsten Entscheidungsträger“, hat sich als sehr klar und präzise herausgestellt, erkennbar an der starken Polarisierung im Antwortverhalten. Während hingegen andere Elemente, wie zum Beispiel „Expertengremien“ sehr viel diffuser von den Befragten verwendet wurden. Links veranschaulicht die Abbildung die Zuordnung des Elements „Legitimster Entscheidungsträger“ durch alle Befragten für deren individuelle Konstrukte zwischen 0 (das eine) und 100 (das andere). Der U-förmige Verlauf zeigt, dass sich die meisten Befragten in der Zuordnung des „Legitimsten Entscheidungsträger“ eindeutig für das eine oder das andere entscheiden konnten, während die Grafik rechts zur Einordnung der „Expertengremien“ zeigt, dass die Befragten die „Expertengremien“ in der Regel nicht so eindeutig zu dem einen oder anderen Pol ihrer Konstrukte zuordnen konnten, sondern auch von Abstufungen bzw. sowohl als auch Gebrauch gemacht haben. Auffällig hoch ist der mittlere Wert 50 bei der Zuordnung der „Expertengremien“ zwischen den beiden Polen.

Abb. 6
figure 6

Antwortverhalten auf das Element „Legitimster Entscheidungsträger“ (IDEAL) und auf das Element „Expertengremien“ (EG). (Quelle: Eigene Erhebung)

Auch wenn die Vorstellung des einzelnen, was den „legitimsten Entscheidungsträger“ charakterisiert, sehr eindeutig ist, ist wie erwartet (H0) das Verständnis aller Befragten als Gruppe sehr heterogen. Einzig die Eigenschaften „gewählt“ und „unabhängig“ charakterisieren übereinstimmend für beinahe ein Drittel der Befragten den legitimsten Entscheidungsträger und sind damit ein Hinweis auf kollektiv geteilte normative Grundprinzipien, die hinter dem Legitimitätsbegriff aller Befragten stehen. Wenige andere Konstrukte finden darüber hinaus Übereinstimmung im Verständnis der Befragten, was Legitimität ausmacht.

4.3 Die Wahrnehmung der Legitimität nationaler deutscher und europäischer Institutionen im Vergleich

Die Hypothese, dass (H1) sowohl die nationalen als auch die europäischen Institutionen nicht den idealen Vorstellungen eines legitimen Entscheidungsträgers entsprechen, kann für die Befragtengruppe bestätigt werden. Wobei die nationalen Institutionen den Vorstellungen eines legitimen Entscheidungsträgers minimal näher kommen als die europäischen Institutionen. Ebenso kann mit den Daten gezeigt werden, dass die Befragten Expertengremien nicht als legitim wahrnehmen (H2b).

Die euklidischen Distanzen der Elemente, dargestellt im dreidimensionalen Raum (Abb. 7) auf der Basis der Hauptkomponentenanalyse, veranschaulichen über die Nähe und Entfernung der einzelnen Elemente zueinander deren Wahrnehmung im Verständnis der Befragten. Je näher die Elemente beieinander liegen, also je geringer die euklidischen Distanzen zwischen den Elementen sind, desto größer ist ihre Ähnlichkeit bzw. sind ihre Gemeinsamkeiten in der Wahrnehmung der Befragten. Daraus geht hervor, dass die Vorstellung vom „Legitimsten Entscheidungsträger“ mit keinem der anderen Elemente direkte Übereinstimmungen aufweist, also weder (H1) die nationalen noch die europäischen Institutionen oder Expertengremien (H2b) den Idealvorstellungen von Legitimität auch nur annäherungsweise entsprechen. Am weitesten entfernt von den Idealvorstellungen eines legitimen Entscheidungsträgers ist die „Europäische Zentralbank“, dicht gefolgt von den „Expertengremien“ und der „Europäischen Kommission“, den Elementen „Europäischer Gerichtshof“, „Europäisches Parlament“ und „Bundesverfassungsgericht“. Mit Ausnahme des Europäischen Parlaments handelt es sich bei diesen Elementen um Stellvertreter des technokratischen Legitimitätsverständnisses. Noch immer weit entfernt, aber von allen Gruppen am nächsten an die Idealvorstellungen von Legitimität reichen die nationalen Institutionen „Bundesregierung“, „Bundesrat“ und „Bundestag“ heran.

Abb. 7
figure 7

Grid der Elemente und Konstrukte im dreidimensionalen Raum. Anmerkung: In grau hinterlegt befinden sich die individuellen Konstrukte aller Befragten zur Veranschaulichung. (Quelle: Eigene Erhebung, dargestellt mit sci:vesco)

Abbildung 7 und Tab. 3 zeigen diese Befunde einmal im dreidimensionalen Raum (Abb. 7) und einmal als Berechnung der euklidischen Distanzen zwischen den Elementen (Tab. 3). In Abb. 7 erkennt man zudem die Gruppierung der Elemente und sie verdeutlicht über die vom „Legitimsten Entscheidungsträger“ ausgehenden Pfeile die Distanz zwischen den Idealvorstellungen von Legitimität und den einzelnen Gruppen.

Tab. 3 Euklidische Distanzen der Elemente. (Quelle: Eigene Erhebung)

Die euklidischen Distanzen zwischen den Elementen, wie in Abb. 7 optisch dargestellt, sind in Tab. 3 in numerischen Werten abzulesen. Je geringer der numerische Wert zwischen zwei Elementen ist, desto ähnlicher werden sie wahrgenommen, und desto größer er ist, desto unterschiedlicher werden sie wahrgenommen. Die Zeilen eins und zwei zeigen beispielsweise die Unähnlichkeit der Elemente „Expertengremien“ und „Legitimster Entscheidungsträger“ mit jeweils allen anderen Elementen des Interviews. Aus Zeile drei kann die relative Ähnlichkeit der Elemente „Bundesregierung“, „Bundesrat“, „Bundestag“ und „Europäisches Parlament“ abgelesen werden.

Mittels einer Faktorenanalyse kann die im dreidimensionalen Raum sichtbare Gruppenbildung der Elemente deutlich gemacht werden. Die Elemente lassen sich in drei Gruppen gliedern (Tab. 4). Diese Gruppen spiegeln auch die theoretische Debatte um die Legitimitätswahrnehmung der EU wider. Die erste Komponente bildet das Modell der demokratischen Legitimität ab. Diese Form der Legitimität basiert auf den liberal-demokratischen Kriterien, der demokratischen Autorisierung, Verantwortlichkeit und Repräsentativität (Beetham und Lord 1999, S. 22). Unter den europäischen Institutionen entspricht einzig das Europäische Parlament diesen Kriterien der direkten Legitimation (Beetham und Lord 1999, S. 26–27), während alle gewählten nationalen Institutionen (Bundesregierung, Bundesrat und Bundestag) hier laden. Die demokratische Legitimität wird auch von den Befragten als legitim wahrgenommen, da „der legitimste Entscheidungsträger“ selbst auch Teil dieser Gruppe ist.

Tab. 4 Faktorenanalyse zur Gruppenbildung der Elemente. (Quelle: Eigene Erhebung)

Die zweite Gruppe repräsentiert das Modell der technokratischen Legitimität, die in der Literatur (Beetham und Lord 1999, S. 16) dadurch charakterisiert wird, dass der Fokus auf der Regierungsperformanz liegt. Das Gemeinwohl wird, dieser Konzeption von Legitimität folgend, besser in professioneller Hand umgesetzt, die weder subjektiv noch (demokratisch) verzerrt ist. Letzteres zielt v. a. auf den möglichen Einfluss des Wettbewerbs um Wählerstimmen ab. Institutionalisiert ist dieser Typus in unabhängigen, von der Exekutive oder der Legislative eingesetzten Aufsichts- und Regulierungsbehörden, beispielsweise in Form von Expertengremien, Zentralbanken oder Gerichtshöfen (Majone 1996). Auf den Typen der technokratischen Legitimität laden in der vorliegenden Analyse entsprechend der theoretischen Annahmen auch der „Europäische Gerichtshof“, die „Europäische Zentralbank“, die „Europäische Kommission“ und das „Bundesverfassungsgericht“. Die Elemente „Expertengremien“ und „Legitimster Entscheidungsträger“ gehören jedoch der Wahrnehmung der Befragten folgend nicht zu dieser Gruppe. Die Delegation von Regierungsaufgaben an Experten wird nicht als legitimitätsstiftend wahrgenommen.

Der dritte Typ zeigt die Sonderrolle, die auch in den Einstellungen von Bürgern zu Gerichten beobachtet werden konnte. Zürn (2011a, S. 65) verweist darauf, dass in allen Ländern, die durch die European Social Survey 2008 erfasst worden sind, das Vertrauen ins Rechtssystem höher als in die übrigen Institutionen war. Legitimität der Reflexivität, wie dieser Typ in Anlehnung an Rosanvallon (2010) genannt werden soll, wird auch von den Befragten als legitim wahrgenommen. Legitimität entsteht hier möglicherweise aus dem Schutz der Individualrechte durch diese Institutionen (Zürn 2011a) oder weil die Gerichte möglicherweise auch als Korrektiv der Politik wahrgenommen werden. Institutionalisiert ist dieser Typus im Verfassungsgericht, wie sich auch in der Faktorladungen des BVerfG widerspiegelt. Auf die von Zürn (2011a) betonte Sonderrolle der Verfassungsgerichte verweisen auch die QuerladungenFootnote 17 des BVerfG und des legitimsten Entscheidungsträgers. Das BVerfG kommt dem Ideal von Legitimität nahe, obwohl es zur nicht als legitim wahrgenommenen Gruppe des technokratischen Legitimitätsmodells zu zählen ist.

4.4 Die Wahrnehmung der EU-Legitimitätsproblematik der Befragten und der politischen Eliten

Das Modell der demokratischen Legitimität entspricht, wie die Daten gezeigt haben, am stärksten den Idealvorstellungen der Befragten von Legitimität und stellt damit den normativen Standard dar. Die folgenden Konstrukte beschreiben mit hunderprozentiger Übereinstimmung alle Elemente, die auf das Modell der demokratischen Legitimität laden: wählbar, gewählt, nachvollziehbar, rechtmäßig, vertrauenswürdig und bürokratisch (Tab. 5).

Tab. 5 Beschreibung der Elemente: Legitimität der Nähe in hundertprozentiger Übereinstimmung mit den Charakteristika des legitimsten Entscheidungsträgers. (Quelle: Eigene Erhebung)

Hier deutet sich das Spannungsverhältnis zwischen der Befragtenposition und der Elitenposition (Barnickel et al. 2012) zur EU-Legitimationsproblematik bereits an. Verstärkt wird dieses Bild bei der genaueren Analyse der Beschreibung von Legitimität in der Idealvorstellung der befragten Studierenden. Um herauszufinden, wie die Befragten ein bestimmtes Element des Interviews, wie den „Legitimsten Entscheidungsträger“, beschreiben, verdeutlicht das Analysetool „Semantischer Korridor“ diejenigen Konstrukte, die den stärksten Einfluss auf die Position des Elements im dreidimensionalen Raum haben, also in der Zuordnung für die Befragten am ausschlaggebendsten sind. Je besser unterschiedliche Konstrukte ein Element beschreiben, desto enger ist der Winkel zwischen dem Konstrukt und dem dazu in Beziehung stehenden Element. Diesen Zusammenhang macht der semantische Korridor sichtbar. Konstrukte in einem Korridor, der enger als 45 Grad ist, stellen ein kollektives semantisches Cluster dar, um die semantische Achse im Raum zu beschreiben (Elements and Constructs 2013). Nachfolgend wurde der semantische Korridor, wie in Abb. 8 und 9 visualisiert, auf 25 Grad reduziert. Am ausschlaggebendsten für die Idealvorstellung von Legitimität erwiesen sich die Konstrukte partizipativ, glaubwürdig, charismatisch, greifbar, nachvollziehbar, dienstleistungsorientiert, genau, volksnah, gefestigt, vertrauensvoll, direkt, transparent, allumfassend, prüfbar, umsichtig und repräsentativ.

Abb. 8
figure 8

Semantischer Korridor 25° „Legitimster Entscheidungsträger“. (Quelle: Eigene Erhebung, dargestellt mit sci:vesco)

Abb. 9
figure 9

Semantischer Korridor 25° „Expertengremien“. (Quelle: Eigene Erhebung, dargestellt mit sci:vesco)

Während die politischen Eliten davon ausgehen, der von ihnen wahrgenommenen Legitimationsproblematik der EU durch die Abkehr von gewählten Entscheidungsträgern, in der Logik technokratischer Legitimation, begegnen zu können (Barnickel et al. 2012), besteht das Legitimationsdefizit der EU in den Augen der befragten Studierenden in der Notwendigkeit eines Mehr an Partizipation, die direkt ist und repräsentative Entscheidungsträger hervorbringt, welche greifbare, nachvollziehbare und transparente Entscheidungen treffen und allesamt liberal-demokratische Kriterien erfüllen. Nur dadurch entstehen in den Augen der Befragten Glaubwürdigkeit und Vertrauen, als Charakteristika des legitimsten Entscheidungsträgers.

Zwar werden Expertengremien, als Stellvertreter für die Abkehr von gewählten Akteuren, als entscheidungskompetent wahrgenommen. Jedoch ist es ein Irrglaube der politischen Eliten anzunehmen, die Verlagerung auf nicht gewählte Akteure führe gleichzeitig zu einer größeren Anerkennung der so getroffenen Entscheidungen. In deutlichem Gegensatz zu den idealen Vorstellungen von Legitimität sind für die Einordnung der Expertengremien die Konstrukte willkürlich, ernannt, unvorhersagbar, hörig, technokratisch, abstrakt und etwas das hinter verschlossenen Türen stattfindet relevant, wie die Analyse des semantischen Korridors zeigt.

Damit kann aus den Daten, ergänzend zu den eingangs formulierten Hypothesen, zusätzlich die These generiert werden, dass entgegen der Annahme der politischen Eliten anerkennenswerte Entscheidungen nicht durch die Abkehr von gewählten Akteuren entstehen, sondern die Wahl in den Augen der Befragten weiterhin eines der entscheidendsten Kriterien bei der Frage nach Legitimität bleibt.

5 Fazit

Ziel des Artikels ist es, die theoretisch fundierte Erwartung eines Legitimitätsdefizits und Demokratiedefizits der EU in der Wahrnehmung der befragten Studierenden empirisch nachzuweisen und mit der Wahrnehmung der Legitimitätsproblematik der EU der politischen Eliten zu vergleichen. Gleichzeitig hatte der Artikel das Ziel, die Repertory Grid-Methode als Schnittstelle zwischen qualitativer und quantitativer Forschung sowie als Schnittstelle zwischen empirischer Legitimationsforschung als „Messen“ und als „Beurteilen“ zu präsentieren.

Repertory Grid, als Mixed model-Design, greift auf die Vorteile sowohl qualitativer als auch quantitativer Methoden zurück und vermindert in der Kombination beider Ansätze deren jeweiligen Nachteile. Erstens schwächt Repertory Grid die Phänomene der sozialen Erwünschtheit und des Lippenbekenntnisses ab, indem das Interview selbst unmittelbar in den individuellen Wertekontext des Befragten eingebettet ist. Damit werden Einsichten in die Komplexität der individuellen Bewertungssysteme der Befragten möglich. Zweitens wird der Effekt der sprachlichen und kulturellen Äquivalenz gemindert, indem die subjektiven Bewertungen der Befragten auf ihren jeweils eigenen Evaluations- bzw. Ranking-Konstrukten basieren. Dadurch wird es möglich, das unterschiedliche Verständnis der Worte und BegriffeFootnote 18, die während des Interviews verwendet werden, zu verstehen. Drittens können die qualitativen Daten des Repertory Grid-Interviews standardisiert werden, so dass die individuellen Daten aggregiert werden können und damit, bei entsprechend repräsentativer Auswahl, ein Vergleich, zum Beispiel auf Länderebene, möglich wird, ebenso wie eine Übertragbarkeit von der Stichprobe auf eine größere Gruppe. Der hohe Zeit- und Kostenaufwand, verglichen mit standardisierten Umfragen, schränkt jedoch die Umsetzungsmöglichkeiten ein. Denkbar wäre jedoch die Analyse von wenigen besonderen Fällen, z. B. ein Vergleich von typischen Fällen einer Large-N-Analyse und Ausreißern oder einzelnen Befragtengruppen aus einer Large-N-Analyse von besonderer Relevanz in Bezug auf die jeweilige Forschungsfrage, z. B. die politischen Eliten eines oder mehrerer Länder in der Logik eines Nested analysis-Ansatzes (Lieberman 2005). Repertory Grid eröffnet viertens Einsichten in die Bedeutung abstrakter Konzepte, Normen und Werte von Menschen. Wenn wir verstehen, was sich hinter dem Begriff Legitimität verbirgt, können wir nicht nur vielschichtigere Ergebnisse auf die Frage nach der Legitimität der EU erzielen, sondern auch besser zwischen ganz unterschiedlichen Gruppen vergleichen. Und schließlich kann Repertory Grid fünftens zwischen den Analysemodellen der empirischen Legitimitätsforschung als „Messen“ oder als „Beurteilen“ vermitteln. Wenn es bei der empirischen Legitimitätsforschung darum geht, nicht nur die Akzeptanz der politischen Ordnung zu messen, sondern auch darum, inwieweit die Herrschaftspraktiken mit den normativen Grundprinzipien einer Gesellschaft übereinstimmen, und diese Übereinstimmung nicht extern vom Forscher beurteilt wird, sondern vom Befragten selbst, müssen beide Analyseschritte in der Erhebungsmethode miteinander verwoben sein. Repertory Grid misst einerseits die normativen Grundprinzipien der Befragten über die Charakterisierung (Konstrukte), die der Idealvorstellung eines legitimen Entscheidungsträgers zugeschrieben werden. Die Konstrukte sind Ausdruck der normativen Grundprinzipien. Auf der Basis dieser Grundprinzipien drücken die Befragten durch die Anordnung der Institutionen (Elemente) andererseits ihre Zustimmung oder Ablehnung zur Herrschaftspraxis aus (Zuordnung des Elements „Legitimster Entscheidungsträger“) und drücken ebenfalls aus, inwieweit die Herrschaftsordnung/-praxis, verkörpert durch die Institutionen (Elemente), mit ihren normativen Grundprinzipien („Legitimster Entscheidungsträger“) übereinstimmt.

Entgegen der Praxis standardisierter Umfrageforschung von einem homogenen Verständnis des Legitimitätsbegriffs auszugehen, hat sich mittels Repertory Grid-Interviews bereits in einem sehr kleinen und in sich homogenen Sample nachweisen lassen, dass der Legitimitätsbegriff sehr heterogen ist. Die geäußerte Vermutung, in der normativen Ausrichtung und homogenen Verwendung von Begriffen in standardisierten Umfragen könnte die Ursache zu den dargestellten Widersprüchen zwischen empirischen Ergebnissen und theoretischer Forschung zur EU-Legitimität liegen, hat sich verstärkt. Die einzigen kollektiv geteilten normativen Grundprinzipien, die für zumindest 1/3 der Befragten hinter dem Legitimitätsbegriff stehen, sind die Kriterien „gewählt“ und „unabhängig“.

So hat sich mit den gewonnenen Daten, auch im Gegensatz zu den bereits existierenden Umfragedaten, nachweisen lassen, dass zumindest aus der Perspektive der hier Befragten ein Legitimitätsproblem der EU wahrgenommen wird. Sowohl die nationalen Institutionen als auch die europäischen Institutionen entsprechen nicht den Idealvorstellungen der Befragten von einem legitimen Entscheidungsträger. Die wahrgenommene Herrschaftsordnung der nationalen und europäischen Institutionen und die normativen Grundprinzipien der Befragten stimmen also nicht überein. Diese fehlende Übereinstimmung kann als ablehnende Haltung der Befragten gegenüber einer Politik des Delegierens interpretiert werden. Gleichzeit kommen die nationalen Institutionen den Vorstellungen von Legitimität näher als die europäischen Institutionen, so dass von einer spezifischen Delegitimationsproblematik der EU ausgegangen werden kann. Am weitesten entfernt von den Legitimitätsvorstellungen der Befragten sind die Expertengremien als ernannte, nicht gewählte Akteure.Footnote 19 Die Abkehr von gewählten Akteuren steht im Gegensatz dazu in der Referenzstudie (Barnickel et al. 2012) als ideale Strategie der politischen Eliten zur Herstellung anerkennenswürdiger Entscheidungen. Ebenso weit von den Legitimitätsvorstellungen der Befragten entfernt ist die Europäische Zentralbank, die von den politischen Eliten, im Gegensatz zu den Befragten, wegen ihrer Unabhängigkeit von der Politik geschätzt wird (Barnickel et al. 2012, S. 214). Damit ergibt sich ein Spannungsverhältnis in der Wahrnehmung der Legitimitätsproblematik zwischen politischen Akteuren und der Befragtenperspektive. Im Gegensatz zur Annahme der politischen Eliten haben die analysierten Daten gezeigt, dass aus der Befragtenperspektive die Wahl weiterhin ein entscheidendes Kriterium bei der Frage nach Legitimität bleibt. Kurzum gibt es im Vergleich der beiden Positionen Hinweise auf einen Gap zwischen einem eher technokratischen Legitimitätsmodell auf Seiten der politischen Eliten und einem demokratischen Legitimationsmodell auf Seiten der befragten Studierenden.

Wenn theoretisch davon ausgegangen wird, die Ergebnisse wären in ihrer Tendenz auf ein repräsentatives Sample übertragbar, welche Konsequenzen hätte dieser Gap im Legitimitätsverständnis von Eliten und Befragten vor dem Hintergrund der Bedeutung der Kongruenz der politischen Kultur der Bürger und der Eliten für die Systemstabilität? Nach Easton (1965) kann Systemstabilität erzeugt werden, indem die diffuse Unterstützung für die politische Gemeinschaft oder Regime erzeugt wird, insbesondere durch die Herstellung von Identifikation der Bürger mit der politischen Gemeinschaft bzw. dem Regime.

Kann es eine Identifikation mit der politischen Gemeinschaft oder dem Regime geben, wenn die Einstellung und Wahrnehmung zur Herstellung von Legitimität zwischen Bürgern (Wählern) und politischer Elite (Politiker) so differiert, wenn die einen ihre Entscheidungen mehr und mehr in die Hände von Expertengremien und anderen nicht gewählten Institutionen geben, während die anderen sich transparente Entscheidungen von gewählten und unabhängigen Akteuren wünschen?

Eine positive Responsivitätswahrnehmung, wie Geißel (2004, S. 1240) sie in Anlehnung an Easton (1965) formuliert, ist bei der gezeigten Inkongruenz der politischen Kultur der Befragten und Eliten jedenfalls fraglich und die politische Unterstützung und vielleicht die Stabilität in Gefahr. Möglicherweise verstärkt dieser Mechanismus auch das Demokratiedefizit der EU. Die politischen Akteure sehen angesichts der Komplexität der Entscheidungen und der mangelhaften Institutionalisierung der EU scheinbar keinen anderen Weg als die Abkehr von (langsamen) demokratischen Institutionen, während die Befragten Legitimität nur durch Transparenz und direkte Partizipation gewährleistet sehen.

Die These vom Zusammenhang von Demokratiedefizit und Legitimationsproblematik der EU (Blondel et al. 1998; Katz und Weßels 1999; Kielmannsegg 1996; Scharpf 1999; Thomassen und Schmidt 1999), die Fuchs (2003) nicht hat empirisch nachweisen können, sollte auf Grund der Erkenntnisse der erhobenen Repertory Grid-Daten empirisch weiter verfolgt werden, da bereits in diesem kleinen Sample Hinweise auf einen solchen Zusammenhang deutlich geworden sind. Die Bedeutung von systemischer Performanz für die Legitimität der EU, im Sinne der Verwirklichung ökonomischer Interessen und der Leistungsfähigkeit der EU, wie Fuchs (2003) sie gefunden hat, spiegelt die vorliegenden Erhebung nicht wider. Auch dieser Punkt sollte mit einem größeren Sample geprüft werden.

Die Ergebnisse sind für die vorgestellte Fallstudie eindeutig, auf Grund der geringen Fallzahl sind sie jedoch nicht verallgemeinerbar. Die These einer noch viel distanzierteren und ablehnenderen Haltung gegenüber europäischen Institutionen der Gesamtgesellschaft, als für die gebildete, politisch interessierte und informierte, international vernetzte Gruppe der Studierenden gezeigt werden konnte, mittels Repertory Grid-Interviews auch anderer Gesellschaftsgruppen in einem repräsentativen Sample zu prüfen, könnte Gegenstand weiterer Forschung sein, die im Sinne des Nested analyses-Ansatzes (Lieberman 2005) Einzelaspekte von Large-N-Analysen vertiefen könnte. Die Thesen, die auf der Basis der vorliegenden Daten entwickelt wurden bzw. auf die es erste Hinweise gibt, weisen insgesamt jedoch zukünftiger Forschungsarbeit die Richtung.

Die anhaltende Bedeutung von Wahlen für die Herstellung von Legitimität, auf die es in diesem Beitrag Hinweise gibt, dürfte für die Wahlen zum Europaparlament eine gute Nachricht sein, ebenso, dass das Europäische Parlament unter den europäischen Institutionen den Idealvorstellungen von Legitimität am nächsten kommt. Dennoch ist die Wahlbeteiligung an Europawahlen kontinuierlich rückläufig. Sie lag bei den letzten Wahlen im Jahr 2009 nur noch bei 43 % (Europäisches Parlament o.J.). Das Desinteresse an den Europawahlen ist m. E. jedoch nicht ein Zeichen für die Ablehnung europäischer Institutionen, sondern einer Politikverdrossenheit, die auf dem Demokratiedefizit der EU gründet. Schmitt und van der Eijk (2003) führen die sinkende Wahlbeteiligung bei den Wahlen zum Europäischen Parlament darauf zurück, dass selbst diejenigen, die sich in der Vergangenheit regelmäßig an Wahlen zum Europäischen Parlament beteiligt haben, den Wahlen fern bleiben, da sie diese als politisch „folgenlos“ einstufen (Schmitt und van der Eijk 2003). Denn auch wenn, wie in Europa im Jahr 2014 Wahlen abgehalten werden, scheint es, wie Crouch (2008) pessimistisch urteilt, dass die reale Politik im Schatten dieser Inszenierung „hinter verschlossenen Türen gemacht“ wird (Crouch 2008, S. 10).