1 Einleitung

Wettbewerb und Konkurrenz hatten – neben gemeinschaftlicher Erkenntnisproduktion – schon immer einen Platz in der Wissenschaft: Wissenschaftler und Forschungsgruppen konkurrieren um schnellere Entdeckungen, umfassender formulierte Gesetze und robustere Theorien. Und Gratifikationen im System Wissenschaft – wie Projekte, Preise oder Beförderungen – werden oftmals kompetitiv vergeben. Lange Zeit fand dieser Wettbewerb fast ausnahmslos wissenschaftsintern statt und wurde üblicherweise von der Scientific Community, also von Peers entschieden.

Dies hat sich in den vergangenen Jahren und Jahrzehnten verändert, so dass Friedrichsmeier und Fürst (2012, S. 46–47) von einer „zweifachen Ausweitung des Wettbewerbs“ sprechen: Erstens sind im Zuge einer umfassenden „Vergesellschaftung“ der Wissenschaft (Weingart 2001, 2003)Footnote 1 nun auch wissenschaftliche Institutionen verstärkt in den Wettbewerb getreten, allen voran – im Zuge der Hochschulreformen der vergangenen 20 Jahre – die Universitäten. Zweitens findet dieser universitäre Wettstreit nicht mehr nur vor einem wissenschaftsinternen Publikum aus Peers statt, sondern vor den Augen der gesellschaftlichen Öffentlichkeit: Universitäten sind in einen Wettbewerb um öffentliche Sichtbarkeit und ein möglichst positives Außenbild getreten (vgl. Friedrichsmeier und Fürst 2012; Hazelkorn 2008; Marcinkowski et al. 2013).

Dabei spielt die Berichterstattung der Massenmedien – des „Masterforums“ (Ferree et al. 2002, S. 9) gesellschaftlicher Öffentlichkeit – eine besondere Rolle. Sie vermittelt Akteuren aus der Umwelt des Wissenschaftssystems, etwa Entscheidungsträgern aus Politik und Wirtschaft, aber auch Studieninteressenten und anderen, potenziell wirkmächtige Fremdbeschreibungen der Wissenschaft und ihrer Institutionen (vgl. Rödder 2009; Scheu 2015; Weingart 2004).

Allerdings handelt es sich bei Universitäten um komplexe und wandelbare Institutionen, die einer solchen Fremdbeschreibung nicht ohne Weiteres zugänglich sind. Welche Universitäten exzellent oder ‚nur‘ gut sind und in welchen Fachbereichen sie zur nationalen, kontinentalen oder globalen Spitze gehören, ist nicht einfach zu ermitteln. Denn oftmals fehlt es an klaren, disziplinenübergreifend akzeptierten Qualitätskriterien und bestehen unterschiedliche Ansichten über deren Gewichtung und Operationalisierung (vgl. Chapleo 2010; Endruweit 2011; Erhardt 2011; Sigrun 2011).

Universitäts- und Hochschulrankings, die sich in den vergangenen Jahren etabliert und in Zahl und Bedeutsamkeit beträchtlich zugenommen haben, bieten hierfür eine – vermeintlich – einfache Lösung an: Sie reduzieren die Komplexität des Gegenstandes auf wenige Maßzahlen und leicht verständliche Ranglisten (vgl. Shin und Toutkoushian 2011, S. 1–4) und sind so scheinbar in der Lage, die Qualität der komplexen Institution Universität vergleichend zu beschreiben. Auch wenn die teils schwerwiegenden methodischen Probleme dieser Rankings wissenschaftlich mehrfach und überzeugend dokumentiert worden sind (vgl. z. B. Hazelkorn 2011), so ist doch anzunehmen, dass sie angesichts ihrer Klarheit und Simplizität Komplexitätsreduktionen darstellen, die als wirksame Orientierungshilfen und Berichterstattungsgegenstände für Massenmedien fungieren.

Es ist daher anzunehmen, dass Universitätsrankings einen Effekt auf die Medienberichterstattung über Universitäten haben. Ziel dieses Beitrages ist es, die Existenz dieses Effektes empirisch zu überprüfen, und dies anhand der den Universitäten zugeschriebenen Reputation, die eine zentrale Zielgröße des öffentlichen Wettbewerbs darstellt (vgl. van Vught 2008; Weingart 2005, S. 168–188).

Gefragt wird, ob und inwieweit die Veröffentlichungen des Shanghai-Rankings – eines der wichtigsten globalen Universitätsrankings – einen Einfluss auf die medial dargestellte Reputation ausgewählter, erfolgreich platzierter deutscher Universitäten in neun Leit-Printmedien haben.

Dabei werden sowohl Artikel einbezogen, in denen ein Bezug zum Shanghai-Ranking explizit hergestellt wird, als auch Artikel, in denen den entsprechenden Universitäten Reputation zu- oder abgesprochen wird, dies aber zu anderen Themen und ohne Bezug zum Ranking geschieht. Konkret untersuchen wir, (1) ob sich die medial dargestellte Reputation der Universitäten nach der Veröffentlichung des Shanghai-Rankings im Vergleich zum Zeitraum davor verbessert; (2) ob dieser Effekt bei besser rangierten Universitäten größer ausfällt als bei anderen; (3) ob dieser reputationsspezifische Ranking-Effekt über einen Zeitraum von zehn Jahren zunimmt.

2 Konzeptioneller Rahmen

Wissenschaft hat sich in den vergangenen Jahren nach Ansicht vieler Autoren „vergesellschaftet“ (Weingart 2001, 2003; ähnlich u. a. Etzkowitz und Leydesdorff 1996; Gibbons et al. 1994; Neidhardt 1994; Nowotny et al. 2001). Das Wissenschaftssystem werde nach einer längeren Phase der Autonomie (vgl. Stichweh 1988) nun wieder enger an die Gesellschaft gebunden und insbesondere politischen und ökonomischen Kriterien und Anforderungen unterworfen. Dies führe dazu, dass sich wissenschaftliche Akteure, Disziplinen und Institutionen in zunehmendem Maße gesellschaftlich legitimieren müssen (vgl. Weingart 2005; Bonfadelli 2006; Dahinden 2004) und dass diese Legitimationsversuche stärker als zuvor auf die Wissenschaft und ihre Institutionen zurückwirkten. So bestimmten sie etwa zunehmend über den Zufluss finanzieller Mittel mit, beeinflussten die Rekrutierung von Studierenden, hälfen bei der Anwerbung wissenschaftlichen Personals und sicherten oder gefährdeten damit mittel- und längerfristig Qualität und Fortbestand wissenschaftlicher Institutionen (vgl. z. B. von Aretin 2012, S. 231; Bonfadelli 2006, S. 199–202; Dernbach et al. 2012, S. 3–11; Weingart 2004, S. 15–20).

2.1 Die Rolle von Universitätsrankings

Für die Universitäten – die wichtigsten wissenschaftlichen Institutionen – hat dies dazu geführt, dass sie als Gesamtorganisationen in einen Wettbewerb um öffentliche Sichtbarkeit und institutionelle Reputation gerieten (vgl. Eisenegger und Imhof 2008; Friedrichsmeier und Fürst 2012; Hazelkorn 2008; Marcinkowski et al. 2013). Sie werden in Zeiten knapper öffentlicher Finanzen zunehmend von wissenschaftsexternen Akteuren beobachtet und sind daran interessiert, ihre Außenwahrnehmung zu optimieren und ihre gesellschaftliche Reputation zu erhöhen (vgl. Bauer und Gregory 2007; Göpfert 2007; sowie empirisch für Deutschland Scheu 2015).

Dabei spielen Öffentlichkeit und vor allem Massenmedien eine bedeutsame Rolle. Denn gesellschaftliche Sichtbarkeit und positive Reputation werden in Mediengesellschaften maßgeblich über massenmediale Kommunikation erreicht (vgl. Peters et al. 2009, S. 10–37), weil sich relevante Anspruchs- und Bezugsgruppen wenigstens zum Teil über massenmediale Kanäle informieren (vgl. Blöbaum et al. 2013; Scheu 2015) und weil gerade Hochschulen „die unübersichtliche Anzahl ihrer potenziellen Anspruchsgruppen im Wesentlichen nur über die Massenmedien erreichen“ (Friedrichsmeier und Fürst 2012, S. 49; vgl. Weingart 2005, S. 168–172).

Allerdings ist die massenmediale Darstellung und Bewertung wissenschaftlicher Institutionen nicht einfach. Denn relevante Bewertungskriterien und ihre Geltungsbereiche innerhalb der komplexen universitären Organisationsstrukturen sind oftmals nicht klar definiert. Was eine ‚gute‘ oder ‚exzellente‘ Universität ist, ist nicht einfach zu bestimmen, weil sich diese Qualitätskriterien auf unterschiedliche Aspekte wissenschaftlicher Arbeit wie Lehre oder Forschung beziehen können. Auch lassen sich die Ergebnisse der Arbeit in Forschung und Lehre mit unterschiedlichen Indikatoren von der Zahl der Absolventen über deren berufliche Erfolge bis hin zur Zahl bzw. der Zitationshäufigkeit von Publikationen oder der Menge eingeworbener Drittmittel messen (vgl. Hazelkorn 2011; Hornbostel 2007). Zudem variieren diese Kriterien von Fach zu Fach – während etwa in vielen Naturwissenschaften die Gültigkeit etablierter Zitationsmaße wie des Hirsch-Indexes als Qualitätskriterien weitgehend akzeptiert ist, ist dies in den Sozialwissenschaften weniger und in den Geisteswissenschaften oft nicht der Fall (vgl. Rauchfleisch 2015), und unterschiedlich ausgerichtete Universitäten lassen sich vor diesem Hintergrund nicht ohne Weiteres miteinander vergleichen.

Aus diesen und weiteren Gründen ist es nicht einfach, die Qualität ganzer Universitäten zu bestimmen und zu anderen Hochschulen in Beziehung zu setzen. Universitäts- bzw. Hochschulrankings bieten allerdings genau dies an: Sie tragen – je nach konkretem Ranking in unterschiedlichen Kombinationen – „Reputationsurteile, Befragungsergebnisse von Studierenden, [Informationen über] die Studiendauer, Noten, über Forschungspreise, bibliometrische Befunde, Patentierungsaktivitäten, Drittmitteleinwerbungen, amtliche Daten oder auch anderweitig erstellte Evaluationsergebnisse“ (Hornbostel 2007, S. 8) zusammen, verrechnen diese zu Indizes und machen so vermeintlich einfache und scheinbar objektivierte Vergleiche ganzer Universitäten möglich. Rankings reduzieren also – wenngleich nicht zwangsläufig in sachgerechter Form – Komplexität und stellen dem interessierten Publikum diese Komplexitätsreduktionen zur Information und Orientierung zur Verfügung. Das wiederum kann erhebliche Folgen haben: Es ist anzunehmen, dass Rankings „gleichzeitig das Selbstverständnis der Hochschulen sowie die von außen an die Hochschulen gerichteten Erwartungen“ (Friedrichsmeier und Fürst 2012, S. 48) verändern, weil sie eine „Ordnungs- und Wissensstruktur [zur Verfügung stellen], die je nach strategischer Intervention und Lesart Begründungs- oder Kritikzusammenhänge liefern kann“ (Adelmann 2011, S. 181).

2.2 Effekte von Rankings auf massenmediale Reputationsdarstellungen?

Die spezifischen Komplexitätsreduktionen, die Universitätsrankings produzieren, dürften für Massenmedien besonders interessant sein. Erstens bedienen sie relevante Nachrichtenfaktoren, die die Auswahl und prominente Darstellung von Themen begünstigen: Sie stellen vermeintlich klare, eindeutige Aussagen über die Qualität von Universitäten her, die für das Publikum leicht interpretierbar sind (vgl. Badenschier und Wormer 2011). Damit ermöglichen sie eine wettbewerbs- bzw. „horse race“-orientierte Berichterstattung, die sich sowohl in der Wissenschaftsberichterstattung (vgl. Rödder 2005; Schäfer 2007, 2009) als auch in der politischen Kommunikation (überblicksweise Schulz 2011, S. 241–243) als höchst anschlussfähig für Massenmedien erwiesen haben. Zweitens erbringen sie diese Komplexitätsreduktion in einem Feld, das sich aus den bereits geschilderten Gründen anderweitig nur schlecht strukturieren lässt, weil die Qualität komplexer Institutionen wie Universitäten nur schwer zu erfassen ist. Drittens schließlich dürfte das komplexitätsreduzierende Kommunikationsangebot der Rankings auch deshalb medial anschlussfähig sein, weil es momentan, und möglicherweise zunehmend, auf einen geschwächten Journalismus bzw. Wissenschaftsjournalismus trifft (vgl. Schäfer et al. 2015). Verschiedene Autoren haben darauf hingewiesen, dass angesichts der gegenwärtigen Krise traditioneller Massenmedien gerade in spezialisierten Ressorts wie dem Wissenschaftsressort gekürzt werde (vgl. Göpfert 2007, S. 218–219). Im Zuge eines allgemeinen Trends zu „cost-cutting, outsourcing, short-term contracting of freelancers, and ever-quicker production cycles“ (Bauer und Gregory 2007, S. 46) habe es Wissenschaftsjournalismus zunehmend schwer, externen Kommunikationsangeboten die notwendige Sorgfalt in Auswahl, Berichterstattung und Kritik entgegenzubringen (vgl. Bauer und Gregory 2007; Göpfert 2007; Ruß-Mohl 1999).

Es ist daher anzunehmen, dass Rankings die mediale Darstellung von Universitäten beeinflussen – und wir wollen in dieser Studie untersuchen, ob sich ein solcher Einfluss empirisch zeigen lässt. Konkret analysieren wir, ob sich Ranking-Effekte auf die massenmediale Darstellung der Reputation von Universitäten zeigen lassen. Denn Reputation gilt als zentrale Zielgröße universitären Handelns – „the behaviour of higher education institutions is triggered by competition for reputation“ (van Vught 2008, S. 151; vgl. Hazelkorn 2008) – und auch für wissenschaftliche Institutionen als wünschenswertes Endprodukt öffentlicher Kommunikation (z. B. Weingart 2005, S. 168–188).

Reputation verstehen wir mit Eisenegger und Imhof „als eine kommunikativ vermittelte Form der Anerkennung oder Geringschätzung[,] die eine Person, Organisation oder Institution langfristig und überindividuell bei relevanten Bezugsgruppen geniesst“ (vgl. Eisenegger und Imhof 2009, S. 244). Diese kann auf einer kognitiven Einschätzung der Leistungsfähigkeit eines Objektes – also etwa einer Universität – beruhen, aber auch auf einer affektiven Haltung, mithin auf Sympathie oder Antipathie (Eisenegger und Imhof 2009, S. 243–245). Reputation wird Objekten zugeschrieben und führt dazu, dass diese Objekte stärker wahrgenommen, positiv bewertet und als legitim angesehen werden und auf diese Weise ihre Wettbewerbschancen steigern (vgl. Eisenegger 2005, S. 25–37; Eisenegger und Imhof 2009, S. 253). Entscheidungen zugunsten der entsprechenden Universitäten – etwa von Studierenden und Geldgebern – liegen, ceteris paribus, näher als Entscheidungen zugunsten weniger reputierter Universitäten. Umgekehrt werden Reputationsobjekte mit schlechten Werten häufiger skandalisiert und sanktioniert, ihre Glaubwürdigkeit wird angezweifelt (vgl. Eisenegger 2005, S. 34–37), und sie werden strukturell delegitimiert (vgl. Eisenegger und Imhof 2009, S. 253).

Uns interessiert dabei die so genannte Außenreputation: Im Gegensatz zur „Binnenreputation“, die entstehen kann, wenn sich Akteure oder Institutionen (etwa durch Öffentlichkeitsarbeit) Reputation selbst zuschreiben, handelt es sich bei „Außenkommunikation“ um die Form der „Anerkennung, die einem Reputationsobjekt von Dritten […] zugewiesen wird“ (Eisenegger 2005, S. 43). Dies geschieht – gerade im Fall von Institutionen wie Universitäten – maßgeblich in der Öffentlichkeit und insbesondere in den Massenmedien (vgl. Eisenegger 2005, S. 43–48). In ihnen vor allem wird Akteuren und Institutionen Reputation extern zugeschrieben oder auch entzogen (vgl. Eisenegger 2005, S. 45–93; 2004, S. 277).

2.3 Forschungsfrage und Hypothesen

Vor diesem Hintergrund ist denkbar, dass die spezifischen Komplexitätsreduktionen, die Universitätsrankings anbieten, Einfluss darauf haben, ob und in welchem Maße Massenmedien Universitäten Außenreputation zuschreiben – dass Massenmedien also Rankings in medienvermittelte Außenreputation transformieren (vgl. Eisenegger 2005, S. 45–68; Eisenegger und Imhof 2008, S. 79). Daher fragen wir, ob die Publikation von Universitätsrankings einen Einfluss auf die massenmediale Reputationsdarstellung deutscher Universitäten hat.

Bei der Beantwortung dieser Frage konzentrieren wir uns auf nur ein Universitätsranking: das „Academic Ranking of World Universities“ der Shanghai Jiao Tong Universität, das alljährlich eine Rangliste der 500 vermeintlich besten Universitäten der Welt vorlegt. Wir nehmen diese Einschränkung vor, obwohl die Zahl und Bedeutung von Universitäts-Rankings – trotz vielfach dokumentierter ProblemeFootnote 2 bei der Auswahl, Operationalisierung und Verrechnung der erfassten Indikatoren – stark zugenommen hat (vgl. Hazelkorn 2011; Shin und Toutkoushian 2011; van Vught et al. 2012): Neben nationalen Rankings wie den US-amerikanischen Ranglisten des Forbes College Report oder den auf einzelne Disziplinen bezogenen Bewertungen des deutschen „Centrums für Hochschulentwicklung“ (CHE) liegen mittlerweile eine Reihe internationaler Universitätsrankings vor. Die bekanntesten sind das sogenannte Shanghai-Ranking (das es seit 2003 gibt) sowie das Times-Higher-Education-Ranking (seit 1971). Weitere internationale Rankings bieten Quacquarelli Symonds (seit 2009) gemeinsam mit dem „US News & World Report“ sowie die Leiden University mit dem Leiden-Ranking (seit 2008) an (vgl. Federkeil et al. 2012).

Unter diesen sind globale Universitätsrankings und insbesondere das „Shanghai“-Ranking für unsere Analyse allerdings besonders geeignet. Erstens legen globale Rankings (mit Ausnahme des Leiden-Rankings) klare Ranglisten ganzer Universitäten vor, während bspw. das deutsche CHE-Ranking die Qualität von Universitäten nur nach Disziplinen getrennt und dort jeweils aggregiert in Ranggruppen (mit roten, gelben und grünen Ampelsignalen) ausweist. Zweitens haben sich den globalen Rankings kaum Universitäten oder Disziplinen entzogen, wie es etwa beim CHE-Ranking der Fall war, an dem sich unter anderem die Universitäten Hamburg und Leipzig sowie die Fächer Politikwissenschaft, Soziologie, Kommunikationswissenschaft und andere dauerhaft oder zeitweise nicht mehr beteiligt haben (vgl. Forschung und Lehre 2012). Unter den globalen Rankings wiederum ist das „Shanghai“-RankingFootnote 3 am besten geeignet, weil es sich – gemeinsam mit dem Ranking von Times Higher Education – um eines der öffentlich meistzitierten Rankings handelt (vgl. Jeremic et al. 2011) und entsprechend von Hochschulpolitikern weltweit zur Kenntnis genommen wird (vgl. Docampo und Cram 2014, S. 1347–1354; Docampo 2011). Zudem liegt das Shanghai-Ranking bereits seit 2003 in weitgehend unveränderter Form vor und ist damit für eine Längsschnittanalyse geeignet, während das THE-Ranking von 2004 bis 2009 zusammen mit Quacquarelli Symonds (QS) erhoben und veröffentlicht wurde, beide Partner seitdem aber getrennt voneinander Ranglisten veröffentlichen und so eine Vergleichbarkeit über die Zeit nicht gewährleistet wäre.

Aus diesen Gründen bietet sich das Shanghai-Ranking mit seiner Bewertung der (vermeintlich) 500 weltbesten Universitäten für unsere Analyse an (was, wohlgemerkt, nicht heisst, dass es sich um ein besseres Ranking handelt als andere) und wird im Folgenden im Mittelpunkt stehen. Untersucht wird, ob und inwieweit die Veröffentlichung der Ranking-Ergebnisse einen Effekt auf die medial dargestellte Reputation der unter den Top 500 gelisteten Universitäten hat. Dabei gehen wir drei Hypothesen nach:

Unsere erste Hypothese gilt der grundsätzlichen Existenz eines Ranking-Effekts auf die Medienberichterstattung. Da Rankings komplexitätsreduzierend wissenschaftliche Qualität abbilden und dies für die Medien vermutlich eine attraktive Simplifizierung darstellt, nehmen wir an, dass diese Simplifizierung von Journalisten aufgenommen und in medienvermittelte Außenreputation transformiert wird:

H1

Die medial dargestellte Reputation von ins Shanghai-Ranking aufgenommenen Universitäten ist nach der Veröffentlichung der Ranking-Ergebnisse positiver als zuvor.

Mit der zweiten Hypothese prüfen wir, ob innerhalb der Top 500 besser rangierte Universitäten stärker von einem Ranking-Effekt profitieren als Universitäten, die weniger gut platziert sind. Denn schließlich signalisiert die Ranking-Position die vermeintliche Qualität einer Universität, und es ist anzunehmen, dass neben der bloßen Tatsache einer Aufnahme ins Shanghai-Ranking auch die Rangposition einen Einfluss auf die Mediendarstellung hat. Wir nehmen an:

H2

Die medienvermittelten Reputationswerte fallen bei höher (lies: in den Top-100) platzierten Universitäten positiver aus als bei niedriger platzierten Universitäten.

Abschließend soll die Entwicklung des Ranking-Effektes über den gesamten Untersuchungszeitraum hinweg überprüft werden. In der Literatur ist mehrfach konstatiert worden, dass die Außenbeobachtung von Universitäten und Wissenschaft in den letzten Jahren zugenommen habe (vgl. z. B. Hazelkorn 2011; Hornbostel 2007; Weingart 2001, 2003). Zugleich hat sich die Ressourcenlage des (Wissenschafts-)Journalismus verschlechtert, so dass umfassende Recherchen zu wissenschaftlichen bzw. wissenschaftspolitischen Themen weniger oft geleistet werden und öfter externe Kommunikationsangebote übernommen werden (z. B. Bauer und Gregory 2007; Göpfert 2007). Daher ist zu vermuten, dass Ranking-Ergebnisse im Zeitverlauf öfter in positive mediale Reputationsdarstellungen überführt werden. Entsprechend nehmen wir an:

H3

Der Ranking-Effekt hat über die vergangenen zehn Jahre hinweg zugenommen.

3 Daten und Methoden

3.1 Forschungsdesign

Wir untersuchen, in welchem Maße deutsche Leit-Printmedien ausgewählten Universitäten jeweils vor und nach der Veröffentlichung der Ergebnisse des Shanghai-Rankings Reputation zuschreiben. Um mögliche zeitliche Veränderungen erfassen zu können, beziehen wir die Veröffentlichungen des Rankings für die zehnjährige Periode von 2004 bis 2013 ein. In jedem dieser Jahre wurden innerhalb eines viermonatigen ZeitraumsFootnote 4 – zwei Monate vor der Veröffentlichung des Rankings, zwei Monate danach – alle Artikel erfasst, in denen eine der ausgewählten Universitäten vorkam. Anschließend haben wir die massenmedial dargestellte Reputation dieser Universitäten in den Artikeln inhaltsanalytisch codiert und potenzielle Ranking-Effekte mit Vorher-nachher-Vergleichen herausgearbeitet.

3.2 Stichprobe

Gegenstand der Analyse waren deutsche Leit-Printmedien – überregionale Tageszeitungen, Wochenmagazine und eine Wochenzeitung. Der Schwerpunkt lag auf Printmedien, weil deren Berichterstattung über den gesamten Analysezeitraum zugänglich war und eine Längschnittstudie ermöglichte. Leit-Printmedien wurden ausgewählt, weil ihnen „gesellschaftlich eine Art Leitfunktion“ (Wilke 1999, S. 302) zukommt, die in ihrer Reichweite, Reputation oder journalistischen Qualität begründet sein kann und dazu führt, dass sie nicht nur vergleichsweise hohe Auflagen haben, sondern auch von Eliten, Journalisten und Experten oft rezipiert und von anderen Medien häufig zitiert werden (vgl. Weischenberg et al. 2006, S. 359; Wilke 2009, S. 33–42). Konkret fiel die Wahl auf die sechs Tageszeitungen Frankfurter Allgemeine Zeitung, Süddeutsche Zeitung, tageszeitung, Die Welt, Frankfurter Rundschau und Handelsblatt sowie die drei wöchentlich erscheinenden Publikationen Die Zeit, Der Spiegel und Focus.Footnote 5

Innerhalb dieser Medien wurde die Berichterstattung über insgesamt 13 deutsche Universitäten untersucht, jeweils rund um die Veröffentlichungen der Ergebnisse des Shanghai-Rankings in den Jahren 2004 bis 2013. Für jedes Jahr erfassten wir die besten zehn deutschen Universitäten – und da es bei diesen einige, wenngleich wenige Veränderungen im Zeitverlauf gab, bestand das finale Sample aus 13 Universitäten, die im Untersuchungszeitraum zwischen den Plätzen 45 und 200 rangierten. Über die gesamten zehn Jahre hinweg gehörten die Technische Universität München, die Ludwig-Maximilians-Universität München, die Ruprecht-Karls-Universität Heidelberg, die Georg-August-Universität Göttingen, die Albert-Ludwigs-Universität Freiburg, die Eberhard Karls Universität Tübingen und die Johann Wolfgang Goethe-Universität Frankfurt/Main zu den besten zehn deutschen Universitäten im Shanghai-Ranking. Im Gegensatz dazu waren die Humboldt-Universität Berlin (2004), die Rheinische Friedrich-Wilhelms-Universität Bonn (2004–2012), die Universität Hamburg (2004–2007), die Westfälische Wilhelms-Universität Münster (2005–2013), die Johannes Gutenberg-Universität Mainz (2008, 2009, 2012 und 2013) und die Julius-Maximilians-Universität Würzburg (2010 und 2011) lediglich in einzelnen Jahren unter den besten zehn deutschen Universitäten vertreten.

Alle Artikel der ausgewählten Medien über diese genannten Universitäten wurden über eine Schlagwortsuche in der Mediendatenbank „Factiva“ (https://global.factiva.com) erhoben – innerhalb jedes Jahres jeweils für einen Zeitraum von zwei Monaten vor und nach der Veröffentlichung des Shanghai-Rankings. Zugriffskriterium war, dass mindestens eine der besten zehn deutschen Universitäten des entsprechenden Jahres im Artikel erwähnt werden musste. Als Erwähnung galt die Nennung des vollständigen Namens der Universität oder eines gängigen Kürzels (z. B. „LMU München“). Zudem musste der Artikel gehaltvolle, reputationsrelevante Informationen zur jeweiligen Universität liefern (für Beispiele vgl. Fußnote 10). Hierbei wurden a) Artikel erfasst, die einen expliziten Bezug zum Shanghai-Ranking herstellten, b) Artikel, in denen andere Formen des Rankings bzw. der Bewertung der genannten Universitäten im Mittelpunkt standen, und auch c) Artikel, die reputationsrelevante Aussagen über die ausgewählten Universitäten enthielten, ohne einen Bezug zu einem Ranking herzustellen. Daher wurden Artikel, in denen Universitätsnamen lediglich als Ortsangabe dienten (z. B. „Die Veranstaltung findet im Hörsaal der Universität Bonn statt“) oder in Anzeigen auftauchten (z. B. „Probanden für Test gesucht: Universität Heidelberg“) ebenso wie biographische Angaben, in denen Universitätsnamen auftauchen (z. B. „Gastautor XY studierte/lehrte an der Universität Göttingen“) oder auf andere Artikel verweisende Teaser aus der Stichprobe ausgeschlossen. Wenn Vertreter einer Universität als Autoren von Artikeln oder als Experten innerhalb von Artikeln auftraten, blieben diese Artikel nur dann in der Stichprobe, wenn dort auch reputationsrelevante, auf die entsprechende Universität bezogene Informationen enthalten waren.

Auf diese Weise wurden 9.392 relevante Artikel identifiziert. Da sich diese Artikel recht ungleich auf die ausgewählten 13 Universitäten verteilten, wurde die Zahl der codierten Artikel bei einigen Universitäten durch eine Zufallsauswahl reduziert – was für die hier vorgelegte Analyse unproblematisch ist, da nicht die absolute Zahl der Nennungen oder Bewertungen von Universitäten ausgewertet wurde, sondern die (relative) Verteilung von Reputationszuweisungen vor und nach den Ranking-Veröffentlichungen bzw. im Universitäts- und Zeitvergleich im Mittelpunkt standen.Footnote 6 Letztlich enthielt die Stichprobe 2.360 Artikel (s. Abbildung 1).

Abb. 1
figure 1

Zahl codierter Artikel pro Universität (n = 2360 Artikel)

3.3 Inhaltsanalytische Codierung

Codiert wurden (auf Artikelebene) zunächst einige Strukturmerkmale der entsprechenden Medientexte (etwa Erscheinungsmedium und -datum, Ressort, Seite und Länge). Das Kernstück der Analyse war aber die Erhebung der massenmedial dargestellten Reputation der ausgewählten Universitäten. Die entsprechenden Bestandteile des Codebuches inklusive der relevanten Indikatoren wurden aus der Reputationsanalyse des fög – Forschungsbereiches Öffentlichkeit und Gesellschaft des Instituts für Publizistikwissenschaft und Medienforschung der Universität Zürich (fög 2014, 2015) übernommen, mit der der Erstautor dieser Studie Erfahrungen hatte und die bereits in einer Reihe anderer Untersuchungen eingesetzt wurde (vgl. Eisenegger 2005; Eisenegger und Imhof 2009). Ihre Codierung wies eine Intra-Coder-Reliabilität zwischen 0,87 und 1,0 (Holsti-Koeffizient) auf.Footnote 7 Bei dieser Methode stehen zwei Indikatoren im Mittelpunkt, die abschließend in einem Index miteinander verrechnet werden:

Erstens „wird mittels der Variable Bewertungstendenz die über einen gesamten Medienbeitrag hinweg dominierende Bewertung gegenüber einem Reputationsobjekt erhoben“ (Eisenegger 2004, S. 278). Erfasst wird dazu die Tonalität des Beitrags. Wenn eine der zu untersuchenden Universitäten im Beitrag genannt und in mindestens einem Abschnitt in gehaltvoller Weise thematisiert wurde, dann wurde erfasst, welchen Gesamteindruck ein Artikel über die Universität liefert („positiv“, „ambivalent“, „neutral“, „negativ“). Dieser kann sich aus den Äußerungen unterschiedlicher Sprecher im Artikel sowie aus den Bewertungen von Journalisten ergeben, wobei insbesondere auf Adjektive und Attribute zu achten war (vgl. fög 2014). Zweitens wird die Zentralität des Reputationsobjektes innerhalb des Artikels festgehalten; mit den Kategorien „zentral“, „prominent“ und „peripher“ lässt sich erfassen, wie stark der Schwerpunkt des Artikels auf der jeweiligen Universität liegt.

Anschließend lassen sich Bewertungstendenz und thematische Zentralität zum Reputationsindex einer Universität verrechnen (vgl. zum Vorgehen ausführlicher Eisenegger 2004, S. 278–281).Footnote 8 Dazu werden die negativ bewertenden Artikel (N) von den positiven bewertenden Artikeln (P) subtrahiert und diese Differenz durch die gesamte Zahl der Medienbeiträge (n) innerhalb des ausgewählten Zeitraums (wobei auch neutrale Medienbeiträge eingerechnet werden) dividiert. „Zentrale“ Thematisierungen werden dafür dreifach gewichtet, „prominente“ zweifach und „periphere“ einfach (vgl. Eisenegger 2005, S. 96). Damit entsteht ein Indexwert von 0, wenn in einem Zeitraum gleich viele positive wie negative Artikel über eine Universität veröffentlicht wurden. Alle Indexwerte bewegen sich zwischen − 100 (bei ausschließlich negativen Reputationszuschreibungen) und + 100 (bei ausschließlich positiven Reputationszuschreibungen).

4 Ergebnisse

Als erster, deskriptiver Befund ist festzuhalten, dass die Zahl der Artikel über die jeweils zehn bestrangierten deutschen Universitäten pro Jahr im Zeitverlauf klar ansteigt (siehe Abb. 2), dass sich also sukzessive mehr mediale Aufmerksamkeit auf die Untersuchungsobjekte richtet. Während 2004 171 relevante Artikel erfasst und codiert wurden, stieg diese Zahl nahezu linear auf 312 Artikel im Jahr 2013. Die entsprechenden Universitäten wurden also immer sichtbarer in den untersuchten Medien, womit eine Grundbedingung für die Reputationszuschreibung erfüllt ist, „denn nur wer beachtet wird, hat die Chance, Reputation zu erwerben“ (Eisenegger 2005, S. 65).

Abb. 2
figure 2

Anzahl codierter Artikel pro Untersuchungsjahr (n = 2360 Artikel)

Damit ist allerdings noch nicht geklärt, ob sich ein Einfluss von Veröffentlichungen der Ergebnisse des Shanghai-Rankings auf die massenmedial dargestellte Reputation der untersuchten Universitäten zeigen lässt (Hypothese 1), ob dieser bei besser rangierten Universitäten größer ausfällt als bei schlechter rangierten (Hypothese 2) und ob er im Zeitverlauf zunimmt (Hypothese 3). Diese Fragen werden in der Folge beantwortet.

4.1 Der Vorher/Nachher-Vergleich: Es gibt einen Ranking-Effekt

Hypothese 1 nimmt an, dass die medial dargestellte Reputation der untersuchten Universitäten nach der Veröffentlichung der Shanghai-Rankings positiver ausfällt als zuvor. Diese Hypothese lässt sich mit unseren Daten bestätigen.

Eine bivariate Auswertung zeigt, dass in den zweimonatigen Zeiträumen jeweils vor der Veröffentlichung des Shanghai-Rankings die Tonalität in 23 % der erfassten Artikel positiv ausfiel. In 23 % der Artikel dominierte also eine positive Bewertung der entsprechenden Universität (siehe Abb. 3). Dieser Anteil stieg in den Zeiträumen nach der Veröffentlichung der Ranking-Ergebnisse auf durchschnittlich 36 %. Die negativen Bewertungsanteile verringerten sich demgegenüber: Waren vor der Ranking-Veröffentlichung noch 13 % aller Bewertungen negativ, so sank diese Zahl nach den Veröffentlichungen auf etwa 5 %. Die Zahlen der neutralen und ambivalenten Bewertungen gingen jeweils nach den Veröffentlichungen der Shanghai-Rankings ebenfalls zurück. Diese Unterschiede zeigen sich auch im Chi-Quadrat-Test als statistisch höchstsignifikant.Footnote 9

Hypothese 1 lässt sich zum anderen mit einer Auswertung der durchschnittlichen Reputationsindizes aller untersuchten Universitäten je vor und nach der Veröffentlichung der Ranking-Ergebnisse erhärten (siehe Abb. 4). In diesen Reputationsindex geht, wie beschrieben, neben den in den Artikeln enthaltenen Bewertungen auch die Zentralität ein, mit der die untersuchten Universitäten in den Medienbeiträgen thematisiert wurden. Auch hier zeigt sich ein deutlicher Ranking-Effekt: Während die medienvermittelte Reputation der Universitäten sowohl vor als auch nach der Veröffentlichung positive Werte erzielt, die entsprechenden Hochschulen also in beiden Zeiträumen insgesamt eher als reputiert dargestellt werden, fällt dieser Wert nach der Veröffentlichung der Ranking-Ergebnisse deutlich – und statistisch signifikant – positiver aus. Der durchschnittliche Indexwert über alle Universitäten und alle Messzeitpunkte hinweg steigt von + 9 auf + 34 – es ist also ein Ranking-Effekt auf die medial dargestellte Reputation sichtbar.

Abb. 3
figure 3

Bewertung über alle Universitäten hinweg vor und nach der Veröffentlichung der Ergebnisse des Shanghai-Rankings [n = 2360 Artikel (1194 vorher, 1166 nachher); Chi-Quadrat: Wert = 82.369 (df = 3), p = 0.000, Cramer-V: Wert = 0.187, p = 0.000]

Abb. 4
figure 4

Durchschnittliche Reputationswerte aller Universitäten vor und nach Veröffentlichung der Ranking-Ergebnisse [n = 2360 Artikel; Chi-Quadrat: Wert = 181.581 (df = 6), p = 0.000, Cramer-V: Wert = 0.276, p = 0.000]

4.2 Der Ranking-Effekt ist bei besser-rangierten Universitäten größer

Hypothese 2 bezog sich auf mögliche Unterschiede zwischen besser und schlechter im Ranking platzierten Universitäten. Sie nahm an, dass besser rangierte Universitäten stärker von dem gezeigten Ranking-Effekt profitieren als Universitäten, die weniger gut platziert sind. Wir prüfen dies anhand des Unterschiedes zwischen Universitäten, die im Shanghai-Ranking unter den besten 100 Universitäten der Welt rangieren, und niedriger platzierten (aber natürlich noch immer zu den 500 weltbesten gehörenden) Universitäten. Auch hierfür lassen sich bivariat und im Vergleich der Reputationsindizes statistisch signifikante Unterschiede in der erwarteten Richtung finden.

So zeigt sich, dass Universitäten, die nicht in den Top-100 des Shanghai-Rankings positioniert sind, nur in 24 % der Artikel positiv bewertet werden (siehe Abb. 5). Im Gegensatz dazu werden die in den Top-100 rangierten deutschen Universitäten in 35 % der Artikel positiv beurteilt. Dies geht damit einher, dass zu den besser rangierten Universitäten deutlich weniger neutrale Artikel verfasst werden, während sich im Anteil negativer Bewertungen lediglich ein geringer Unterschied von einem Prozentpunkt finden lässt. Diese Unterschiede sind im Chi-Quadrat ebenfalls höchstsignifikant.

Abb. 5
figure 5

Bewertungen von Top-100- und niedriger gerankten Universitäten [n = 2360 Artikel; Chi-Quadrat Wert = 39.935 (df = 3), p = 0.000, Cramer-V: Wert = 0.130, p = 0.000]

Darüber hinaus lassen sich diese Unterschiede auch anhand der durchschnittlichen Reputationsindizes für beide Gruppen von Universitäten zeigen (siehe Abb. 6). Der Indexwert von deutschen Universitäten innerhalb der Top-100 des Shanghai-Rankings fällt mit + 28 deutlich positiver aus als der für Universitäten, die nicht in den Top-100 vertreten sind (+ 15). Auch dieser Unterschied ist statistisch signifikant.

Abb. 6
figure 6

Durchschnittliche Reputationswerte von Top-100- und niedriger gerankten Universitäten [n = 2360 Artikel; Chi-Quadrat: Wert = 181.5532 (df = 6), p = 0.000, Cramer-V: Wert = 0.277, p = 0.000]

Schließlich ist es möglich, den Zusammenhang zwischen der im Shanghai-Ranking erreichten Position einer Universität und ihrer massenmedialen Reputationszuschreibung auch mit einer Rangkorrelation zu berechnen – wenngleich dies nur mit Vorsicht zu interpretieren ist, weil Universitäten außerhalb der Top-100 in größeren Rang-Gruppen (101–150, 151–200, 201–250 etc.) zusammengefasst ausgewiesen werden. Daher lassen sich eventuelle Unterschiede zwischen diesen Universitäten nicht mehr erkennen, und die Stärke der Rangkorrelation wird unterschätzt. Unter diesem Vorbehalt jedoch lässt sich die Rangkorrelation zwischen den Platzierungen im Ranking und der Intensität medialer Reputationszuschreibungen berechnen (siehe Abb. 7). Auch hier zeigt sich trotz der beschriebenen Einschränkungen eine klare, hochsignifikante Korrelation von 0,31 (Spearman’s Rho).

Abb. 7
figure 7

Rang-Platzierungen aller untersuchten Universitäten nach Platzierung im Shanghai-Ranking (x-Achse, 1 = beste Platzierung) und massenmedial zugeschriebener Reputation (y-Achse, 1 = höchste Reputation), 2003–2014. Grössere Kreise zeigen an, dass die entsprechende Rang-Kombination mehrfach auftrat. (n = 2360 Artikel)

4.3 Der Ranking-Effekt nimmt im Zeitverlauf nicht zu

Hypothese 3 thematisiert schließlich mögliche zeitliche Veränderungen des Ranking-Effekts. Die Annahme, dass dieser in den letzten zehn Jahren zugenommen habe, lässt sich allerdings nicht bestätigen.

Dies deutet sich bereits an, wenn man die codierten Bewertungen im Zeitverlauf betrachtet (siehe Abb. 8). Dabei zeigt sich, dass die Zahl der positiv bewertenden Artikel diejenige der negativ bewertenden Artikel zwar in allen untersuchten Jahren übertrifft, dass dieser Unterschied allerdings im Zeitverlauf nicht größer wird – im Gegenteil. In der Berichterstattung über die untersuchten Universitäten fand sich im Jahr 2005, mit 38 % aller Artikel, der höchste Anteil positiver Bewertungen. Dieser Wert sank in den Jahren 2008 und 2009 jedoch wieder und liegt seit 2009 unter 30 %. Der Anteil negativ bewertender Artikel dagegen lag im Zeitverlauf – lediglich mit Ausnahme des Jahres 2010 – recht konstant bei etwa 10 %.

Die Auswertung der Reputationsindizes über alle Universitäten hinweg für jedes einzelne Jahr – die in Abb. 9 noch durch die Darstellung der Reputationsindizes jeweils vor und nach der Veröffentlichung der Rankings in den entsprechenden Jahren ergänzt wird – macht diesen Befund noch deutlicher: Sie zeigt zunächst einmal, dass der Reputationsindex nach der jährlichen Veröffentlichung der Rankingergebnisse im gesamten Untersuchungszeitraum deutlich positiver ausfällt als vor der Veröffentlichung. Nach der Ranking-Publikation liegt der Reputationswert während des gesamten Untersuchungszeitraums über dem Durchschnittswert von + 22. Im Gegensatz dazu übersteigen die Reputationswerte des untersuchten Samples vor der Veröffentlichung diesen Durchschnittswert nie.

Die grösste Differenz zwischen den Reputationsindizes vor und nach der Ranking-Veröffentlichung – mithin die stärksten Ranking-Effekte – sind aber in den Jahren 2005 und 2011 und damit gegen Anfang und Ende des Untersuchungszeitraumes zu verzeichnen (+ 39). Ein klarer Anstieg dieser Differenzen über die Zeit ist nicht zu beobachten – stattdessen finden sich jährliche Schwankungen, die sich zumindest partiell mit konkreten Ereignissen im Umfeld der Ranking-Publikationen erklären lassen dürfte.Footnote 10

Abb. 8
figure 8

Bewertungen aller Universitäten im Zeitverlauf (n = 2360 Artikel)

Abb. 9
figure 9

Durchschnittliche Reputationswerte aller Universitäten im Zeitverlauf (n = 2360 Artikel)

5 Zusammenfassung und Diskussion

Universitäten stehen zunehmend unter gesellschaftlicher Beobachtung und in einem Wettbewerb um Sichtbarkeit und Reputation. Dieser wird maßgeblich über Massenmedien ausgetragen, die (Wissenschafts-)Politikern, Studieninteressenten und anderen Beobachtern aus der Umwelt des Wissenschaftssystems potenzielle wirksame Beschreibungen dieser Institutionen anbieten (vgl. Rödder 2009; Scheu 2015; Weingart 2004). Allerdings lassen sich Universitäten als komplexe, heterogene Institutionen nur schwer beschreiben. Universitätsrankings setzen an dieser Stelle an: Sie reduzieren den komplexen Gegenstand auf eingängige Ranglisten und dürften so wirksame Orientierungshilfen für die massenmediale Berichterstattung bereitstellen. Daher ist anzunehmen, dass Universitätsrankings einen Effekt auf die Medienberichterstattung über Universitäten haben – und dies haben wir in diesem Beitrag geprüft.

Mit einer Inhaltsanalyse deutscher Leit-Printmedien haben wir analysiert, ob sich die Publikation des Shanghai-Rankings auf massenmediale Reputationszuschreibungen zugunsten von 13 in diesem Ranking platzierten Universitäten auswirkt. Die Analyse von 2.360 Artikeln zeigt deutlich: (1) Ein Ranking-Effekt auf die Berichterstattung existiert. In den Monaten nach der Veröffentlichung der Ranking-Ergebnisse wurden die untersuchten Universitäten – die ja alle unter den 500 besten Universitäten der Welt rangierten – durchschnittlich reputierlicher dargestellt als vor der Veröffentlichung der Ranglisten. Die durch die Ranking-Ergebnisse ausgedrückte – wenngleich nach Ansicht vieler Autorinnen und Autoren unzureichend oder falsch gemessene (vgl. im Überblick Hazelkorn 2011) – wissenschaftliche Qualität der untersuchten Universitäten wurde also in medienvermittelte Außenreputation transformiert. (2) Es wurde deutlich, dass dieser Effekt bei den höher gerankten Hochschulen stärker ausfällt als bei den niedriger rangierten Hochschulen. (3) Allerdings ist nicht festzustellen, dass dieser Effekt im Zeitverlauf zunimmt. Die Größe des Ranking-Effekts schwankt im zehnjährigen Untersuchungszeitraum zwar leicht; es zeigt sich aber keine kontinuierliche Zu- oder Abnahme.

Diese Existenz eines Ranking-Effektes auf die massenmediale Darstellung von Universitäten – bzw. auf die Reputationszuschreibung, die diese Hochschulen erfahren – sollte in künftigen Studien noch weiter elaboriert und kontextualisiert werden. Erstens wäre es wünschenswert, in größere Medien-Stichproben insbesondere das Fernsehen einzubeziehen und Untersuchungen auch auf andere Universitäten und weitere internationale und nationale Rankings auszudehnen. Diese sollten auch methodisch über die hier vorgestellte Reputationsanalyse hinausgehen – so wäre es zum Beispiel wünschenswert, eine breitere Stichprobe von Universitäten einzubeziehen, die auch nicht im Ranking platzierte Hochschulen einschließt, und die möglichen Unterschiede zwischen diesen einzelnen Institutionen detaillierter zu beschreiben, als uns dies möglich war.

Zweitens ist die konzeptionelle und normative Kontextualisierung dieses Ranking-Effektes – sollte er sich auch in weiteren Arbeiten zeigen – bedeutsam. Dabei wäre zum einen die Rekonstruktion der innermedialen journalistischen Arbeits-, Selektions- und Präsentationsprozesse von Interesse. Inwieweit und von welchen Journalisten Rankings als valide Messungen universitärer Qualität wahrgenommen werden und wie sich dies auf die Berichterstattung auswirkt, stellt eine relevante Untersuchungsperspektive dar. Zum anderen sind die Wahrnehmung der institutionellen Reputation von Hochschulen durch Entscheidungsträger und Studierende sowie die Rolle der Medienberichterstattung bei der Prägung dieser Wahrnehmungen von großem Interesse – und erste Studien deuten darauf hin, dass in diesem Bereich durchaus Medienwirkungen oder Wirkungen wahrgenommener Medienwirkungen existieren (vgl. Blöbaum et al. 2013; Friedrichsmeier und Fürst 2012; Marcinkowski et al. 2013; Scheu 2015).

Neben diesen Verbesserungen und Erweiterungen des Forschungsdesigns ist zu fragen, wie ein solcher Ranking-Effekt (wissenschafts)politisch bzw. normativ zu beurteilen ist. Er zeigt, dass nicht nur die Wahrnehmung der Universitäten durch Entscheidungsträger und andere gesellschaftliche Akteure selbst möglicherweise durch Rankings beeinflusst wird, sondern dass positive Platzierungen in Rankings auch dazu führen, dass Universitäten zusätzlich in Massenmedien als reputierlich dargestellt werden. Angesichts der zahlreichen bisher dokumentierten methodologischen und methodischen Probleme gerade (aber nicht nur) internationaler Hochschulrankings scheint diese Tragweite analytisch unzulänglicher Instrumente fragwürdig – und es ist zu fragen, ob und wie dem gegebenenfalls begegnet werden könnte. Eine Stärkung von in ihren Gegenstandsbereichen begrenzteren Rankings – die sich nur auf bestimmte geografische oder Sprachräume beziehen und/oder nur spezifische Disziplinen analysieren – und eine Unterstützung von deren methodischer Verbesserung durch die Scientific community, etwa durch wissenschaftliche Akademien, Fördereinrichtungen wie die Deutsche Forschungsgemeinschaft oder den Wissenschaftsrat (vgl. z. B. die „Forschungsratings“ des Wissenschaftsrates 2015), scheint sinnvoll, um bekannte Probleme der Rankings selbst auszuräumen. Die Schaffung eines kritischeren Bewusstseins bei Hochschul-Kommunikatoren, Journalisten und Publikum im Umgang mit diesen Rankings wäre unseren Befunden zufolge aber ebenfalls notwendig.