1 Ziele von Rankings

Durch Rankings werden ganz allgemein Beobachtungseinheiten nach einem Kriterium in eine Reihenfolge gebracht. Beobachtungseinheiten können in der Forschung die im Folgenden näher betrachteten Fachzeitschriften und Wissenschaftler sein, aber auch einzelne wissenschaftliche Werke, ganze Fachbereiche,Footnote 1 Hochschulen oder sogar Länder. Kriterium ist oft die Anzahl gewichteter Veröffentlichungen in einem Bereich, es können aber auch Zitationen, Patente, Drittmittel oder Meinungen sein.

Neben dem Kriterium ist die Wahl der Gewichte und des Bereichs entscheidend. Wird etwa jede Veröffentlichung gleich gewichtet, ergibt sich eine ganz andere Rangfolge als bei Berücksichtigung ihrer Qualität, die ihrerseits nach einem Zeitschriftenranking bestimmt werden kann, der Anzahl von Koautoren oder auch der jeweiligen Seitenzahlen. Entsprechend führt ein Ranking innerhalb der BWL zu anderen Ergebnissen als ein Ranking für die Volkswirtschaftlehre (VWL) oder gar aller Publikationen überhaupt.

Um verschiedene Rankings sinnvoll vergleichen und beurteilen zu können, bedarf es übergeordneter Maßstäbe oder entsprechender Ziele. Bei Forschungsrankings geht es zugleich um die wissenschaftliche Qualität und Quantität. Dazu bedarf es neben eines oder mehrerer Qualitätsmaßstäbe einer quantitativen Gewichtung. Unterschiedliche Leistungen müssen notwendigerweise miteinander vergleichbar gemacht werden, ansonsten ist kein sinnvolles Ranking möglich. Sollten sich verschiedene Leistungen tatsächlich als unvergleichbar erweisen, sind gegebenenfalls zwei oder mehr verschiedene Rankings ein Ausweg, zum Beispiel eines für Forschungs- und ein anderes für Lehrleistungen.

Rankings können handfest im Rahmen von Berufungsverfahren und bei der Mittelvergabe verwendet werden, immateriell für Prestige, Reputation oder einfach nur Wahrnehmung. Entsprechende Entscheidungen müssen immer getroffen werden. So müssen etwa bei einem Berufungsverfahren die Bewerber in eine Reihenfolge gebracht werden. Auch wer alle anderen Rankings ablehnt, muss hierbei zu einer sehr speziellen Form von Ranking kommen. Dabei ist der Verzicht auf alle Informationen aus anderen Rankings vermutlich ebenso problematisch wie die unreflektierte Übernahme eines einzigen übergreifenden Rankings als alleinige Entscheidungsgrundlage.

Ein pauschales Urteil über Rankings insgesamt ist dementsprechend nicht sinnvoll, sondern Rankings sind relativ zueinander und relativ zu anderen realistischen Alternativen zu beurteilen. Je nach Zweck können verschiedene, gegebenenfalls aus den Grunddaten jeweils neu generierte Rankings am besten sein. In vielen Fällen sind dabei die genauen Rangplätze irrelevant und die Unterschiede zwischen benachbarten Plätzen insignifikant, so dass die rangbildenden Kennzahlen oder Ranggruppen aussagekräftiger sind als die einzelnen Rangplätze.

Im Folgenden werden erst Zeitschriften- und dann Personenrankings näher betrachtet. Im vierten Abschnitt werden verschiedene Rankingvarianten beispielhaft für die Mitglieder des Verbandes der Hochschullehrer für Betriebswirtschaft e. V. (VHB) allein auf Grundlage des Social Sciences Citation Index (SSCI) ergänzt um den Arts & Humanities Citation Index (A&HCI) vorgeführt, bevor dieser Beitrag mit einem kurzen Fazit und Ausblick schließt.

2 Zeitschriftenrankings

Bei Zeitschriftenrankings sind wissenschaftliche Zeitschriften die relevante Beobachtungseinheit. Dabei muss eine sehr folgenreiche Auswahl getroffen werden, welche Zeitschriften in das Ranking aufgenommen werden und welche nicht. Kriterium für den Rang der aufgenommen Zeitschriften können zum Beispiel Zitationen sein, also wie oft Beiträge in den betreffenden Zeitschriften zitiert werden, wobei die Zitationen innerhalb derselben Gruppe der zu beurteilenden Zeitschriften oder auch anders gemessen werden können.

Schließlich ist eine formelmäßige Gewichtung festzulegen, wie die Zitationen den Rangplatz einer Zeitschrift bestimmen. Die absolute Zahl der Zitationen würde alte Zeitschriften mit sehr vielen Beiträgen begünstigen, weshalb sich eine zeitliche Einschränkung und eine Gewichtung mit der Anzahl der zitierbaren Beiträge empfehlen. Es ist auch eine Gewichtung mit der Qualität der zitierenden Quelle denkbar, wobei diese ihrerseits entsprechend rekursiv bestimmt werden könnte.

Bei durchschlagendem Erfolg wie dem des SSCI und anderen Datenbanken vom Institute for Scientific Information (ISI) passen sich Zeitschriften und vor allem Autoren daran an.Footnote 2 Zeitschriftenrankings werden damit zu sich selbst erfüllenden Prophezeiungen und sehr stabil. Allerdings fehlt eine ausreichende Datenbasis für deutsche Zeitschriften,Footnote 3 die allein schon deshalb relativ schlecht gerankt werden.

Eine grundsätzliche Alternative zu Zitationen als Grundlage von Zeitschriftenrankings ist die Befragung bestimmter Personen zu ihrer subjektiven Einschätzung. Dabei stellt sich das Problem der Gewichtung und Aggregation ordinaler Einzelurteile. Ein bis heute nicht ganz transparentes Vorgehen wurde beim VHB-JOURQUAL 2 gewählt, welches auf einer Befragung der VHB-Mitglieder basiert.Footnote 4

Weitere alternative Kriterien zur Erstellung von Zeitschriftenrankings könnten Ablehnungsquoten oder der Leser-, Herausgeber-Footnote 5 oder auch Autorenkreis sein.Footnote 6 Recht wichtig ist noch die Unterscheidung von Zeitschriften mit und ohne Peer-Review-Verfahren, die nicht zu einem vollständigen Ranking führt, aber doch Fachzeitschriften mit einem wissenschaftlichen Mindeststandard von anderen unterscheidet.

Die gelegentlich angeführte Herausgeberbegutachtung ist kein Qualitätsmerkmal, da letztlich bei jeder Zeitschrift wie auch jedem Sammelband die Herausgeber oder von ihnen autorisierte Personen die Entscheidung über die Annahme von Beiträgen treffen müssen. Umgekehrt ist die doppelt-blinde Begutachtung nicht unbedingt in beide Richtungen „blind“, da sich häufig der Autor eines Beitrags identifizieren lässt, wenn er beispielsweise schon ein entsprechendes Diskussionspapier veröffentlicht, einen Konferenzvortrag zum Thema gehalten oder sich selbst zitiert hat, wobei zumindest dem letztgenannten Problem durch eine gründliche Anonymisierung der eingereichten Beiträge von den Zeitschriftenherausgebern begegnet werden kann.

Die Begutachtung durch mindestens eine andere unabhängige Fachwissenschaftlerin, die anonym bleibt und deshalb weder Belohnung noch Strafe vom Autor erwartet, ist hingegen heute internationaler Standard für wissenschaftlich anspruchsvolle Zeitschriften. Dieser Standard ist nicht logisch zwingend; früher konnte häufig die Reputation der frei entscheidenden Herausgeber hinreichend für Qualität bürgen, in Zukunft tut es vielleicht die (potenziell) ganze wissenschaftliche Gemeinschaft internetbasiert. Der Wert dieses Standards könnte wiederum mit anderen Rankingverfahren überprüft werden, ob etwa Zeitschriften mit Peer-Review-Verfahren mehr Zitationen erhalten als andere oder auch bei Befragungen von Fachwissenschaftlern als höherwertig eingestuft werden (was beides zumindest in der BWL offensichtlich der Fall ist).

3 Personenrankings

Personenrankings haben Wissenschaftler als Beobachtungseinheit, zumindest bei den hier allein betrachteten Forschungsrankings, während sich auch Politiker, Sportler, Filmstars etc. ranken lassen. Zum Teil werden nur Professoren in wissenschaftliche Personenrankings einbezogen, üblich ist eine fachliche und geographische Abgrenzung. In Abschn. 4 werden nur VHB-Mitglieder betrachtet, die vor allem deutschsprachige Wissenschaftler im Bereich der BWL sind.

Rankingkriterium sind häufig gewichtete Veröffentlichungen, wobei auf die Werte von Zeitschriftenrankings zurückgegriffen wird. Prominentes Beispiel ist dafür das bereits angesprochene Handelsblatt-Betriebswirte Ranking.Footnote 7 Ordinale Befragungsdaten müssen dafür kardinal interpretiert werden, was für ohnehin kardinale Zitationswerte spricht, die das Handelsblatt-Betriebswirte Ranking allerdings nicht verwendet.

Zitationen können jedoch auch ohne den Umweg über Zeitschriftenbewertungen direkt für die zu rankenden Personen berechnet werden. Dabei werden weniger Informationen verschenkt und zugleich Fehlbewertungen vermieden. Denn auch Veröffentlichungen in nachrangigen oder gar nicht gerankten Medien können erfolgreich sein, während umgekehrt viele Veröffentlichungen in Topzeitschriften zitationslos bleiben. Der Impact-Faktor einer Zeitschrift ist ein Durchschnittswert, der vor allem von einigen wenigen häufig zitierten Beiträgen getrieben wird, während die meisten Beiträge in Topzeitschriften weniger Zitationen erhalten als die meistzitierten Artikel in nicht so hoch gerankten Zeitschriften.Footnote 8

Für die gerankten Wissenschaftler verlagert sich damit das Risiko bei einzelnen wissenschaftlichen Beiträgen vom Begutachtungsprozess auf die nachfolgende und eigentlich ohnehin wichtigere Rezeption. Werden ihre Beiträge nach der Reputation der Veröffentlichungsorgane beurteilt, müssen sie vor allem versuchen, in eine möglichst hochrangige Zeitschrift zu kommen. Werden hingegen die Zitationen für jeden Beitrag selbst gemessen, kommt es stärker darauf an, dass ein Beitrag nicht für die Gutachter, sondern für alle Leser beziehungsweise zukünftige Autoren von Interesse ist. Das Veröffentlichen in hochrangigen Zeitschriften bleibt vorteilhaft, da die Beiträge darin eher gelesen und zitiert werden dürften als in weniger reputierlichen Medien. Auch die Veröffentlichung in Zeitschriften der Datenbasis, deren Zitationen ausgewertet werden, ist von Vorteil, eben weil die Zitationen darin zählen und ebenfalls eine höhere Wahrnehmung genießen.

Vermutlich steigen bei einem Übergang von zeitschriften- auf direkt zitationsbasierte Rankings die Manipulationsmöglichkeiten der Wissenschaftler, da für jeden Einzelnen die Zahl der relevanten und damit gegebenenfalls zu manipulierenden Zitationen sinkt. Eine Wissenschaftlerin allein kann kaum die Reputation ganzer Zeitschriften, in denen sie gelegentlich veröffentlicht, stark verändern, die Zahl ihrer eigenen Zitationen hingegen schon. Nach Möglichkeit sollten solche Manipulationsversuche durch geeignete Berechnungsverfahren, beispielsweise ohne Eigenzitationen, reduziert werden. Im Moment, wo vor allem auf die Reputation der Veröffentlichungsorgane geachtet wird, besteht dieses Problem im Übrigen noch nicht oder nur kaum, was eine Auswertung zu reinen Analysezwecken erleichtert und die Bedeutung von (Fehl-)Anreizen unterstreicht.

Ein weiteres Problem von Zitationsanalysen ist, dass die Vergleichbarkeit von verschieden lange tätigen Personen schwierig ist. Wer schon länger publiziert, konnte in der längeren Zeit zumindest potenziell nicht nur mehr veröffentlichen, sondern auch mehr Zitationen für erfolgte Veröffentlichungen erzielen. Dasselbe Problem stellt sich allerdings auch beim Vergleich von Zeitschriften, weshalb sich auch die entsprechende Lösung anbietet, nämlich nur den Impact von Beiträgen der letzten Jahre zu berücksichtigen.

4 Zitationsrankings von VHB-Mitgliedern

Personenrankings über Zitationen sind selten und existieren für die deutschsprachige BWL bislang höchstens ansatzweise.Footnote 9 Die im Folgenden verwendeten Daten wurden sehr aufwendig aus dem SSCI und A&HCI im Sommer 2005 erhoben. Dabei wurden alle 1.168 damaligen VHB-Mitglieder zusammen mit einigen allgemeinen Personendaten untersucht. Alle verwendeten Daten sind grundsätzlich öffentlich, die Nennung nur einiger Top-Plätze erscheint unproblematisch, während komplette Rankings neben Datenschutzproblemen auch die kommerziellen Interessen von ISI berühren und schlecht gerankte Wissenschaftler demotivieren könnten.

Tabelle 1 zeigt die Top 10 der VHB-Mitglieder hinsichtlich all ihrer Veröffentlichungen in Zeitschriften, die im SSCI und A&HCI enthalten sind (der Science Citation Index, SCI, wurde bewusst nicht ausgewertet, da sich sonst das Problem uneindeutiger Autorennamen deutlich verschärft hätte, während so einige eher technische oder mathematische Veröffentlichungen unberücksichtigt bleiben), bis zur Beobachtungszeit (Sommer 2005, wobei alphabetisch vorne begonnen wurde, so dass möglicherweise Mitglieder, deren Nachname mit einem Buchstaben weiter hinten im Alphabet beginnt, einige Tage länger Artikel und Zitationen erhalten konnten).

Tab. 1 Top 10 Veröffentlichungen (nur Artikel und Reviews in SSCI und A&HCI gewichtet mit Autorenzahl)

Es wurden nur Artikel einschließlich Reviewartikeln gewertet, zum Beispiel keine Rezensionen oder reinen Diskussionsbeiträge, wobei hier wie auch sonst den Angaben von ISI vertraut wurde. Diese sind sicherlich unvollständig und ungenau, doch für den reinen Demonstrationszweck hier vermutlich hinreichend, während beispielsweise bei Berufungsentscheidungen eine Überprüfung für die überschaubare Anzahl der Kandidaten in der engeren Wahl erfolgen sollte. Die Artikel wurden allein mit der Anzahl an Autoren gewichtet und das ganz proportional (also als Alleinautor vollständig, mit einem Koautor halb, mit zwei Koautoren zu einem Drittel und so weiter).

Interessant sind außerdem die Angaben unter der Tabelle, wonach 749 VHB-Mitglieder beziehungsweise 65% eine Anzahl größer als null aufweisen, also zumindest an der Veröffentlichung von einem Artikel in diesen Datenbanken beteiligt waren. Der Mittelwert für alle Mitglieder liegt bei 1,79, die Gesamtzahl aller entsprechend gewichteten Artikel bei 2.093.

In Tab. 2 werden die Top 10 der VHB-Mitglieder in Bezug auf ihre Veröffentlichungen in den beiden Vorjahren (2003 und 2004 aus Sicht von 2005) dargestellt, wiederum in Zeitschriften, die im SSCI oder A&HCI erfasst sind. Diese Beschränkung auf die beiden Vorjahre entspricht dem Vorgehen bei der Berechnung von Impact-Faktoren der Zeitschriften durch ISI, wobei auf die Zitationen für die Veröffentlichungen aus den beiden Vorjahren abgestellt wird.

Tab. 2 Top 10 Veröffentlichungen 2003/04 (nur Artikel und Reviews in SSCI und A&HCI gewichtet mit Autorenzahl)

Für einzelne Wissenschaftler könnte der Zeitraum von zwei Jahren jedoch zu kurz sein, um zu aussagekräftigen Urteilen zu gelangen, wie an der geringen Anzahl an Veröffentlichungen und der deshalb auch nur geringen Trennschärfe zu sehen ist. So ist der erste Platz viermal besetzt und konnte bereits mit drei Alleinveröffentlichungen erreicht werden, während insgesamt nur 149 gewichtete Veröffentlichungen durch VHB-Mitglieder in den zwei Jahren erfolgten und 85% der Mitglieder in der Zeit gar nichts (in den entsprechenden Zeitschriften) veröffentlichten. Eine Ausweitung auf fünf Jahre ist zumindest an dieser Stelle vergleichsweise leicht machbar, gegebenenfalls auch später (zum Beispiel heute für 2000–2004), und würde im Gegensatz zur Betrachtung des bisherigen Lebenswerks (in Tab. 1) Wissenschaftler mit kürzerer Karrieredauer nicht benachteiligen (solange diese nicht kürzer ist als der gewählte Beobachtungszeitraum).

Tabelle 3 wechselt von der Anzahl von Veröffentlichungen in SSCI und A&HCI auf die Anzahl der Zitationen dieser Veröffentlichungen, also wie oft diese Veröffentlichungen in anderen Beiträgen innerhalb von SSCI und A&HCI zitiert wurden. Dabei mussten die Zahlen zum Teil bereinigt wurden, da in den Datenbanken nur Nachnamen und Initialen der Vornamen erfasst sind, die einige Personen nicht eindeutig identifizieren. So könnte M. Weber beispielsweise auch für Michael Weber stehen, doch an dieser Stelle kann noch durch Prüfen der zitierten Beiträge die Martin Weber tatsächlich zuzurechnende Anzahl an Zitationen festgestellt werden. Die Angaben lassen sich dann jedoch nicht mehr durch nur einen Knopfdruck nach der Namenseingabe gewinnen.

Tab. 3 Top 10 Zitationen intern (nur von Beiträgen in SSCI und A&HCI, bereinigt)

Außerdem sind die Zitationszahlen vom Erhebungszeitpunkt abhängig. Auch wenn die Zahl der Veröffentlichungen in einem bestimmten Zeitraum oder bis zu einem bestimmten Zeitpunkt gegeben ist und sich später nicht mehr verändert, kann die Zahl der Zitationen für diese Veröffentlichungen weiter ansteigen, da sie auch danach noch zitiert werden können. Die Datenbanken stellen keine Abfragefunktion bereit, wie viele Zitationen ein Beitrag bis zu einem bestimmten Zeitpunkt erhielt. Prinzipiell lässt sich das per Hand nachprüfen, indem der Zeitpunkt jeder einzelnen Zitation festgestellt wird, was angesichts der großen Zahl an Zitationen jedoch prohibitiv aufwendig erscheint.

Beim Vergleich von Tab. 1 und 3 fällt auf, dass es erhebliche Unterschiede gibt. Nur drei Personen sind in beiden Spitzengruppen enthalten. Es sind auch etliche Veröffentlichungen von VHB-Mitgliedern in den Datenbanken nie zitiert worden. Eine Gewichtung mit der Anzahl der Koautoren von zitierten Beiträgen erfolgte nicht. Zur Beurteilung der wissenschaftlichen Qualität des Lebenswerks erscheint Tab. 3 trotzdem deutlich besser geeignet als Tab. 1, da häufig zitierte Beiträge offensichtlich eine größere Wirkung in der wissenschaftlichen Gemeinschaft haben als selten oder nie zitierte.

Tabelle 4 verhält sich zu Tab. 3 wie Tab. 2 zu Tab. 1, betrachtet also nur die Zitationen für Veröffentlichungen in SSCI und A&HCI in den Jahren 2003 und 2004, die bis Sommer 2005 erfolgt sind. Hier finden sich (bis auf einen) wieder andere Wissenschaftler vorne und haben überhaupt nur knapp 6% der VHB-Mitglieder einen Wert größer null. Vermutlich wäre auch hier eine längere Betrachtungszeit, beispielsweise fünf Jahre, sinnvoller, was jedoch rückwirkend aus den genannten Gründen nahezu unmöglich ist, aber in einer aktuellen Wiederholung dieser Studie für die letzten fünf Jahre geleistet werden könnte.

Tab. 4 Top 10 Zitationen intern 2003/04 (nur von Beiträgen in SSCI und A&HCI, bereinigt)

In Tab. 5 werden die Top 10 der VHB-Mitglieder aufgeführt hinsichtlich der in SSCI und A&HCI enthaltenen Zitationen für Beiträge, die ihrerseits nicht in Zeitschriften erschienen sind, die von SSCI und A&HCI ausgewertet werden, wenn also Bücher zitiert werden, Sammelbandbeiträge oder Artikel in nicht indizierten Zeitschriften. Dabei ergibt sich das Problem, dass die Anzahl der Zitationen um ein Vielfaches zunimmt und die eindeutige Zuordnung jedes Werkes zu dem betreffenden Wissenschaftler schwierig bis unmöglich wird.

Tab. 5 Top 10 Zitationen extern (Beiträge außerhalb von SSCI und A&HCI, gewichtet)

Deshalb wurde der folgende Gewichtungsfaktor gewählt, der jedoch zumindest bei Martin Weber wohl nicht hinreichend genau ist: Bei den Zitationen für interne Beiträge, die selbst in SSCI oder A&HCI enthalten sind, war die Zuordnung möglich, so dass hier der Anteil der einem Autor zurechenbaren Zitationen an allen Zitationen für diesen Autorennamen berechnet werden konnte. Dieser Gewichtungsfaktor ist nun in der letzten Spalte von Tab. 5 eingetragen, scheint aber zumindest bei Martin Weber immer noch zu hoch zu sein, weil ihm anteilig Zitationen für Max Weber zugerechnet werden, der selbst keine Beiträge innerhalb der Datenbanken verfasste, aber dessen ältere Bücher und Aufsätze bis heute oft zitiert werden. Vermutlich ändert das jedoch nichts am ersten oder zumindest vorderen Rangplatz für Martin Weber, während dem Abstand zum Zweitplatzierten offenbar keine weiter interpretierbare Bedeutung zukommt.

Zu Tab. 5 ist noch zu bemerken, dass die Anzahl der Mitglieder mit mehr als keiner gewichteten Zitation deutlich größer ist als bei Tab. 3 (74% gegenüber 42%). Die ISI-Datenbanken erlauben offensichtlich nicht nur eine Bewertung des wissenschaftlichen Werkes in den ausgewerteten, größtenteils englischsprachigen Zeitschriften. Es genügt eine Rezeption von Werken in den entsprechenden Zeitschriften. Man kann auch zitiert werden, wenn man selbst nie in diesen Zeitschriften veröffentlicht (was auch nur 65% tun, wie Tab. 1 ausweist, während 74% zitiert werden).

Tabelle 6 beinhaltet die Top 10 von Wissenschaftlern anhand der Zitationen für Veröffentlichungen, die 2003 und 2004 außerhalb der in SSCI und A&HCI enthaltenen Zeitschriften erschienen sind. Auch hier finden sich größtenteils wiederum andere Namen und gilt das zuvor Ausgeführte, insbesondere für den Betrachtungszeitraum.

Tab. 6 Top 10 Zitationen extern 2003/04 (Beiträge außerhalb von SSCI und A&HCI, gewichtet)

Tabelle 7 ist durch Addition der für Tab. 3 und Tab. 5 verwendeten Zitationszahlen gebildet worden. Da sie alle Zitationen erfasst, unabhängig vom Publikationsmedium des zitierten Beitrags, ist sie besser geeignet als die beiden anderen Tabellen, um die tatsächlichen Zitationserfolge anzuzeigen. Da Tab. 5 mit den Zitationen externer Beiträge höhere Werte aufweist als Tab. 3, bestimmt sie stärker die Zusammensetzung von Tab. 7, ohne sie vollständig zu determinieren.

Tab. 7 Top 10 Zitationen gesamt (teilweise bereinigt beziehungsweise gewichtet)

Tabelle 8 basiert auf einer Addition der Werte für Tab. 4 und Tab. 6. Es gelten die Ausführungen zu diesen Tabellen und auch Tab. 7.

Tab. 8 Top 10 Zitationen gesamt 2003/04 (teilweise bereinigt beziehungsweise gewichtet)

5 Fazit und Ausblick

Inzwischen recht etabliert sind Zeitschriftenrankings, die zur Einschätzung der Qualität und Bedeutung von Zeitschriften wichtig sind, und Personenrankings über gewichtete Zeitschriftenveröffentlichungen, die ex ante zusätzliche Anreize zum Veröffentlichen in guten Zeitschriften setzen können. Letztere setzen jedoch nicht nur ein Zeitschriftenranking voraus, sondern verwenden dann auch die durchschnittliche Güte dieser Veröffentlichungsorgane, nicht die Qualität der individuellen Beiträge. Personenrankings direkt über Zitationen sind deshalb eine interessante und weiter zu untersuchende Alternative, insbesondere wenn es um den individuellen Forschungsbeitrag und dessen Bedeutung in der wissenschaftlichen Gemeinschaft geht.

Dabei gibt es, wie bei den Rankings allgemein, auch für zitationsbasierte Personenrankings viele mögliche Varianten. Eine begründete Einigung auf eine oder wenige wäre gut, während sich bis dahin jeder im Grunde ex post das Ranking aussuchen kann, bei dem er mehr oder weniger zufällig am besten abschneidet. Außerdem ist die Datenerhebung bei zitationsbasierten Rankings ziemlich schwierig und jedes Mal neu nötig, da die Zitationen für einen Veröffentlichungsjahrgang prinzipiell nie abgeschlossen sind. Dafür lässt sich das Verfahren grundsätzlich in jedem Fach anwenden, wobei die Grundlage der Quellen, aus denen die Zitationen bestimmt werden, von großer Bedeutung bleibt, auch wenn die Zitationen selbst darüber hinausweisen. Da die ISI-Datenbanken nur sehr wenig deutschsprachige Zeitschriften enthalten, könnte sich auch ein Übergang zu Google Scholar anbieten.Footnote 10