Eine Warnung vorweg: Dies ist kein typischer Publizistik-Aufsatz. Er beruht auf einem Vortrag, den ich im Oktober 2015 auf dem Symposium „Perspektiven der Wissenschaftskommunikation“ aus Anlass des 60. Gründungsjahres der Zeitschrift Publizistik gehalten habe. Als jemand, der bislang noch nie in dieser Zeitschrift veröffentlich hatte, betrat ich neues Terrain und fühlte mich durchaus geschmeichelt, von den Veranstaltern eingeladen worden zu sein. In der Folge meines Vortrags machte sich im Publikum allerdings ein klein wenig Weltuntergangsstimmung breit, was unbeabsichtigt und gleichzeitig beabsichtigt war.

Um es klar zu sagen: Ich bin und bleibe ein Zeitschriftenenthusiast. Das Fach hat den Zeitschriften viel zu verdanken. Dessen ungeachtet sehe ich aber mit Sorge, wie unser Umgang mit Fachzeitschriften Entwicklungen hervorbringt, die – als überwiegend ungeplante Handlungsfolgen – ernste Konsequenzen für individuelle Wissenschaftlerkarrieren und auch die disziplinäre Entwicklung des Fachs nach sich ziehen. Und genau darum soll es in diesem Zwischenruf gehen.

Ich räume ein, dass dieser Beitrag ursprünglich unter dem Eindruck meiner – vergleichsweise bescheidenen – Erfahrungen als Zeitschriftenherausgeber (von Communication Theory), als Mitglied von Editorial Boards und als Manuskriptgutachter entstanden war. Die Daten und Studien, auf die ich mich im Folgenden beziehen werde, sind weitgehend unwidersprochen; ihre Auswahl und meine Schlussfolgerungen sind es nicht. Viele Kolleginnen und Kollegen mögen meiner Diagnose aus verschiedenen Gründen nicht zustimmen. Deshalb sollte mein Beitrag eher als subjektive Meinungsbekundung verstanden werden denn als empirisch gesättigte Bestandsaufnahme der disziplinären Fachzeitschriftenkultur. Ohne Zweifel aber wandelt sich diese Kultur gerade mit aller Macht – und zwar unmittelbar vor unseren Augen.

Selbstverständlich gibt es viel Positives über Fachzeitschriften zu sagen. Fachzeitschriften sind eine – wenn nicht sogar die – zentrale Plattform für wissenschaftlichen Austausch und Diskurs. Sie sind Taktgeber der Fachentwicklung und Instrument der wissenschaftlichen Qualitätssicherung. Und nicht zuletzt sind Fachzeitschriften auch unverzichtbare Quelle für Erfolgserlebnisse und positive Gefühle. Jeder von uns erinnert sich bestimmt noch an das Triumphgefühl, das ihn überkam, als sein erstes Manuskript bei einer hoch angesehenen Fachzeitschrift angenommen wurde. Für viele von uns entschied sich in genau diesem Moment die wissenschaftliche Zukunft. Jetzt gehörten wir dazu; wir erlangten den Status eines vollwertigen und nun auch schlachterprobten Mitglieds der „scientific community“.

Das Problem aber sehe ich darin, dass die genuin inhaltliche Rolle von Fachzeitschriften durch eine instrumentelle (Um-)Nutzung zunehmend an den Rand gedrängt wird. Fachzeitschriften sind eben nicht mehr nur der Ort, wo wir unsere Forschungsergebnisse diskutieren. Sie sind zunehmend der Raum, in dem Reputation und – mittelbar – auch Karrieren verhandelt werden. Die Erfahrung aus zahlreichen Berufungskommissionen zeigt, dass die persönliche Zukunft von Wissenschaftlern heute eng mit der Fähigkeit verknüpft ist, Forschungsbeiträge in renommierten Fachzeitschriften unterzubringen. Zeitschriftenaufsätze – vor allem solche in vermeintlich „guten“ Zeitschriften – werden damit zur „harten“ Währung bei der Zuschreibung von Reputation. Im Kontext einer schleichenden Durchrationalisierung von Wissenschaft und Forschung werden unsere Fachzeitschriften auf diese Weise zum Teil des akademischen Belohnungssystems und spielen als Instrument der Ressourcenverteilung eine zunehmend entscheidende Rolle (z. B. bei Berufungszusagen und bei der Vergabe von Forschungsmitteln). Ich bin der Überzeugung, dass sich Fachzeitschriften durch diese Entwicklungen von ihrer inhaltlichen Rolle entfernen und zunehmend auch strategisch als Steuerungsinstrument missbraucht werden. Drei Fehlentwicklungen möchte ich in diesem Beitrag hervorheben: 1) den ökologischen Fehlschluss von Zeitschriften-Impact auf die Qualität einzelner Aufsätze und Wissenschaftler, 2) die Gleichsetzung von Zitationen, Impact und Qualität und 3) den unreflektierten Umgang mit dem Peer Review.

1 Zeitschriften-Impact und individuelle Forschungsleistung

Der Impact oder die Bedeutung von Fachzeitschriften bemisst sich üblicherweise danach, wie oft Beiträge aus einer Zeitschrift zitiert werden. Der allgemein verwendete Journal Impact Factor, wie er heute von Thomson Reuters jährlich ausgewiesen wird, zählt vereinfacht gesagt für die Zeitschrift A im Jahr X alle Zitationen von Beiträgen, die in den zwei vorangegangenen Jahren darin publiziert wurden, geteilt durch die Gesamtzahl der dort erschienen Beiträge. Ein Beispiel: Wenn das (selbstverständlich fiktive) Journal of Published Papers (JPP) in den Jahren 2012 und 2013 insgesamt 40 Artikel veröffentlicht hat, die im Jahr 2014 zusammengenommen 60 Mal zitiert wurden, dann hat das JPP im Jahr 2014 einen Impact von 1,5 (60: 40 = 1,5). Man kann und sollte natürlich darüber streiten, ob ein solcher „Zweijahres-Impact“ den Realitäten der sozialwissenschaftlichen Forschung gerecht wird. Vermutlich eher nicht. Damit sich neue Ideen im wissenschaftlichen Diskurs durchsetzen können, braucht es Zeit. Oft viel Zeit. Im Fach wird daher immer häufiger der „Fünfjahres-Impact“ als Alternative verwendet.

So weit, so gut. Oft wird der Zeitschriften-Impact allerdings von einer wachsenden akademischen Bewertungs- und Reputationsindustrie verwendet, um den Einfluss von einzelnen Forschern, Institutionen und der Forschung insgesamt zu taxieren. Dies ist jedoch ein fataler ökologischer Fehlschluss. Ich erinnere mich an eine Debatte in einer Berufungskommission, in der zwei Kandidaten bzw. Kandidatinnen im Gespräch waren. Beide Personen waren etwa gleich häufig zitiert, und letztlich wurde das Argument vorgebracht, dass Person A in den „besseren“ Zeitschriften publiziert habe – und damit selbsterklärend der „bessere“ Kandidat sei.

Dabei könnte man doch die Frage stellen, wie stark der Zusammenhang zwischen Zeitschriften-Impact und Artikel-Impact – gemessen an der Häufigkeit der Zitationen – tatsächlich ist. Im Fach wissen wir (noch) relativ wenig darüber. Für die Psychologie haben Hegarty und Walton (2012) vor einigen Jahren insgesamt 1133 Artikel ausgewertet, die zwischen 1996 und 2005 in neun führenden Fachzeitschriften erschienen waren. Die Studie konnte zeigen, dass die Korrelation zwischen Artikel-Impact und Journal-Impact bei 0,27 liegt. In anderen Worten: Der Journal-Impact erklärt nur ganze 7,3 % der Varianz des Artikel-Impacts. Der Grund ist simpel: Die wenigsten der selbst in den besten Zeitschriften publizierten Fachbeiträge werden in substanziellem Umfang zitiert. Eine Recherche in der Datenbank von Thomson Reuters zeigt für die Sozialwissenschaft, dass im Jahr 2012 erschienene Beiträge in den im Social Science Citation Index gelisteten Fachzeitschriften durchschnittlich 3,5 Mal zitiert wurden (Stand: 9. Dezember 2015). Auf Aufsätze aus dem Jahr 2010 wurde im Mittel bislang 6,8 Mal verwiesen. Nur etwa ein Prozent der Artikel wurden bis zum jetzigen Zeitpunkt 28 Mal zitiert (Beiträge aus 2010: 53 Zitationen für das obere 1 %-Quantil).

Das Zitationsaufkommen von Beiträgen einer Zeitschrift ist also extrem ungleich verteilt: Auf einige wenige gut wahrgenommene Artikel folgt ein „long tail“ von nicht bzw. wenig zitierten Beiträgen. Letztlich wird der Zeitschriften-Impact entscheidend geprägt von den vergleichsweise wenigen Beiträgen, die extrem häufig zitiert werden.

Wann immer der Impact von so genannten Top-Zeitschriften bei der Bewertung der individuellen Forschungsleistung zugrunde gelegt wird, profitieren also auch jene Autoren von einem hohen Impact, deren Beiträge zwar in derselben Zeitschrift erschienen sind, die aber selten bis nie zitiert wurden. Und damit nicht genug: Schließlich könnte man ja auch noch auf die Idee kommen, dass manche Fachbeiträge schlicht deswegen häufiger zitiert werden, weil sie im Journal of Communication erschienen sind – und nicht in einer anderen, weniger Impact-starken Zeitschrift.

Der Zeitschriften-Impact ist deshalb kein geeignetes Kriterium zur Beurteilung der Forschungsleistung von einzelnen Wissenschaftlern und Wissenschaftsinstitutionen. Die European Association of Science Editors hat daher bereits im November 2007 eine Erklärung herausgegeben, in der sie vor der Nutzung des Journal-Impact-Faktors für die Bewertung einzelner Publikationen, Wissenschaftler und Institutionen ausdrücklich warnt (vgl. EASE 2007). Eine ähnliche Warnung sprachen 2012 insgesamt 82 Wissenschaftsinstitutionen in der „San Francisco Declaration on Research Assessment“ aus. Die Deklaration wurde mittlerweile von über 12.600 Wissenschaftlern und fast 600 Institutionen weltweit unterzeichnet (vgl. DORA 2012).

2 Zitationen, Impact und Qualität

Eines ist auch dem größten Kritiker der Messung und Verwertung von Zeitschriften-Impact klar: Nicht alle Journals sind gleich bzw. gleich gut oder gleich wichtig. Es geht mir also nicht um eine grundsätzliche Systemkritik, sondern darum, dass wir mit den Schwächen des Systems bewusst umgehen und uns vor Augen halten sollten, dass wir für die Folgen unseres Umgangs mit dem Journal-Impact selbst verantwortlich sind.

Als „Vater“ des Journal-Impact-Faktors und der bibliometrischen Zitationsanalyse gilt gemeinhin Eugene Garfield. Der 1925 in New York geborene Linguist war in der Mitte der 1950er Jahre zunächst als Berater für pharmazeutische Unternehmen tätig, für die er Inhaltsverzeichnisse der relevanten Fachzeitschriften erstellte. In einem Aufsatz in Science schlug er 1955 erstmalig vor, Zitationen wissenschaftlicher Veröffentlichungen systematisch zu erfassen (Garfield 1955). Aus dem zunächst entwickelten Genetics Citation Index entstand 1963 der Science Citation Index; 1973 kam der Social Sciences Citation Index hinzu. Heute wird die Indexierung der Fachzeitschriften durch den Medienkonzern Thomson Reuters vermarktet.

Der Journal-Impact-Faktor war von Garfield also ursprünglich als Hilfsmittel für Bibliotheken entwickelt worden, um einschätzen zu können, welche Fachzeitschriften anzuschaffen sich lohnt. Diesen Entstehungskontext hat der Zeitschriften-Impact aber längst hinter sich gelassen. Oft wird er schlicht als Ersatz bzw. als Proxy für wissenschaftliche „Qualität“ verwendet. Und das, obwohl die Qualität des Impacts bei der reinen Zählung von Literaturverweisen überhaupt keine Rolle spielt. Dabei macht es doch einen realen Unterschied, ob eine wissenschaftliche Arbeit in der Substanz zitiert oder ob ein Literaturverweis eher instrumentell platziert wird. Bei Letzterem könnte es sich zum Beispiel um reines „Name dropping“ handeln. Oder ein Autor versucht, durch Zitationen gezielt potenzielle Gutachter milde zu stimmen.

Auch hier könnte das Fach mehr Grundlagenwissen produzieren. In einer bemerkenswerten Studie von Beatty et al. (2012) haben die Autoren den intellektuellen Einfluss von Referenzen untersucht, die auf Artikel verwiesen, die von 2007 bis 2009 in Communication Monographs und Human Communication Research erschienen waren. Hierfür definierten sie zunächst die Kategorie der „Einflusszitation“ („influence citation“). Diese musste mindestens eine der folgenden Voraussetzungen erfüllen: Der zitierte Beitrag 1) war theoretische Grundlage, 2) diente zur Begründung der Hypothesen, 3) war Quelle von konzeptionellen Ideen und/oder 4) fundierte die methodische Umsetzung. Von den insgesamt 579 untersuchten Verweisen konnten Beatty et al. nur ganze 155 Literaturverweise – das heißt 27 % der Gesamtmenge – als intellektuelle Einflusszitationen identifizieren. Der Rest bestand überwiegend aus „Nutzzitaten“, die für die Entwicklung des eigenen Ansatzes nur eine geringe bis keine Rolle spielten.

Der Impact – gemessen an der Zahl von Zitationen – allein ist also nicht zwingend ein Beleg für die Qualität eines wissenschaftlichen Beitrags. Oft wollen wir als Autoren damit zeigen, dass wir die Breite der einschlägig relevanten Literatur kennen. Manchmal aber dienen Verweise auch als Abgrenzung, wobei vor allem die Auseinandersetzung mit Defiziten in anderen Arbeiten gesucht wird.

3 Das Peer Review

Von allen in diesem Beitrag angesprochenen Entwicklungen produziert das Peer Review vermutlich die meisten intuitiven Reflexe. Richard Smith (2006), langjähriger Herausgeber des British Medical Journal, vergleicht das Peer Review mit der Demokratie: Es ist ein System mit vielen Problemen, aber das am wenigsten schlechte, das wir haben. Smith wurde einst von zwei renommierten Kollegen darauf angesprochen, was er davon halte, einmal eine Ausgabe zu produzieren, die nur abgelehnte Manuskripte enthält. Auf diesen Vorschlag hat er nach eigener Darstellung geantwortet: „How do you know I haven’t already done it?“ (Smith 2006, S. 178) Das ungute Bauchgefühl, das die meisten von uns beim Peer Review haben, schlägt sich entweder in einer fundamentalen Ablehnung nieder oder in einem Zynismus, der mit den Berufsjahren wohl eher wächst.

Die Schwächen des Peer-Review-Systems sind ja auch hinlänglich dokumentiert. Eine der spektakulärsten Studien ist vermutlich die Arbeit der Psychologen Peters und Ceci aus dem Jahre 1982. Für ihre Studie hatten die Autoren zwölf Artikel ausgewählt, die einige Zeit zuvor bereits bei renommierten psychologischen Fachzeitschriften erschienen waren. Nach einer Modifizierung der Namen und Herkunftsinstitute der Autoren wurden diese Beiträge bei denselben Zeitschriften neu eingereicht. Das Ergebnis war geradezu erschütternd und eigentlich sogar ziemlich bizarr: Von den zwölf wiedereingereichten Manuskripten wurden immerhin drei Beiträge als Duplikate identifiziert und ein Artikel wurde angenommen. Die restlichen acht Manuskripte wurden von den jeweiligen Zeitschriften abgelehnt, zumeist aufgrund von gravierenden methodischen Schwächen – und das, obwohl sie in diesen Zeitschriften zuvor bereits erschienen waren.

Ein anderes Problem ist die oft mangelnde Konsistenz der Gutachten von Manuskript-Einreichungen bei Fachzeitschriften. Neuman et al. (2008) berichten von einer Korrelation in der Größenordnung von 0,3, auf die Studien aus verschiedenen Disziplinen hin konvergieren. In ihrer eigenen Untersuchung von Einreichungen für das Journal of Communication berichten die Autoren dann aber von einer Übereinstimmung zwischen den Gutachter-Voten in insgesamt 69 % der Fälle. Allerdings beziehen sich diese Angaben überwiegend auf Manuskripte mit zwei Gutachtern, deren Voten jeweils nur als „Annahme“ oder „Ablehnung“ codiert wurden. Damit ergibt sich eine Wahrscheinlichkeit für eine zufällige Übereinstimmung von allein schon 50 %, was das Ergebnis von 69 % Übereinstimmung in einem etwas anderen Licht erscheinen lässt. Dennoch kann eine mangelnde Konsistenz zwischen den Gutachten fachpolitisch auch als Vorteil gesehen werden, denn immerhin zeugt dies auch von perspektivischer Vielfalt.

Nach meiner Beobachtung birgt die Begutachtung von Manuskripten nach dem Peer-Review-Verfahren letztlich die Gefahr einer Tendenz zum Mainstreaming und Normalisierung bestimmter wissenschaftlicher Perspektiven und Praktiken. Diese Gefahr ist immer dann besonders groß, wenn Zeitschriftenherausgeber das Peer Review nur mechanisch und wenig reflektiert handhaben.

4 Die Konsequenzen

Die oben genannten problematischen Entwicklungen haben ernste Folgen für einzelne Forscher und die Fachentwicklung insgesamt. Mit Blick auf die individuellen Konsequenzen zeigt sich, dass der Publikationsdruck dramatisch gestiegen ist. Dies gilt vor allem für junge Nachwuchswissenschaftlerinnen und Nachwuchswissenschaftler, deren Karrieren immer häufiger von Impact-Bewertungen abhängen. Mit diesem Druck einher geht ein zunehmender und zunehmend dysfunktionaler Wettbewerb. Vor einiger Zeit erhielt ich von einem jungen Kollegen aus den USA folgende, vielsagende E-Mail: „My wife is pregnant, and so I am so excited, though I am trying to be INSANELY productive before the baby comes in December … also my department thinks that I have to have a million articles…“.

Auch habe ich von meinen Mitarbeiterinnen und Mitarbeitern schon die bange Frage gehört: „Wie viele Zeitschriftenartikel muss ich pro Jahr produzieren, um in der Wissenschaft zu überleben?“ Ich bin mir wirklich nicht sicher, wie und was ich auf diese Frage antworten soll. Braucht es einen Artikel, oder zwei, oder mehr? Diese Frage spricht deutlich für die gegenwärtige Verunsicherung von Nachwuchswissenschaftlern. Die Beobachtung von potenziellen Konkurrenten um vergleichsweise begehrte Stellen in der Wissenschaft befeuert ein geradezu wahnwitziges Publikations-Wettrüsten. Und der führt vom Hamsterrad geradewegs in einen Teufelskreis. Das Motto ist: „Ich publiziere, also bin ich.“ Junge Nachwuchsforscher beobachten, wie (und vor allem: wie viel) ihre Kollegen (und potenziellen Konkurrenten um Professuren) publizieren. Selbstverständlich versuchen sie, mit diesem Tempo Schritt zu halten und – wann immer möglich – noch mehr zu publizieren. Die permanente Wettbewerber-Beobachtung wird noch intensiviert durch soziale Medien wie Facebook, Twitter, ResearchGate und Academia. Da kaum jemand seine Misserfolge in sozialen Medien kommuniziert (wie z. B. Manuskripte, die von Fachzeitschriften und Konferenzorganisatoren abgelehnt wurden), entsteht subjektiv der Eindruck, die anderen seien viel erfolgreicher als man selbst. Dies geschieht vor allem dann, wenn jedes Jahr am 15. Januar die einschlägigen Kanäle heiß laufen mit Botschaften wie: „Five papers accepted by ICA! Greetings from Amsterdam…“.

Der zunehmende Publikationsdruck lastet freilich nicht nur auf dem wissenschaftlichen „Nachwuchs“. Die größer werdende Flut von Einreichungen bei Fachzeitschriften schlägt sich auch in der Arbeitsbelastung von Herausgebern und Gutachtern nieder. Dies gilt vor allem für die „Top“-Zeitschriften, auf die sich ein großer Teil der Einreichungen wegen der zunehmenden Orientierung an Impact-Faktoren konzentriert. Abbildung 1 ist eindrucksvoller Beleg für diesen Publikationswettlauf. Mit Daten des SCImago Journal & Country RankFootnote 1 lässt sich zeigen, dass im Jahr 1999 insgesamt 1583 Artikel in den in der Datenbank gelisteten Fachzeitschriften publiziert wurden. Im Jahr 2013 war diese Zahl auf 6911 Beiträge angewachsen. Das Gesamtvolumen von Zeitschriftenaufsätzen hat sich innerhalb von 14 Jahren also verviereinhalbfacht. Diese Zunahme steht in keinem Verhältnis zum Wachstum der Fachcommunity – in Abb. 1 angedeutet durch die Mitgliederzahlen der International Communication Association.

Abb. 1
figure 1

Zahl der Zeitschriftenaufsätze und ICA-Mitglieder von 1999 bis 2013. (Quelle: SCImago Journal & Country Rank und International Communication Association 2015)

Die zunehmende Menge von Einreichungen bei Fachzeitschriften ist im normalen Wissenschaftsalltag kaum mehr zu bewältigen. Einige Herausgeber befinden sich daher anscheinend auf dem intellektuellen Rückzug. Nicht selten findet eine Auseinandersetzung mit eingereichten Manuskripten kaum mehr statt; Herausgeber entscheiden mechanisch nach Lage der Gutachten. Autoren erhalten eine unpersönliche Mitteilung (nicht selten unterzeichnet von einem redaktionellen Assistenten), in der die redaktionelle Entscheidung überbracht und für weitere Erläuterungen schlicht auf die Gutachten verwiesen wird. Nachfragen bleiben unbeantwortet; Zeitschriften werden mehr verwaltet als herausgegeben.

Auch die Qualität der Gutachten leidet. Gutachter ziehen sich zurück oder nehmen sich wenig Zeit für Reviews. Herausgeber selbst von führenden Fachzeitschriften verbringen mittlerweile einen großen Teil ihrer Zeit damit, Kollegen unter Aufbietung größter Überzeugungskraft für Gutachten zu gewinnen und überfälligen Gutachtern hinterherzutelefonieren. Unter diesen Bedingungen haben es Fachgesellschaften zunehmend schwer, geeignete Personen für Herausgeberschaften zu gewinnen.

5 Konsequenzen für die Fachentwicklung

Die Orientierung an Fachzeitschriften und Impact hat freilich auch Konsequenzen für die Fachentwicklung insgesamt. Der Bedeutungsgewinn von Zeitschriftenbeiträgen geht auf Kosten anderer Formate, vor allem von Monografien und Buchbesprechungen. Das Resultat ist eine Normalisierung des Zeitschriftenartikel-Formats als „Publikationsstandard“. Damit einher geht ein Mainstreaming von „wissenschaftlicher Forschung“, bei dem eine bestimmte Form von Forschung privilegiert wird, die sich prinzipiell für eine Publikation in Zeitschriften eignet. Auf diese Weise wird eine gemeingefährliche Anreizstruktur geschaffen. Warum sollten unter Publikationsdruck stehende Forscher auf zeitaufwändige, komplexe und risikoreiche Forschungsstrategien setzen, wenn ein kleinskaliertes empirisches Seminarprojekt viel schneller zum Zeitschriftenartikel führt?

Instrumentelle Publikationsstrategien haben deshalb zurzeit Konjunktur. Dabei geht es darum, mit dem geringstmöglichen Aufwand einen maximalen „Publikations-Output“ zu erzielen. Der Weg dahin führt oft über das so genannte Least Publishable Piece – ein Beitrag, der gerade noch so die Mindestanforderungen an einen Zeitschriftenartikel erfüllt. Oder anders ausgedrückt: Manuskripte, die vielleicht nicht sonderlich originell oder interessant sind, deren solide empirische Umsetzung es den Gutachtern aber schwer macht, sie aufgrund von methodischen Mängeln abzulehnen. Auf diese Weise wird ein Publikations-Output erzeugt, der in keinem gesunden Verhältnis zum erzielten Wissensgewinn steht. Wenn es Zeitschriftenherausgebern dann auch noch an einer Vision mangelt und eine inhaltliche Auseinandersetzung mit Manuskripteinreichungen nicht mehr stattfindet, dann privilegiert das Peer Review konventionelles Denken auf Kosten unkonventioneller, risikoreicher Ideen. Konventionelle Ansätze lassen sich schließlich viel besser an bestehende Forschung anschließen. Das Resultat ist dann Normalwissenschaft und konzeptionelle Stagnation (vgl. Kuhn 1962; Hanitzsch 2015).

6 Ist Widerstand zwecklos?

Die Fachzeitschriften entwickeln sich auf diese Weise zu einer Gratifikationsmaschine und einer Reputationsbewertungsindustrie, in die wir immer mehr Zeit investieren und die sich immer mehr von ihrer eigentlichen Funktion entfernt. Wir machen es uns leicht und schwer zugleich: Wir verwenden unsere besten Jahre darauf, um immer mehr Artikel für immer längere Lebensläufe zu produzieren. Wir sind produktiv wie nie zuvor, generieren aber kaum einen Wissenszuwachs, der in einem sinnvollen Verhältnis zur Publikationsmasse steht.

Mag sein, dass dieser Beitrag in einer langen Reihe von Lamentos übersaturierter Professoren steht, von denen wir vielleicht zu viele lesen. Und natürlich wird der Untergang der Wissenschaft nicht stattfinden. Dennoch ist es unsere Pflicht, den wissenschaftlichen Nachwuchs vor einem sinnlosen Publikationswettrüsten zu schützen, das wie der sprichwörtliche Sand in die Räder zukunftsorientierter Forschung weht. Wir müssen unser Fach gegen eine schleichende intellektuelle Austrocknung immunisieren, die eine zunehmend an quantitativen Rationalitäten angepasste Wissenschaft mit sich bringt. Brauchen wir wirklich immer mehr Fachzeitschriften? Ich glaube nicht. Wir haben den Punkt der Sättigung längst erreicht. Was wir brauchen, ist mehr Selektivität und Entscheidungsfreudigkeit auf Seiten der Herausgeber. Wir brauchen Gutachter, die hart aber fair urteilen. Und wir brauchen alle mehr Freiheit, dem Publikationsdruck zu widerstehen. Aber das sind natürlich alles nur fromme Wünsche, denn niemand kann schließlich genau sagen, wie wir die Publikationsspirale aufhalten können. Vollkommen zwecklos scheint Widerstand aber nicht zu sein. Und der beginnt vielleicht damit, dass uns allen im Grunde doch ziemlich klar ist, dass es so nicht ewig weitergehen kann.