1 Einleitung

„Geistiges Eigentum“ ist eine Idee der Neuzeit: Dass ein Text wie die Bibel oder eine Technologie wie die Windmühle auf einen einzelnen menschlichen Autor oder Erfinder zurückzuführen sei, war zuvor undenkbar, denn alle Erzählung und alle Handwerkskunst waren traditionellen und damit letztlich göttlichen Ursprungs (Siegrist 2004, 2006; Lamping 2010, S. 66 ff.). Erst im Geniekult des bürgerlichen Zeitalters werden einzelne Personen als Künstler, Philosophen und Naturwissenschaftler nun selbst zu „Göttern“, indem ihnen einzelne Produkte einer zunehmend mobilen, arbeitsteiligen und anonymen Gesellschaft als kreative Werke, als „Schöpfungen“ zugerechnet und ihre Namen damit unsterblich gemacht werden. Im digitalen Zeitalter wiederum scheinen Rechtstitel, die „geistiges Eigentum“ reklamieren, nun einerseits noch wichtiger, andererseits jedoch prekärer zu werden.

Wichtiger werden sie, weil gewöhnliche, das heißt repetitive Arbeit zunehmend durch Maschinen ersetzt wird und weil gewöhnliches, das heißt monetär fungibles Kapital im Überfluss vorhanden ist. Arbeit und Kapital, die zentralen Wirtschaftsfaktoren des Industriezeitalters, sind zwar nicht obsolet geworden, aber sie begründen für sich genommen keine Konkurrenzvorteile mehr. Wissen, das schon zuvor – verkörpert in Arbeit und Maschinen – für die wirtschaftliche Entwicklung wesentlich war, soll nun rechtlich besonders geschützt werden (Stehr 1994; Foray 2006; Merges et al. 2004). Prekär werden Rechte des geistigen Eigentums, weil Kopieren immer einfacher wird. Zwar beruht schon die industrielle Produktion auf Kopieren, indem Gegenstände massenhaft und gleichförmig hergestellt werden, aber durch die Digitalisierung wird die Kopiertätigkeit soweit trivialisiert, dass sie vielfach in den schwer kontrollierbaren Privatbereich der Nutzer übergeht: Zur Vervielfältigung eines Buches braucht man keinen Verlag und keine Druckerpresse mehr; man stellt es auf einen Server im Internet, der geneigte Leser kann eine Kopie herunterladen, anschauen und bei Interesse auf dem eigenen Rechner speichern. Indem sich die Kopie von einer konkreten materiellen Trägersubstanz löst, werden auch Distribution und Verbleib zunehmend unkontrollierbar.

Dieser Widerspruch – zwischen zunehmender Relevanz und zunehmender Erosion des Wissensschutzes – wird auch in der gegenwärtigen Politisierung von Immaterialgüterrechten sichtbar: Zum einen versuchen insbesondere die USA, aber auch die EU seit ca. 30 Jahren, Rechte des geistigen Eigentums zu verschärfen und global zu vereinheitlichen (Meier 2005; Scotchmer 2003; Landes und Posner 2003). Unterstützt werden sie dabei von Teilen der Industrie, soweit diese nämlich stromauf („upstream“) in wissenschaftsbasierten Wertschöpfungsketten sitzen, d. h. näher an den Forschungsquellen platziert sind und daher von erweiterten Rechten des geistigen Eigentums profitieren, die dann entsprechend nicht nur marktnahe Innovationen, sondern auch Erkenntnisse im Bereich der Grundlagenforschung schützen. Zum anderen regt sich Widerstand: außenpolitisch vonseiten der Entwicklungs- und Schwellenländer, die sich in ihrem Aufholbestreben blockiert sehen; industriepolitisch von Verbänden, deren Unternehmen eher stromab, d. h. mehr in der Nähe der Endverbraucher angesiedelt sind; und innenpolitisch – und damit in der Öffentlichkeit weithin sichtbar – vonseiten der Internetnutzer, die sich von den Medienindustrien kriminalisiert fühlen und nun als „Piraten“ in die Parlamente einziehen.

Aber was kann die Soziologie Neues, spezifisch „Soziologisches“ zu diesen Entwicklungen sagen (Rhoten und Powell 2007; Carruthers und Ariovich 2004)? Soll sie nicht – wie bisher – den Wirtschaftswissenschaften und den Rechtswissenschaften das Feld überlassen? In dieser Abhandlung vertreten wir die These, dass Rechte des geistigen Eigentums, wie überhaupt Eigentumsrechte, sehr wohl ein soziologisch interessanter Gegenstand sind, weil man sie nämlich nicht einfach aufgrund eines einmaligen „Schöpfungsaktes“ besitzt, sondern weil sie beständiger Erosion unterworfen sind und daher nur durch fortwährende Anstrengungen aufrechterhalten werden können (vgl. Schubert et al. 2011). Diese Anstrengungen, die Ansprüche auf gesellschaftliche Anerkennung und materielle Vergütung begründen, wollen wir als „Kontextualisierungs- und Gewährleistungsarbeit“ bezeichnen. Diese Arbeit bezieht sich nicht so sehr auf die Erfindung oder Idee selbst, sondern vor allem auf das, was danach kommt: auf deren Erhärtung, Durchsetzung und Verantwortung. Da der „homo ludens“ (Huizinga 1949), der „spielerische Mensch“, von Natur aus zur Kreativität neigt, gibt es Erfindungen und Ideen im Überfluss. Gesellschaftlich nützlich werden sie erst dadurch, dass sie von vielen Menschen als brauchbar angesehen werden, indem sie technische Anschlussmöglichkeiten oder kognitive, moralische und ästhetische Orientierung bieten. Oder mit einem berühmten Zitat ausgedrückt, das Thomas Alva Edison zugeschrieben wirdFootnote 1: „Genius is one per cent inspiration, ninety-nine per cent perspiration.“ Edison ist demnach nicht kraft eines einfachen Geistesblitzes der „Erfinder der Glühbirne“, sondern durch seine Unternehmertätigkeit, indem er Erkenntnisse über elektrische Phänomene aufgegriffen und in harter Arbeit gezeigt hat, dass Beleuchtung mit elektrischem Strom unter bestimmten Umständen, die erst nach und nach etabliert werden mussten, anderen Technologien überlegen ist. Genau das hat die technikhistorische und wirtschaftshistorische Forschung zu Edison auch gezeigt (Hughes 1993; David 1992). „Kopfgeburten“, von denen es viele gibt, müssen also „zur Welt gebracht“, d. h. in den Kontext anderer Prozesse eingebettet werden (Hauschildt und Salomo 2011).

Entdeckungen, Erfindungen und künstlerische Darstellungen setzen sich also nicht deshalb durch, weil alle Welt sofort ihre Genialität erkennt, sondern weil und soweit sich um sie herum soziotechnische Netzwerke etablieren, die sie in Konkurrenz gegen andere, bereits etablierte oder ebenfalls neue Vorstellungen und Erzeugnisse durchsetzen. Erst im Nachhinein, nach erfolgreicher Etablierung, wird dann der Mythos der Genialität konstruiert, um die Kontingenz des Sieges vergessen zu machen und die Entwicklung so darzustellen, als ob die Menschheit schon immer auf sie gewartet hätte. Heute, da elektrische Beleuchtung überall üblich ist, kann man sich auch nur noch schwer vorstellen, dass Alternativen möglich gewesen wären.

Diese Überlegung ist nicht neu, sondern eine zentrale und mittlerweile gut erhärtete These der neueren Wissenschaftsforschung, wie sie sich als Science and Technology Studies (STS) im angelsächsischen Sprachraum in den letzten dreißig Jahren fest etabliert hat (z. B. Jasanoff et al. 1994). Was wir hier versuchen, ist, diese Perspektive auf den Gegenstand „geistiges Eigentum“ anzuwenden, also in die Wirtschaftssoziologie und darüber hinaus in die Debatte über Intellectual Property Rights (IPR) hineinzutragen. Damit wenden wir uns gegen Grundannahmen, welche die Auseinandersetzungen in der Ökonomik und der Jurisprudenz entscheidend prägen. Wie immer kontrovers die Standpunkte in beiden Fächern sein mögen, unhinterfragt vorausgesetzt werden dort zwei grundlegende Vorstellungen: einerseits das „Anreiztheorem des Erfindens“, andererseits das „Diffusionstheorem der Innovation“. Im Anreiztheorem wird das Erfinden selbst, also der Geistesblitz, zum knappen Gut stilisiert, dessen Hervorbringung durch gesellschaftliche Anreize, also insbesondere durch die kommerziellen Verwertungsmonopole des geistigen Eigentums – Patente, Copyrights etc. – besonders motiviert werden müsse (Maskus 2000; NIPRCC 2011). Im Diffusionstheorem wird hingegen behauptet, dass Verwertungsmonopole die Verbreitung und Weiterentwicklung einer Idee oder Erfindung unnötig behindern, insbesondere dann, wenn sie zu umfassend sind, also dem Rechteinhaber ein zu weites Feld für zu lange Zeit einräumen und die Konkurrenz unnötig beschränken (Arrow 1962; Nelson 1992; Lessig 2004). Der Dissens besteht dann in beiden Disziplinen in Fragen des Zuschnitts, der Abstufung und der Abwägung, während die Gültigkeit der skizzierten Grundannahmen als selbstverständlich hingenommen wird. Entsprechend wird auch die normative Implikation akzeptiert, dass Erfindungen und ihre Verbreitung für die Gesellschaft nützlich, das zugrunde liegende Wissen wertvoll seien.

Als Soziologen wollen wir diese normative Diskussion in eine empirische Frage umformen: Welche Innovationsbemühungen werden in der Gesellschaft von heute tatsächlich anerkannt und honoriert? Denn weder der Fortschrittskonsens noch der Objektivitätskonsens des Industriezeitalters können heute als fraglos vorausgesetzt werden (Beck 1986; Rorty 1989; Feyerabend 1988). Mit den zunehmenden Unsicherheiten in der Sozialordnung des Wissens verschieben sich auch die Grundlagen des geistigen Eigentums – daraus ergibt sich ein wichtiges Forschungsfeld für die Soziologie. Dadurch, dass unser Konzept der Autorisierung bewusst sehr breit gefasst ist, wollen wir den Suchhorizont öffnen, um den Blick einerseits für den Wandel in den gesellschaftlichen Nützlichkeitsbeurteilungen, andererseits für den Wandel in den Formen der Anerkennung und Honorierung zu sensibilisieren. Mit dem Begriff der Autorisierung soll deutlich gemacht werden, dass sich die gesellschaftlichen Auseinandersetzungen nicht allein – oder nur vordergründig, nämlich der Rechtsform nach – auf die Frage „öffentlich versus kommerziell“ richten, sondern zugleich meist hintergründiger auch die Frage „autoritär versus egalitär“, also nach der zentralisierten oder dezentralen Verteilung von Definitionsmacht mitschwingt. Auch Open-Source-Software könnte „autoritär“ sein, wenn sie von einer staatlichen oder supranationalen Behörde als Standard festgelegt und verordnet würde, ebenso wie kommerzielle Wissensgüter auch „egalitär“ sein können, wenn auf dem Markt tatsächlich Chancengleichheit herrscht und die Monopolisierungstendenzen nicht überhandnehmen.

Diese Überlegungen wollen wir im weiteren Gang der Arbeit entfalten. Dazu stellen wir im nächsten Schritt zunächst unser Konzept der Autorisierung vor, mit dem sich der Fokus der Debatte weiten lässt, indem neben den Wissensproduzenten und ihren Bedürfnissen nach Honorierung auch die Wissens- und Technologienutzer mit ihren Bedürfnissen nach Orientierung, Zurechenbarkeit und Sicherheit ins Spiel gebracht werden (Abschn. 2). Sodann soll aufgezeigt werden, wie sich unterschiedliche Autorisierungsregime im Rahmen einer politisch-kulturell gedeuteten Wissensordnung positionieren (Abschn. 3). In einem weiteren Schritt soll dieses begriffliche und methodische Konzept an einem empirischen Fallbeispiel erprobt werden, nämlich der Saatgutzüchtung und ihrer zunehmenden Umformung in eine Hochtechnologie-Branche (Abschn. 4). Dieses Fallbeispiel führt uns vom 19. Jahrhundert in die Gegenwart und von Europa über Nordamerika bis nach Indien.Footnote 2 Wir fassen schließlich im fünften Abschnitt unsere Ergebnisse in drei Thesen zusammen und verweisen darüber hinaus auf die rechtspolitischen Schlussfolgerungen, die sich aus dem hier vorgeschlagenen Konzept der Autorisierung ergeben können.

2 Das Konzept der Autorisierung

Autorisierung ist ein vieldeutiger Begriff, er entfaltet sich in mehreren Dimensionen. Ein Autor, sei es eine Person oder eine Firma, beansprucht ein Werk, eine Entdeckung, eine Erfindung – sagen wir generell ein Wissensobjekt – für sich. Er oder sie reklamiert bestimmte Verfügungsrechte und einen Anspruch auf Anerkennung. Das ist die Bedeutung, die der Konnotation von „geistigem Eigentum“ am nächsten liegt. Allerdings – und das ist unsere abweichende These – tritt er damit auch in eine Verantwortung ein: „Eigentum verpflichtet“ – und indem jemand Verantwortung übernimmt, wird ihm auch ein exklusiver Kontrollanspruch, d. h. „Eigentum“ zugebilligt. Das ist die normative Annahme unseres Konzepts, von der wir glauben, dass sie empirisch gültig, d. h. im Legitimitätsglauben der Bevölkerung verankert ist. Geistiges Eigentum – und die ihm zugrunde liegende Authentifizierung – hat diesbezüglich für ein Medikament eine andere Bedeutung als für einen Popsong. Denn mit einem Medikament kann man sich aufgrund verborgener Nebenwirkungen schwer schädigen – und in den Entwicklungsländern, wo geistiges Eigentum nicht existiert oder nicht durchgesetzt wird, geschieht das auch sehr häufig (van Gelder und Stevens 2010).

Indem Wissen autorisiert wird, handelt es sich nicht mehr um ein anonymes Gerücht oder das gedankenlose Gewerkel eines namenlosen Pfuschers. Jemand identifiziert sich mit seiner Aufgabe und tritt mit seinem Namen dafür ein, er verbürgt sich für die Nützlichkeit und haftet für die Risiken. Aber besitzt dieser Name auch Gewicht, woher kommt die Autorität und Kreditwürdigkeit des Autors? Sie entspringt der Anerkennung, die dem früheren Werk des Autors, seiner Reputation oder dem Namen seiner Organisation gezollt wird. Entsprechend steigt auch die zugeschriebene Glaubwürdigkeit: Die Person oder Organisation hat einen Namen zu verlieren, sie haftet also mit ihrem mehr oder weniger langfristig erworbenen Reputationskapital. Da Wissen ein Vertrauensgut ist, dessen Qualität nicht vorab eingeschätzt werden kann, sondern erst im längeren Gebrauch zutage tritt, akzeptiert das Publikum am leichtesten Wissensansprüche und Wissensgüter, die von bereits etablierten Autoren stammen (Frank und Cook 1995; Keuschnigg 2012). Die Reputation stellt somit die Kapitalform der Honorierung dar, sie ist akkumulierte Anerkennung (Franck 2007; Karpik 2007). Damit schließt sich logisch besehen der Kreis: Aus einem selbstverstärkenden Kreislauf entspringt der Matthäuseffekt ungleicher Verteilung von Reputation und Autorität (Merton 1968). Wer schon des Öfteren genannt wurde, bekommt Validität leichter zugeschrieben, gewinnt Reputation und damit einen noch größeren Namen. Die, die oben sind, sind nicht notwendigerweise besser als andere, aber durch die Honorierung gewinnen sie Ressourcen, die sie zur Qualitätssteigerung einsetzen können (Adler 1985; Salganik et al. 2006; Benjamin und Podolny 1999). Hierin deutet sich auch schon die normative Ambivalenz von Autorisierung an: Je mehr die Aneignung, Akkumulation und Konzentration von Reputationskapital unterstützt werden, umso selbstverständlicher sind die Zurechnungen, umso leichter fällt die Orientierung, umso weniger gibt es die „Qual der Wahl“. Und umso autoritärer ist eine Gesellschaft, wenn die Definitionsmacht so stark konzentriert wird. Kognitiv emanzipiert ist sie hingegen, wenn namenlos alles gesagt werden kann – aber was könnten wir dann glauben (vgl. unten Abschn. 3)?

In der eingeübten Debatte zwischen Anreiztheorem und Diffusionstheorem beansprucht ein homo oeconomicus, auf Profitmaximierung bedacht, ein möglichst großes Wissensfeld – z. B. ein möglichst umfassendes Patent –, um einen möglichst hohen Profit zu erwirtschaften. Mit dem Konzept der Autorisierung wird dagegen deutlich, dass er dieses Feld nicht kraft einer Idee zugesprochen bekommt, sondern deshalb, weil er für die Validität von Wissen einsteht, für die Nützlichkeit und Sicherheit einer Technik sich verbürgt. Denn Ideen sind nicht nur im Überfluss vorhanden, sie sind zudem nie einer Einzelperson wirklich zuzurechnen – davon zeugen unter anderem die Mehrfachentdeckungen in der Wissenschaft (Merton 1963, 1979b). Beide Phänomene, der Überfluss an Ideen und ihr kollektiver Charakter, mögen für die meisten Beobachter einleuchtend sein, sobald sie sich jenseits des eingeübten Common Sense nur ein wenig mit den empirischen Vorgängen befassen. Aber die Gesellschaft hat offenbar ein vitales Interesse daran, Wissensfelder einzelnen Personen oder Organisationen zuzuschreiben und diese damit verantwortlich zu machen. Also dreht sich im Konzept der Autorisierung der Blick um: Es ist nicht nur der Autor, der von Geltungsdrang oder Geldmangel getrieben einen Wissensanspruch reklamiert, sondern es ist in Gegenrichtung auch die Rolle des Publikums zu betrachten, das ansonsten frei flottierendes Wissen autorisiert sehen will und deshalb selbst dort individuelle Autorenschaft zuschreibt, wo sie gar nicht eingefordert wird.

Nehmen wir als Beispiel Gregor Mendel: Wie jedes Schulkind aus dem Biologieunterricht weiß, hat er im Kloster zu Brünn irgendwann um 1870 herum die Erbgesetze entdeckt. Aber seine Publikation geriet in Vergessenheit, weil seine Zeitgenossen mit seinen Beobachtungen und Methoden noch nichts anzufangen wussten (Barber 1961). Sogar Mendel selbst hat wohl noch nicht die ganze Bedeutung und Tragweite seines eigenen Ansatzes erahnt (Müller-Wille und Rheinberger 2009, S. 33 ff.). Dreißig Jahre später, als Mendel längst tot war, wurden dieselben Zusammenhänge von drei Wissenschaftlern – Carl Correns, Erich Tschermak und Hugo de Vries – unabhängig voneinander und zur gleichen Zeit erneut beschrieben. Man könnte also sagen, dass jetzt die Zeit offenbar reif war, über diese Zusammenhänge nachzudenken, und jeder, der mit der Sache befasst und mit den Methoden vertraut war, über die Phänomene stolpern musste. Die Erbregeln waren – auf der Basis der unterdessen kollektiv entwickelten Erkenntnisinteressen, Beobachtungsgegenstände und Experimentalsysteme – „denkbar“ geworden, sie bemächtigten sich der entsprechend ausgebildeten Gehirne und wurden dann von diesen einfach folgerichtig gedacht. Warum halten die Schulbücher dennoch lieber an der Geschichte vom idyllischen Klostergarten fest und schreiben posthum persönliche Autorenschaft zu – in einem Moment also, wo sie von der Person und ihrem Umfeld gar nicht mehr beansprucht wird? Es ist wahrscheinlich ein ganzes Bündel von Motiven, das hier zum Tragen kommt: das Bedürfnis nach Konkretion und Personalisierung, nach Verantwortungszuschreibung, nach Heroisierung, und mit der Heroisierung auch nach Verzauberung und Geborgenheit. Wir können uns dieser Geschichte also wahrscheinlich mit denselben religionssoziologischen Mitteln nähern wie jedem anderen Schöpfungsmythos, nur mit dem Unterschied, dass in der naturwissenschaftlich-technischen Erzählung die Welt nicht in sieben Tagen oder in grauer Vorzeit, sondern durch permanente Innovation und Zerstörung von großen Erfindergöttern – und neuerdings auch von grausamen Risikodämonen (Beck 1986) – an jedem Tag neu geschaffen und umgewälzt wird.

Im Zentrum unseres Konzepts der Autorisierung stehen somit vier Funktionen, die ineinandergreifen und sich kreislaufförmig verstärken können (vgl. Abb. 1): Erstens die Identifizierung von Autorenschaft und Wissensobjekt, sei es, indem eine Person oder Organisation die Autorenschaft für ein Wissensobjekt von sich aus beansprucht oder dass es ihr von außen zugeschrieben wird. Zweitens die Platzierung, wodurch das Wissensobjekt zugänglich und die Autorenschaft sichtbar gemacht wird. Drittens der Validierungsprozess, in dem die Nützlichkeit, eventuell aber auch schädliche Nebenwirkungen des Wissensobjektes ermittelt werden. Viertens schließlich die Honorierung, einerseits in Form von Reputation und Ehre, also in Verstärkung und positiver Konnotierung der Sichtbarkeit, andererseits in Form von Zulauf und materiellem Zugewinn, die eventuell in den Ausbau oder die weitere Qualitätsverbesserung des Wissensobjektes reinvestiert werden.

Abb. 1
figure 1

Autorisierung als Kreislauf von Platzierung, Validierung und Honorierung, nachdem zuvor eine Identifizierung von Autorenschaft und Wissensobjekt stattgefunden hat

3 Autorisierung im sozialen Feld des Wissens

Autorisierung findet in unterschiedlichen Formen statt. Zwei Dimensionen erscheinen uns dabei wesentlich, je nachdem, ob die Autorisierung in überwiegend öffentlicher oder überwiegend kommerzieller Form erfolgt und ob sie zu einem hohen oder nur zu einem niedrigen Grad von Autorisierung führt. Zwischen diesen beiden Dimensionen spannt sich ein Raum auf, den wir – in loser Anlehnung an Pierre BourdieuFootnote 3 – als „soziales Feld des Wissens“ bezeichnen wollen. Wenn man dieses zweidimensionale Feld grafisch darstellt, dann liegt es in Anspielung auf politisch-kulturelle Kategorien nahe, die Dimension „öffentlich versus kommerziell“ als horizontale Achse zwischen einem „linken“ und einem „rechten“ Pol aufzuspannen und die Autoritätsachse vertikal zwischen „oben“ und „unten“ – d. h. zwischen Zentrum und Peripherie – auszurichten (vgl. Abb. 2). Wenn wir so die Stellung und Bewegung der Autorisierungsprozesse im sozialen Feld des Wissens verorten, dann sollte es gelingen, die Werte und Weltbilder näher zu ergründen, die in den oftmals scheinbar bloß „technischen“ Erörterungen der Debatte um das geistige Eigentum eine Rolle spielen. Insbesondere wird mit der vertikalen Dimension ein Aspekt explizit in die Diskussion eingebracht, der dort bisher noch kaum oder allenfalls implizit thematisiert wird.

Abb. 2
figure 2

Das soziale Feld des Wissens, aufgespannt zwischen öffentlichem und kommerziellem, zentralem und dezentralem Pol

Autorisierungsregime können – so unsere konzeptionelle Idee – danach charakterisiert werden, wie die vier oben angesprochenen Funktionen der Identifizierung, Platzierung, Validierung und Honorierung sich jeweils als Teilprozesse in den Sozialraumdimensionen „öffentlich versus kommerziell“ sowie „zentral versus dezentral“ ausprägen:

a) Identifizierung der Autorenschaft:

Die Autorenschaft ist öffentlich oder kommerziell verortet, je nachdem, ob die Autorin als öffentliche oder kommerzielle Organisation auftritt. Als öffentlich soll eine Organisation entsprechend auch bezeichnet werden, wenn sie sich vornehmlich aus Steuern, Mitgliedsbeiträgen, freiwilligem Arbeitseinsatz oder Spenden reproduziert. Als kommerziell soll sie gelten, wenn sie überwiegend auf den Verkauf von Gütern oder Dienstleistungen angewiesen ist. Allerdings gibt es hier viele Mischformen, sei es, dass in Form des New Public Management die öffentlichen Träger partiell auf kommerzielle Organisationselemente zurückgreifen oder dass öffentliche Aufgaben zunehmend von kommerziellen Unternehmen oder ihren Stiftungen übernommen werden. Ihre Autorität ist zentral, je nachdem, ob sie kraft ihrer angestammten Position über hohe oder niedrige Definitionsmacht verfügt. Definitionsmacht besitzt sie auf der Basis vorgängiger Reputation, d. h. vergangener Validierungserfolge, eventuell aber auch aufgrund von Ressourcen aus anderen Sphären wie Geld oder Macht. Beispielhaft gesprochen: Eine in einer Spitzenuniversität verankerte Autorenschaft hat eine höhere Autorität als die Stimme eines Gelegenheitsbloggers, der sich nur auf einen namenlosen Stammtisch berufen kann; beide sind öffentlich (soweit Universitäten noch öffentlich sind und noch nicht im Wege des New Public Management zu kommerziellen Serviceagenturen umgewandelt wurden). Ein Hochtechnologiekonzern in einer führenden Industrienation hat mehr Definitionsmacht als ein Hinterhofbetrieb in der Dritten Welt; beide agieren kommerziell.

b) Platzierung des Wissensobjektes:

Am „linken“, öffentlichen Pol wird das Wissensobjekt möglichst vollständig, d. h. mit allen Rechten der Nutzung, Veränderung, Vervielfältigung und Weitergabe zugänglich gemacht. Am „rechten“, kommerziellen Pol versucht man einerseits durch rechtliche oder technische Maßnahmen, die Nutzung möglichst weitgehend zu beschränken, um möglichst hohe Einkünfte zu erzielen, muss aber andererseits gewahr sein, dass dadurch die Sichtbarkeit und Zugänglichkeit des Wissensobjektes am Markt eingeschränkt werden kann (Kahin und Varian 2000). Zwischen dem Open Access in der Public Domain und der vollständigen kommerziellen Exklusion und Kontrolle gibt es entsprechend viele graduelle Abstufungen; die Unterscheidung sollte also nicht – wie in der volkswirtschaftlichen Konzeption von „öffentlichen Gütern“ üblich – dichotom und disjunkt konzipiert werden. Weiter „oben“ platziert ist ein Wissensobjekt, wenn es an zentraler Stelle sichtbar wird – in einer Zeitschrift mit hohem Einflussfaktor etwa – oder auch sonst im Zentrum der Aufmerksamkeit für Argumente, Wissensgüter oder professionelle Dienstleistungen steht. Allerdings ist die Sichtbarmachung immer auch schon mit ersten Stufen der Validierung verknüpft: Je zentraler die Zeitschrift positioniert ist, umso strenger sind im Allgemeinen ihre Auswahlkriterien. Oder: Je mehr Geld ein Konzern in die Promotion einer Technologie investieren soll, umso selektiver sind zuvor die internen Auswahlprozeduren.

c) Validierung des Wissensobjektes:

Im öffentlichen Bereich treffen wir vor allem auf ideelles Orientierungswissen, das seiner Natur nach öffentlich sein muss, damit es von möglichst vielen Menschen geteilt wird und diese ihr Fühlen, Denken und Handeln entsprechend auf gemeinsame Überzeugungen und Ziele ausrichten können. Die Validierung erfolgt hier vor allem durch Aufnahme und Übernahme der vorgeschlagenen Konzepte. Im kommerziellen Bereich treffen wir eher auf instrumentell-praktisches Wissen, das schon vor aller kollektiven Koordination – und gelegentlich auch gegen sie – individuelle Vorteile verschaffen kann. Hier entscheiden vor allem die Erfahrungsberichte der ersten Nutzer sowie die langfristigen Verkaufszahlen über die Validität von Wissensgütern. In beiden Fällen – beim ideellen wie beim instrumentellen Wissen – ist in der vertikalen Dimension immer und in erster Linie die Resonanz entscheidend. Daneben gibt es oft auch mehr oder weniger formalisierte Verfahren der Evaluation und Kritik, bei potenziell gefährlichen Wissensgütern, wie z. B. Arzneimitteln, auch behördliche Verfahren der Sicherheitsüberprüfung. Wir können eine Theorie, eine Ausdrucksform oder eine Technologie dann als „zentral autorisiert“ einordnen, wenn sie über längere Zeit und immer wieder aufs Neue von vielen (einflussreichen) Menschen genutzt wird und damit hegemonial geworden ist. Während sich am Anfang Sichtbarmachung und Validierung im Allgemeinen wechselseitig verstärken, werden gerade sehr erfolgreiche Argumente und Artefakte im Laufe der Zeit selbstverständlich, trivial und gleichsam unsichtbar. Wer würde heute noch spontan auf die Idee kommen, dass elektrische Beleuchtung eine sehr voraussetzungsvolle Errungenschaft darstellt?

d) Honorierung der Autorenschaft:

Im öffentlichen Bereich erfolgt die Motivierung zur Autorenschaft zunächst und in erster Linie durch Vergabe von Reputation; in der Folge kann damit aber auch das Vorrücken auf sichere Stellen und zunehmend einflussreichere Positionen verbunden sein. Das Motiv zur Erzeugung und Verbreitung des Wissens entsteht vor allem aus menschlicher Neugierde, Selbstdarstellungsbedürfnissen und missionarischem Eifer, aber Definitionsmacht und materielle Sicherheit spielen als Anreiz ebenfalls eine wichtige Rolle. Auch im kommerziellen Bereich erfolgt die Honorierung – auf den ersten Blick überraschend – nur im begrenzten Maß nach dem Marktprinzip. Forschungsabteilungen von Konzernen, Anwaltskanzleien oder Unternehmensberatungen funktionieren intern traditionellerweise ähnlich wie staatliche Fachbürokratien: Der einzelne Wissensarbeiter hat sich der kollektiven Mission unterzuordnen; ähnlich dem Amtsgeheimnis sind meistens auch Betriebsgeheimnisse zu wahren. Insofern sind paradoxerweise Künstler, freischaffende Journalisten und prekarisierte Wissenschaftler diejenigen Wissensarbeiter, deren Existenz am stärksten marktabhängig, also kommodifiziert ist, obwohl ihre Tätigkeit auf ideelles und öffentliches Wissen zielt, während die Stellung der Wissensarbeiter in der Privatwirtschaft eher der von Beamten gleichkommt. Die vertikale Dimension ist wiederum durch die Höhe der Belohnung – also der Sichtbarmachung, der hierarchischen Positionierung in Wissensbürokratien sowie der Bezahlung – bestimmt. Diese Honorare werden häufig wieder in das künstlerische, missionarische oder wissenschaftliche „Werk“ reinvestiert – in seinen Umfang, seine Sichtbarkeit und eventuell auch seine Validität.

Ausgehend von diesem Bezugsrahmen können drei Postulate formuliert werden: Erstens das Postulat der Statuskonsistenz. Es besagt, dass alle vier Teilprozesse der Autorisierung – Identifizierung und Honorierung der Autorenschaft, Platzierung und Validierung des Wissensobjektes – an ungefähr dem gleichen Ort im sozialen Feld des Wissens stattfinden, also in den Dimensionen „öffentlich versus kommerziell“ und „zentral versus dezentral“ nicht sehr weit voneinander entfernt liegen. Wir übertragen also einen zentralen Begriff der Ungleichheitssoziologie auf die Wissens- und Wirtschaftssoziologie (vgl. Podolny 1993; White 1981; Granovetter 2008): Statuskonsistenz liegt vor, wenn die Person in mehreren Dimensionen – z. B. Herkunft, Bildung, Berufsprestige – ähnlich positioniert ist; Inkonsistenz liegt vor, wenn das nicht der Fall ist, etwa beim adligen Bettler oder beim habilitierten Taxifahrer.

Entsprechend dem Postulat der Statuskonsistenz wird z. B. ein renommierter Autor in der vertikalen Dimension sein neues Buch gut sichtbar machen können, die Validierung fällt wahrscheinlich positiv aus, Ehre und Einkünfte sind hoch. Es ergibt sich also eine geringe Streuung auf der Autoritätsskala. Grund dafür ist der bereits erwähnte und gerade im Wissensfeld ubiquitäre Matthäuseffekt, der in der vertikalen Dimension durch die wechselseitige Verstärkung der Teilprozesse der Autorisierung zustande kommt: Wer Reputation hat, dem wird Reputation gegeben (Merton 1968).

Ebenso ist, dem Postulat der Statuskonsistenz folgend, davon auszugehen, dass die Autorisierung eines Wissensobjektes in allen ihren Teilprozessen entweder zum öffentlichen oder zum kommerziellen Pol tendiert: Ein Geisteswissenschaftler an einer Universität arbeitet im öffentlichen Bereich; er wird, um möglichst viele Leute von seinen Ideen zu überzeugen, seine neue Schrift möglichst breit zugänglich machen; die intellektuelle Rezeption – und nicht die technische Prüfung – wird diese Schrift validieren; diese erfolgt üblicherweise in der öffentlichen Sphäre und ist mit Ehre, aber kaum mit großem kommerziellem Erfolg verbunden. Theoretisch begründen lässt sich dies mit der volkswirtschaftlichen Lehre von den öffentlichen Gütern (z. B. Olson 1965): Wenn sich ein Gut im Konsum nicht verbraucht und wenn es außerdem unverhältnismäßig teuer wäre, das Publikum von seinem Genuss auszuschließen, dann sollte es von einem Mäzen oder der öffentlichen Hand kostenlos für jedermann zur Verfügung gestellt werden. Man spricht insofern vom Kriterium der Nicht-Rivalität und der Nicht-Exkludierbarkeit. Ein idealtypisches Beispiel ist der Leuchtturm, der jedem Schiff nützt, das ihn orten kann, ohne dass dadurch der Nutzen eines anderen Schiffes geschmälert würde, und von dessen Nutzen auch keines der Schiffe sinnvoll ausgeschlossen werden kann (Coase 1974).

Viele Wissensobjekte tendieren in die Richtung eines öffentlichen Gutes, vor allem in dem Maße, wie sie sich von einer materiellen, raum-zeitlich gebundenen Trägerschaft emanzipieren: Im Mittelalter wurde ein Buch aufwendig von Hand kopiert, mit der Druckerpresse konnte man es schon viel leichter vervielfältigen, in der Stadtbibliothek ist es schon seit längerem relativ leicht entleihbar, und heute steht es im Internet nur noch ein paar Mausklicks entfernt zum Selbstkopieren bereit. Professionelle Beratungen durch einen Rechtsanwalt oder Psychologen oder die Behandlung durch einen Arzt sind dagegen – wie viele andere Dienstleistungen – an die immer erneute Verausgabung von Zeit seitens der Wissensarbeiter und an den persönlichen Kontext der Ratsuchenden gebunden (Fourastié 1969; Karpik 2007). Damit sind sie knapp und „rival“ – sie verbrauchen die Zeit des Wissensarbeiters. Der Ausschluss ergibt sich durch die Spezifität des Kontextes praktisch von selbst. Entsprechend ist zwar die Berufsbezeichnung Rechtsanwalt, Psychologe oder Arzt geschützt, nicht aber ein geistiges Eigentum an der Beratung bzw. Behandlung, denn diese lässt sich nicht vervielfältigen. Zugespitzt ausgedrückt: Es liegt hier ein natürliches Eigentum vor, sodass es keines künstlichen Ausschlusses bedarf.

Arzneimittel als Wissensgüter (vgl. Henkel 2012) stehen hier irgendwo in der Mitte zwischen „natürlicher“ Öffentlichkeit und „natürlicher“ Marktförmigkeit: Die Wissensessenz liegt zwar vornehmlich wie beim Buch in der Rezeptur bzw. dem Manuskript, aber die stoffliche Reproduktion ist längst nicht so trivial, dass sie vom Konsumenten selbst übernommen werden könnte. Unzulässige Kopien werden durch das Patentrecht, also durch künstlichen Ausschluss, ohne allzu hohe Transaktionskosten (North 1990) und daher relativ erfolgreich abgewehrt, denn um sie aufzuspüren, muss man nicht wie bei der Internetpiraterie in Tausenden von Privathaushalten oder Personalcomputern herumschnüffeln, sondern braucht nur den Markt für Arzneimittel zu beobachten, auf dem sie deutlich sichtbar auftreten müssen, um die relativ hohen Fixkosten der stofflichen Herstellung zu realisieren.

Das Postulat der Statuskonsistenz schließt Statusinkonsistenz keineswegs aus. Allerdings ist Statuskonsistenz wahrscheinlicher als Statusinkonsistenz, weil letztere mit hohen Transaktionskosten, latenten Spannungen und manifesten Konflikten verbunden ist. Inkonsistenzen sind jedoch unvermeidlich als Folge von sozialem Wandel, und sie werden größer, wenn der soziale Wandel im Bereich der Wissensordnung sich beschleunigt. Davon handeln die beiden folgenden Postulate.

Zweitens das Postulat einer Pendelbewegung zwischen dem öffentlichen und dem kommerziellen Pol. Ungefähr alle 50 Jahre scheint der Kapitalismus sein Gesicht zu wandeln: War bis zur Weltwirtschaftskrise von 1929 der liberale Diskurs dominant, formierte sich danach allmählich, ausgehend von den USA, die sozial stärker regulierte Phase des Fordismus, die bis zum Zusammenbruch des Abkommens von Bretton Woods infolge des Vietnamkrieges und der Ölkrise währte (Piore und Sabel 1985; Aglietta 2000). Ab Mitte der 1970er Jahre wurde dann – wiederum ausgehend von den USA – der allmähliche Umschwung zum Neoliberalismus eingeleitet (Fourcade-Gourinchas und Babb 2002; Schäfer 2010), der mit der gegenwärtigen Finanzkrise aber eventuell seinen Zenit überschritten hat. Im Zeitalter des Fordismus sahen wir entsprechend in den Wirtschaftswissenschaften eine sehr aufgeschlossene Haltung gegenüber staatlichen Eingriffen, indem die Keynesianische Doktrin der staatlichen Konjunktursteuerung sehr einflussreich wurde und selbst die traditionell liberal ausgerichtete Neoklassik die Verstaatlichung von öffentlichen Gütern und von Infrastrukturbetrieben rechtfertigte (Mosca 2008).

Infolge der wirtschaftlichen Stagnation und Inflation in den 1970er Jahren, wie sie insbesondere in den USA und Großbritannien zu beobachten waren, wechselte der Mainstream der Wirtschaftswissenschaften die politische Ausrichtung. Milton Friedman wurde zum Bannerträger einer Doktrin, die alle sozial orientierte Regulierung und staatliche Organisierung zugunsten von Markttransaktionen auflösen wollte. Wenn überall für alles private Eigentumsrechte vergeben würden, wäre alles in freier Konkurrenz handelbar, käme es in der Folge zu immer effizienterer Allokation – so die weithin akzeptierte Botschaft. Mit dieser Pendelbewegung verlagerte sich auch die Autorisierung des Wissens stärker zum kommerziellen Pol. Getrieben durch die neoliberale Hegemonie wurde seit den 1980er Jahren die öffentliche Forschung stärker kommodifiziert (Slaughter und Rhoades 1996; Münch 2011) und die bis dahin eher bürokratisch strukturierte Forschung der Privatwirtschaft durch Outsourcing und Risikokapitalfinanzierung stärker unter Fluktuations- und Wettbewerbsdruck gesetzt (Powell et al. 2005). Diese Bewegung hin zum kommerziellen Teil des Feldes wurde auch durch eine Ausweitung und Verschärfung der Rechte des geistigen Eigentums seitens der USA und teilweise durch die EU unterstützt (Meier 2005), wird aber – wie eingangs schon skizziert – seit längerem in der juristischen wie wirtschaftswissenschaftlichen Fachöffentlichkeit, und nun seit neuerem auch in der allgemeinen politischen Öffentlichkeit, attackiert. Insofern könnte sich hier also ein Rückschwingen der Autorisierung zum öffentlichen Pol ankündigen – im Takt mit der „Theorie der langen Wellen“ (Schumpeter 1961) könnte das nun ungefähr an der Zeit sein.

Drittens das Postulat einer wachsenden Spannung zwischen dem zentralen und dem dezentralen Pol im sozialen Feld des Wissens. Im Zuge der „abendländischen Rationalisierung“ (Max Weber) gibt es schon vom Anfang der Menschheitsgeschichte an eine – sich im Industriezeitalter dann beschleunigende – Tendenz zur Explizierung, Abstrahierung und Universalisierung des ideellen wie des instrumentellen Wissens. Die Vielfalt des magischen Volksglaubens wird durch monotheistische Hochreligionen in den Hintergrund gedrängt, und diese werden schließlich von wissenschaftlichen Weltdeutungen überlagert, ohne zu verschwinden. Mit demselben Momentum sehen wir eine Potenzsteigerung der Technik, eine Zentralisierung der Staatsmacht und eine Globalisierung der Märkte. Insofern ist zu erwarten, dass sich die Autorisierungsprozesse zum zentralen Pol hin bewegen. Aber die Moderne hat auch Gegenkräfte institutionalisiert: An die Stelle des Unfehlbarkeitsdogmas der katholischen Kirche tritt der „organisierte Skeptizismus der Wissenschaft“ (Merton 1979a). Die Zentralisierung der Macht wird durch Gewaltenteilung und Demokratisierung von innen her in Schach gehalten. Die Verwissenschaftlichung durchdringt zwar mittlerweile jede Pore des Alltags, aber die Vermehrung, Spezialisierung und Zersplitterung der Expertise konterkariert sich selbst; auf der Grundlage von Bildungsexpansion und Internet gelingt es dem Laienpublikum sehr schnell, gegen jede Expertise eine Gegenexpertise in Stellung zu bringen, um am Ende das zu glauben, was es will. Waren die 1950er und 1960er Jahre im Schatten der Atomrüstung und der fordistischen Bürokratisierung noch von düsteren Prophezeiungen und Warnungen vor Technokratie und autoritärer Expertenherrschaft gekennzeichnet (Schelsky 1961; Ellul 1990; Anders 1956), so kommen mit der Wissenschaftskritik (Feyerabend 1988; Kuhn 1967), dem Verbraucherschutz und der Ökologiebewegung (Beck 1986; Stehr 2007, 2008) schon bald Gegenbewegungen ins Spiel. In dem Moment, in dem nun das Pendel zum kommerziellen Pol hin ausschlägt und multinationale Konzerne wie Microsoft und Murdoch anstelle der militärisch-industriellen Komplexe des Kalten Krieges die Technologieführerschaft und die Medienherrschaft übernehmen, bekommt die oben beschriebene Ausweitung und Verschärfung der Rechte des geistigen Eigentums eine zusätzliche Dimension, soweit sie eben nicht bloß die Kommerzialisierung, sondern auch die Zentralisierung und Monopolisierung der Wissensproduktion zur Folge haben. In der Kritik am geistigen Eigentum geht es dann nicht mehr einfach nur um links gegen rechts, sondern auch um die Abwehr einer autoritären Gesellschaft.

4 Ein Fallbeispiel: Die Autorisierung von Saatgut

Diese Überlegungen zur Statuskonsistenz, zur Pendelbewegung und zur vertikalen Spannung von Autorisierungsregimen wollen wir im Folgenden anhand der Entwicklung von Saatgutmärkten empirisch plausibilisieren. Saatgut ist insofern ein besonderer Gegenstand geistigen Eigentums (Leßmann und Würtenberger 2009), als es sich selbst vermehrt, also in gewisser Weise über einen natürlichen Kopiermechanismus verfügt, während bei fast allen anderen Wissensgütern die Vervielfältigung des Prototyps niemals ohne menschliches Zutun erfolgt. Wenn wir von Wissensgütern sprechen, dann ist hier gemeint, dass Wissen ein wesentlicher Faktor bei der Erstellung des Rezepts, der Blaupause oder des Prototyps war, die Vervielfältigung der Exemplare aber vergleichsweise trivial ist. Diese Definition trifft in hohem Maße auf Filme, Fotos, Musik, Texte, Software, Arzneimittel und eben Saatgut zu. Wir werden zunächst zwei historische Autorisierungsregime betrachten, nämlich das Regime der Landrassen und der Hochzuchtsorten, und wir werden dann die gegenwärtige Situation in Nordamerika, in Indien und in Deutschland heranziehen, um zeitgenössische Autorisierungsregime und ihre Spannungen untereinander auszuleuchten: In Nordamerika zeigt sich dabei ein auf die globale Monopolisierung von Hochtechnologie abgestelltes, stark kommerzialisiertes Autorisierungsregime. Im postkolonialen Indien kann man studieren, wie Autorisierung funktioniert, wenn es keine formalen Rechte des geistigen Eigentums gibt. Und Deutschland steht exemplarisch für die Länder, die sich der Einführung einer Hochtechnologie – von gentechnisch veränderten Pflanzen – widersetzen.

4.1 Vorindustrielle Landrassen

Von der neolithischen Revolution bis ins 19. Jahrhundert war die Saatgutentwicklung davon bestimmt, dass Bauern immer von ihren „besten“ – d. h. ertragreichsten, schmackhaftesten, widerstandsfähigsten – Pflanzen das Saatgut aufgehoben und erneut ausgebracht haben. Auf diese Weise sind über die Jahrtausende sogenannte Landrassen entstanden, die recht gut an die verschiedenen Standorte, deren Böden, Klima und heimische Schädlinge angepasst waren. Saatgut wurde selten, und wenn dann hauptsächlich unter Nachbarn getauscht, sodass praktisch keine Probleme der Identifizierung, Validierung und Honorierung auftraten. Oder anders ausgedrückt: Das Autorisierungsregime war dezentral, insofern es noch auf den einzelnen Bauer und seinen Haushalt beschränkt blieb. Der Anreiz, das beste Saatgut aufzuheben (und nicht etwa aufzuessen), bestand in der Erwartung einer guten Ernte in der nächsten Saison, und zu diesem Zweck musste der Bauer seine Pflanzen identifizieren und bewerten. Aber Identität und Qualität mussten noch nicht über weite Strecken kommuniziert werden, und im sozial weitgehend geschlossenen Kosmos von Haushalt und Nachbarschaft gibt es kaum Motive und wenig Möglichkeiten, Qualitäten oder Identitäten vorzutäuschen oder umgekehrt Honorierungspflichten zu unterlaufen (Polanyi 2001; Sahlins 1971; North 1990). Dieses dezentrale Autorisierungsregime ging mit einer enormen genetischen und phänotypischen Vielfalt einher, deren Wert heute von Umwelt- und Naturschützern als „Biodiversität“ beschworen und von Pflanzenzüchtern als „genetische Ressource“ hoch geschätzt wird (Bertacchini 2008). Allerdings war ihre Produktivität, d. h. ihr Ertrag pro Anbaufläche, in Relation zu heute ziemlich gering.

Wenn wir dieses Autorisierungsregime auf unserer Karte des Wissensfeldes verorten wollen (vgl. Abb. 3, weiter unten), dann ist es „unten“, also dezentral angesiedelt. Es ist weder staatlich noch kommerziell, weil die Saatgutproduktion noch nicht kommodifiziert ist. Deshalb sind weder Statusinkonsistenzen noch Pendelbewegungen noch vertikale Spannungen auszumachen. Entsprechend kurz ist zu diesem Stadium unser Bericht.

4.2 Das fordistische Regime der Hochzuchtsorten

Gegen Ende des 19. Jahrhunderts entwickelte sich in Frankreich und Deutschland allmählich eine professionelle und akademisch inspirierte Pflanzenzüchtung, die neben der Selektion nun auf die gezielte Kreuzung von Pflanzenexemplaren mit verschiedenen Eigenschaften setzte (Bonneuil 2006; Wieland 2011). Erst vor diesem Hintergrund ergaben dann auch die Erbgesetze Sinn, deren Entdeckung – wie oben erwähnt – Gregor Mendel posthum zugeschrieben wurde. Der professionellen Pflanzenzüchtung gelang es im Verlauf des 20. Jahrhunderts, durch sogenannte Hochzuchtsorten die Erträge von Pflanzen enorm zu steigern, allerdings um einen dreifachen Preis: Die Pflanzen waren gegen eine Vielzahl von Umwelteinflüssen weniger robust und bedurften deshalb stärkerer physischer und chemischer Stützleistungen, das Spektrum der Fruchtarten und die Sortenvielfalt innerhalb der Fruchtarten wurden eingeengt und das Saatgut musste jetzt über zunehmend anonyme und daher betrugsanfällige Distributionswege vertrieben werden. Die beiden erstgenannten Probleme wurden zunächst, d. h. bis zum Erstarken der Ökologiebewegung in den 1970er Jahren, aufgeschoben und verdrängt, das letztgenannte Problem im Zeitraum von 1920 bis 1980, also in der fordistischen Ära, mit staatszentrierten oder korporatistischen Mitteln gelöst. Aus verschiedenen, allerdings vielfach konvergierenden Motiven heraus hatten die verarbeitende Industrie, die Gewerkschaften und der Staat ein starkes Interesse an der Industrialisierung und Rationalisierung der Landwirtschaft und den damit verbundenen Effekten eines Zustroms an industriellen Arbeitskräften, niedrigeren Lebensmittelpreisen und einer insgesamt steigenden Wirtschaftskraft (Sauer 1990; Kenney et al. 1989).

In den USA wurde das Autorisierungsproblem dadurch gelöst, dass der Staat seit Beginn des 20. Jahrhunderts Landwirtschaftsuniversitäten gründete und finanzierte, die die professionelle Pflanzenzüchtung weitgehend an sich zogen und das so geschaffene Saatgut zertifizierten (Kloppenburg 2004). Vermehrt und vertrieben wurde es zwar über kommerzielle Kanäle; da aber die Sorten an alle Züchter kostenlos abgegeben wurden, ergaben sich im Saatgutsektor noch keine technologiebedingten Konzentrationsprozesse und daher auch keine Oligopolrenten. Anders ausgedrückt: Die Züchter standen in Konkurrenz und konnten deshalb nur geringe Gewinnmargen aufschlagen.

In Deutschland arbeiteten die kommerziellen Pflanzenzüchter von Anfang an stärker untereinander und mit den öffentlich finanzierten Forschungsanstalten zusammen und entwickelten in den 1930er Jahren ein Autorisierungsregime, das nach dem Zweiten Weltkrieg – von rassistischem Nazijargon bereinigt – weltweit zum Vorbild für die Regulierung des Saatgutsektors wurde (Flitner 1995; Wieland 2006). Zentrales Element ist die sogenannte Registerprüfung; damit soll garantiert werden, dass Saatgut unterscheidbar, homogen und über die Generationen beständig bleibt, d. h. universell identifizierbar wird (Leßmann und Würtenberger 2009, S. 28 ff.). Eine weitere Station der staatlichen Sortenzulassung ist die Prüfung des „landeskulturellen Wertes“, der dadurch bestimmt ist, dass eine Sorte in mindestens einer für die betreffende Region ackerbaulich relevanten Eigenschaft den bisher zugelassenen Sorten überlegen ist. Außerdem verlieren ältere Sorten automatisch ihre Zulassung und können nur verlängert werden, wenn ihre fortbestehende Anbaubedeutung nachgewiesen wird. Mit diesen drei Hürden – der Identitätsprüfung, der Qualitätskontrolle und der Befristung – soll der Markt für die Bauern transparent und überschaubar gemacht werden. Von gegenwärtig ca. 1000 jährlich beantragten Sorten werden vom Deutschen Sortenamt nur ca. 150 zugelassen,Footnote 4 die Kreativität der Saatgutzüchter und die Diversität der Sorten wird also gezielt beschränkt. Im Gegenzug zur Identifizierung und Validierung, die zusammen die Sortenzulassung ausmachen, erhält der Züchter Sortenschutz, d. h. einen Eigentumstitel auf die von ihm hervorgebrachte Sorte. Sein Monopol ist jedoch nicht nur zeitlich, sondern auch durch das Züchterprivileg und das Bauernprivileg begrenzt: Andere Züchter dürfen die Sorten als Ausgangsmaterial für eigene Züchtungen benutzen, Bauern durften bis vor Kurzem das Saatgut von einer Pflanzengeneration zur nächsten jeweils aufheben und erneut aussäen.

Insoweit kann man das Autorisierungsregime der fordistischen Ära als stark von öffentlichen Institutionen dominiert betrachten (vgl. Abb. 3). Die Zentralisierungstendenzen sind deutlich, bleiben aber zunächst noch auf die nationale und regionale Ebene beschränkt. Statusinkonsistenzen und soziale Spannungen sind allenfalls schwach ausgeprägt. Die sozialen und ökologischen Umbrüche und Konflikte, die sich aus der Industrialisierung der Landwirtschaft ergeben, werden noch nicht dem Saatgutsektor zugerechnet.

4.3 Das neoliberale Regime transgener Pflanzen (Nordamerika)

Es waren sogenannte Hybridsorten, die in der nächsten Generation ertragsschwach werden und deswegen immer neu gekauft werden müssen, mit denen seit den 1960er Jahren ausgehend von den USA eine stärkere Kommerzialisierung im Saatgutsektor um sich griff. Ausschlaggebend waren hier aber der Einzug der Gentechnik und die Entscheidung, dass einzelne Gene, gleichsam wie chemische Substanzen, patentiert werden können. Die Erweiterung und Erleichterung von Patentierungsmöglichkeiten in den USA – verzögert und abgeschwächt auch in der EU – war eine Reaktion auf die Wirtschaftskrise der 1970er Jahre. Während zuvor, in den Zeiten des Kalten Krieges, der Abfluss von technologischem Wissen innerhalb des verbündeten Lagers – des Westblocks sozusagen – politisch durchaus erwünscht und als Militär- oder Entwicklungshilfe gefördert worden war, wurde in den 1980er Jahren in den USA eine verstärkte wirtschaftliche Konkurrenz zu Deutschland, Japan und seit den 1990er Jahren auch zu China und Indien wahrgenommen (Slaughter und Rhoades 1996). Die gängige neoliberale Krisendiagnose konstatierte in diesem Zusammenhang, dass die meisten Technologien zwar in den USA, dem Land mit dem weltweit höchsten Forschungsbudget, erfunden, aber dann von anderen Ländern hergestellt und auf den Markt gebracht würden. In den USA und der EU wurde diese Wahrnehmung dann vielfach zur Selbstbeschreibung einer „Wissensgesellschaft“ verallgemeinert, die sich in der globalen Standortkonkurrenz gegen billige Löhne in den Schwellenländern nur durch überlegene und proprietär geschützte Technologien behaupten könne. Um den unkontrollierten Abfluss von Forschungsinvestitionen zu vermeiden, wurde die Möglichkeit der Patentierung bis tief in die Grundlagenforschung ausgedehnt und die Vergabe von staatlichen Forschungsmitteln an Patentierungsauflagen und Kooperationsvereinbarungen mit heimischen Firmen geknüpft (Scotchmer 2003). Insgesamt wurde die Forschung, wie oben schon angedeutet, von vormals eher institutionell finanzierter Programmforschung stärker auf drittmittelfinanzierte Projektförderung sowie auf risikokapitalbasierte Start-up-Unternehmen ausgerichtet (Powell et al. 2005).

Zugleich machte es die Methode der Gentechnik seit den 1980er Jahren praktisch möglich, einzelne Gene und damit einzelne phänotypische Eigenschaften aus einem Organismus herauszulösen und – anders als bei der züchterischen Kreuzung, bei der immer ganze Genome mit vielen tausend Genen durchmischt werden – gezielt in einen anderen Organismus einzubringen. Zum Beispiel wurde aus Bakterien die Resistenz gegen einige gebräuchliche Herbizide isoliert und auf Nutzpflanzenarten übertragen, sodass man in der Folge die Unkrautkontrolle vereinfachen kann, weil man nicht mehr befürchten muss, die Nutzpflanze dabei zu schädigen. Mit der Gentechnik und der Patentierung für einzelne Gene trat ein neuer Aneignungsmechanismus mit einer dem Sortenschutz fremden Logik auf: Der Sortenschutz bezog sich immer auf das ganze Genom der Sorte beziehungsweise eben die Sorte selbst, nicht auf einzelne Teile. Insofern besitzt der Patentinhaber einer Herbizidresistenz Ansprüche auf alle Sorten, in die das Gen eingebaut wird. Aber die Sorten gehören ihm deswegen noch nicht, denn theoretisch könnte der Sortenschutzinhaber, der den Gesamtorganismus „besitzt“ (soweit man ihn im Sortenschutzrecht eben besitzen kann), Lizenzgebühren an den Patenthalter zahlen. In der Praxis ist es aber meist so, dass die Technologiekonzerne, allen voran Monsanto, die Saatgutzüchter, deren Sorten für sie interessant sind, aufkaufen und so das ganze Feld einem enormen vertikalen und horizontalen Konzentrationsprozess unterwerfen (Kalaitzandonakes und Bjornson 1997).

Auch der Validierungsprozess wird durch das Hinzutreten der Gentechnik komplexer. Da transgene Pflanzen von Umweltschützern als ein „Risiko“ angesehen werden, das sich aufgrund seiner natürlichen biologischen Eigenheiten „selbst verbreitet und selbst vermehrt“, werden die Pflanzen sehr umfangreichen Tests und Zulassungsprozeduren unterzogen, die die Entwicklungskosten deutlich erhöhen und so ihrerseits zum Konzentrationsprozess in der Branche beitragen (Schenkelaars et al. 2011). In der EU und Japan müssen transgene Produkte außerdem durch die ganze Wertschöpfungs- und Distributionskette hindurch gekennzeichnet werden, wodurch auch der Identifizierungsprozess umfangreichere Dimensionen erhält (Gill 2009). Insofern ist das durch die Gentechnik induzierte Autorisierungsregime von stärkerer Kommerzialisierung und einer stärkeren Zentralisierung gekennzeichnet – das sind seine neoliberalen Momente. Zugleich sind die Qualitätsansprüche – hier im Sinne der Risikoaversion – strenger und die Widerstände gegen die transgenen Pflanzen und die fortgesetzte Industrialisierung der Landwirtschaft stärker geworden – das sind seine postfordistischen Aspekte. Insgesamt kann man also über die letzten hundert Jahre eine Bewegung hin zu einem zentraleren, kommerzielleren und komplexeren Autorisierungsregime beobachten. Im Folgenden wollen wir unter Rückgriff auf eigene empirische Untersuchungen die besonderen Probleme diskutieren, die mit diesem Autorisierungsregime verbunden sind.

Durch die Patentierung ergibt sich nicht nur die Möglichkeit einer verstärkten Kommerzialisierung, sondern mit ihr auch ein besonderes Problem: Die Kosten für das Saatgut steigen erheblich und damit auch der Anreiz für die Bauern, diese Kosten zu umgehen. Zur Erinnerung: Im fordistischen Regime waren sie noch ziemlich niedrig, weil die Forschung im Wesentlichen öffentlich war und der Preis des Saatguts lediglich die Aufwendungen für die Züchtung und Saatgutvermehrung beinhaltete, nicht aber die mittlerweile sehr umfassenden Investitionen von Biotechnologiekonzernen, die sich je nach Schätzung auf 5 bis 100 Mio. US-Dollar pro Sorte bzw. pro transgener Eigenschaft belaufen sollen (Schenkelaars et al. 2011). Zudem ist es für die Bauern eine seit Jahrtausenden gepflegte Tradition, das eigene Saatgut selbst zu vermehren – und im fordistischen Regime war das aufgrund des Bauernprivilegs auch noch nicht verboten, es bestand lediglich der positive Anreiz, registriertes Saatgut gelegentlich nachzukaufen, weil und soweit es höhere Erträge versprach. Wie bringt man nun die Bauern dazu, Lizenzgebühren zu zahlen und ihr Saatgut jedes Jahr neu zu kaufen, anstatt es aus der letzten Ernte aufzubewahren?

In Saskatchewan, Kanada, haben wir in einer Feldstudie die Eigentumssicherung des Biotechnologiekonzerns Monsanto vor Ort genauer untersucht (Schubert 2007; Schubert et al. 2011). Grundlage dieser Sicherung ist zunächst eine Informationsveranstaltung, das sogenannte Grower Meeting, an dem der Bauer teilnehmen muss, und darauf folgend eine vertragliche Vereinbarung, das sogenannte Technology Use Agreement (TUA), mit dem der Bauer seine Bindung an den Konzern rechtlich besiegelt. Diese Bindung beinhaltet fünf wesentliche Aspekte: Erstens die Verpflichtung, kein Saatgut aufzuheben oder an andere Bauern weiterzugeben. Damit Monsanto die Einhaltung nachprüfen kann, gewährt der Bauer dem Konzern Feldinspektionen, also unangemeldeten Zutritt zu seinem Grundstück, sowie Einsichtnahme in seine Bücher. Zweitens gewährt Monsanto dem Bauern agronomische Beratung, wie die erworbene Sorte am besten angebaut werden kann, sowie Versicherungsschutz für das Aufgehen der Saat und bestimmte Wettereinflüsse. Drittens ist dieser Versicherungsschutz daran gebunden, dass der Bauer auch das passende Herbizid von Monsanto bezieht (dessen Patentschutz mittlerweile abgelaufen ist) und nicht ein generisches Konkurrenzprodukt. Viertens verpflichtet sich der Bauer zu ökologischen Ausgleichsmaßnahmen, die verhindern sollen, dass sich bei den Unkräutern relativ schnell Resistenzen ausbilden können, die das Herbizid wirkungslos machen. Mit dem Verbot des Weiterverkaufs von Saatgut an andere Bauern ergibt sich fünftens die Möglichkeit monopolistischer Preisdiskriminierung, d. h. dass Monsanto den Preis je nach erwarteter Zahlungsbereitschaft bei den Bauern unterschiedlich festlegen und damit Extrarenten abschöpfen kann (Fulton und Giannakas 2001).

Die Bauern sollen also mit „Zuckerbrot“ – Beratung und Versicherung – an den Konzern gebunden werden; ihnen wird gegebenenfalls aber auch mit der „Peitsche“, d. h. mit Gerichtsverfahren gedroht (Kershen 2004): Es gilt als wenig aussichtsreich, einen Prozess gegen Monsanto zu führen, weil der Konzern finanziell über den längeren Atem verfügt; als Prozessort ist vertraglich Saint Louis, Missouri, der Sitz der Konzernzentrale, festgelegt. Neben den Feldinspektionen und den Buchprüfungen gibt es eine Telefonnummer, von Kritikern als „snitch line“ bezeichnet, unter der Monsanto auch anonyme Anschuldigungen von Nachbarn entgegennimmt. Begründet wird diese Praxis damit, dass man Trittbrettfahrer ausbremsen und verhindern wolle, dass „der ehrliche“ Bauer mehr für sein Saatgut zahlen muss. Es wird hier also das Bild der privaten Bereitstellung eines öffentlichen Gutes erzeugt, und entsprechend übernimmt der Konzern auch Funktionen der öffentlichen Gewalt. Es wird von Bauern erzählt, dass Monsanto gelegentlich mit Herbizid – sogenannten spray bombs – prüfe, wo herbizidresistente Pflanzen illegal angebaut würden. Gleichgültig, ob diese Anschuldigung wahr ist oder nicht, so ist sie jedenfalls ein Zeichen für das Misstrauen, das hier offenbar entstanden ist. Der Konzern muss also einen privaten Apparat quasi-polizeilicher Beobachtung aufbauen, um seine Ansprüche in den USA und Kanada durchsetzen zu können.

Dort, wo die Biotechnologie-Konzerne die flächendeckende Zahlung von Lizenzgebühren tatsächlich erreicht haben, also in Nordamerika, hat sich eine starke Konzentration im Saatgutsektor vollzogen. Während 1985 die Verkaufszahlen der neun größten Firmen zusammen 12,5 % am global erfassbaren Saatgutmarkt ausmachten, erhöhte sich bis 2009 dieser Anteil auf 43,8 %, wobei sich das Volumen des offiziellen Marktes ungefähr verdoppelte (Schenkelaars et al. 2011, S. 18). Hinter diesen aggregierten Zahlen verbergen sich teilweise aber noch viel höhere Konzentrationen auf lokalen Märkten und bei einzelnen Fruchtarten (Shi 2009). Diese Konzentration ist aber nicht auf die seit den 1980er Jahren erweiterten Patentierungsmöglichkeiten allein zurückzuführen, denn in anderen Technologiemärkten, zum Beispiel bei Halbleitern, hat die Ausweitung von Rechten des geistigen Eigentums zu verstärkter Lizensierung und damit zu einer Entflechtung und Desintegration von Firmenkonglomeraten beigetragen (Hall und Ziedonis 2001). Auch die Ausgründung von Biotechnologie-Start-ups aus den Universitäten oder aus großen Konzernen wurde erst durch die Vergabe von Rechten des geistigen Eigentums möglich. Ein situatives Problem scheint daher zu rühren, dass bei der Pflanzenbiotechnologie als noch relativ junger Entwicklung die Patentansprüche so breit und so unklar gefasst sind, dass die Firmen zur Vermeidung von Transaktionskosten in den USA lieber zur Bündelung und vertikalen Integration geschritten sind: Sie haben Biotech-Start-ups und Saatgutzüchter aufgekauft, um so Zugang zu den komplementären Entwicklungsinstrumenten – Transformationstechnologien, Transgene, Hochleistungssorten – sowie zu den Vertrauensbeziehungen auf Saatgutmärkten zu erhalten (Graff et al. 2003; Schneider 2011). Wie oben schon dargestellt, besteht ein weiteres Problem darin, dass die Kosten für die Umweltprüfung von Transgenen für die beantragenden Firmen enorm hoch sind, sodass die Sicherheitsregulierung eine sehr hohe Eintrittsbarriere am Markt darstellt und ihrerseits im Rahmen des gesamten Autorisierungsregimes eine Art zweiten Patentschutz darstellt.

4.4 Das postkoloniale Regime der Stealth Seeds (Indien)

Indien und andere postkoloniale Länder verzichten bewusst auf den Erlass oder die Durchsetzung von Rechten des geistigen Eigentums, weil sie befürchten, durch diese in der nachholenden Entwicklung behindert zu werden. Entsprechende Schwierigkeiten gibt es hier mit der Vermarktung von transgenem Saatgut. Da die westlichen Konzerne dort nicht über die Legitimität einer quasi-öffentlichen Aufgabe, nicht über einen quasi-polizeilichen Marketingapparat und auch nicht über einen privilegierten Zugang zu den Gerichten verfügen, bleibt der Anspruch auf Lizenzgebühren relativ schwach. Dies wurde schon vor einiger Zeit für Argentinien und Brasilien berichtet (Fukuda-Parr 2007); für Indien ist die Situation wissenschaftlich recht breit dokumentiert (Herring 2007; Murugkar et al. 2007; Lalitha et al. 2008; Ramaswami et al. 2012). Dort hat Monsanto insektenresistente Baumwolle zusammen mit einer lokalen Saatgutfirma in einem Joint Venture als Monsanto Mahyco Biotech (MMB) eingeführt. Monsanto wird von urbanen NGOs in Indien als neo-kolonialistischer Übeltäter dargestellt und für den Selbstmord von verschuldeten Bauern verantwortlich gemacht. Die Insektenresistenz wird von den Bauern gleichwohl sehr gerne angenommen, weil so die Ausbringung von teuren und giftigen Insektiziden eingespart werden kann. Allerdings hat das entsprechende Saatgut längst die verschiedensten Namen, weil es von lokalen Saatgutfirmen teils legal in Lizenz, teils aber auch illegal in die heimischen Sorten eingekreuzt worden ist. Aufgrund dieser Verbindung mit den heimischen Sorten gelten die eingekreuzten Sorten insgesamt – legale wie auch illegale – als sehr ertragreich, ertragreicher auch als das Originalsaatgut von MMB. Die illegalen Sorten, sogenannte Stealth Seeds, scheinen sowohl den legalen transgenen Sorten als auch den nicht-transgenen Sorten deutliche Konkurrenz zu machen. Vertrieben werden sie jedoch nur auf lokaler Ebene, weil nur dort Vertrauensbeziehungen zwischen Bauern und Saatguterzeugern bestehen. Insgesamt erscheint der Markt aufgeteilt: Trotz der Stealth Seeds können auch die legalen Sorten Marktanteile ausbauen, während die öffentlich gezüchteten Sorten und die alten Landrassen zurückgedrängt werden. Diese postkoloniale Emanzipation lokaler Händler und Bauern, die das Monopol von Monsanto im Zaum hält und so auch die genetische Vielfalt erhält, hat allerdings noch einen anderen Nebeneffekt: Es werden die Sicherheitsbestimmungen unterlaufen, die ursprünglich verhindern sollten, dass ökologisch eventuell bedenkliche Transgene in die Umwelt gelangen.

In diesem Zusammenhang ist es recht instruktiv, den Markt für Baumwollsaaten in den USA und in Indien zu vergleichen. In den USA gibt es sozusagen doppelten Patentschutz, zum einen den offiziellen Patentschutz für Saatgut und Transgene, zum anderen die aufwendige Umweltverträglichkeitsprüfung durch die staatliche Zulassungsbehörde. In Indien dagegen gibt es für Saatgut und Transgene keinen Patentschutz, die kommerzielle Entwicklung von Saatgut ist daher nur möglich, wenn sich eine Fruchtart hybridisieren lässt – die Hybridisierung stellt dann einen technischen Kopierschutz dar, in gewisser Weise vergleichbar dem Digital Rights Management (DRM) bei Datenträgern. „Illegal“ sind die erwähnten Stealth Seeds daher nur insofern, als sie keine Sicherheitszulassung besitzen und die Zulassungsstelle sich wohl auch weigerte, diese für nicht-lizensierte Produkte zu erteilen (Ramaswami et al. 2012, Fußnote 5). In den USA war der Markt für Baumwollsaaten schon seit den 1970er Jahren mit einem Herfindahl-Hirschman-Index (HHI) von ca. 1800 Punkten relativ stark konzentriert.Footnote 5 Infolge der sehr erfolgreichen Einführung von Transgenen kam es in den 1990er Jahren zu umfangreichen Aufkäufen seitens der Biotech-Konzerne, allen voran Monsanto und Bayer; der HHI stieg bis auf ca. 6200 Punkte an. Das rief die öffentliche Meinung und die Kartellbehörden auf den Plan, sodass der Marktführer Monsanto sich gezwungen sah, seine Transgene nicht nur über die konzerneigenen Saatgutfirmen zu vertreiben, sondern auch an Konkurrenten zu lizensieren. Daraufhin sank die Marktkonzentration wieder etwas ab und stand 2010 ungefähr bei 3500 Punkten (Schenkelaars et al. 2011, S. 45 ff.).

In Indien wurde die Einführung der Transgene zunächst, wie oben schon angedeutet, von einem einzigen Konzern, nämlich Monsanto Mahyco Biotech (MMB) dominiert. Noch bevor die Zulassungsbehörde das insektenresistente Transgen von MMB endgültig begutachtet hatte, tauchten illegal angebaute Pflanzen auf, die insektenresistent waren. Die Zentralregierung ordnete deren Vernichtung an, aber die Regionalbehörden kamen dem nicht wirklich nach, vermutlich weil sie der Meinung waren, dass man die offensichtlich hilfreiche Saat den Bauern nicht vorenthalten sollte. Die Sicherheitsbehörde beschleunigte daraufhin ihre Entscheidung und hat später auch weitere, in Indien und China entwickelte Insektenresistenz-Transgene zugelassen. Unter dem Druck der Stealth Seeds wurden also auch die Barrieren für den offiziellen Markteintritt aufgeweicht. So fanden Ramaswami et al. (2012, S. 181 f.) in Gujarat, einer Provinz Indiens, in der die Stealth Seeds besonders stark verbreitet sind, nur 12 % der Fläche mit Baumwolle von MMB bepflanzt; die Anbaufläche der transgenen Konkurrenzprodukte betrug 43 %, und die restlichen 45 % verteilten sich auf nicht-transgene Sorten. Interessant ist dabei, dass die illegalen Saaten lokal durchaus Sortennamen haben, mit denen sie in Vertrauensnetzwerken zirkulieren. Entsprechend ist auch ihr Preis relativ hoch: Mit ca. 80 % des Preises für legales transgenes Saatgut liegt er deutlich über dem reinen Produktionspreis – ein Zeichen dafür, dass die informelle Autorisierung ihrerseits Zugangsbarrieren erzeugt und damit ebenfalls Marktmacht zur Folge hat.

4.5 Der postfordistische Boykott transgener Sorten (Deutschland/EU)

In der EU und Japan wird der Anbau von transgenen Saaten von den Verbrauchern und den Bauern abgelehnt, dadurch stellt sich auch die Situation im Saatgutsektor anders dar. Da wir jedoch nur in Deutschland und Österreich Interviews geführt haben und die Literaturlage ansonsten relativ spärlich ist, beschränken wir unsere Aussagen auf diesen Raum, gehen aber davon aus, dass die identifizierten Wirkmechanismen auch darüber hinaus für die EU und für Japan zu verallgemeinern sind.

Zunächst einmal ist festzustellen, dass die Front der Gegner nicht geschlossen ist, sondern dass sich hier spezifische Wert- und Interessengegensätze ausmachen lassen. Zum einen ist da der Unterschied in den kulinarischen Traditionen, der ursprünglich vor allem auf dem Gegensatz zwischen protestantischer Askese und katholischer Sinnenfreude beruht. Heute ist aber auch in den nördlicheren Ländern Europas und nördlichen Bundesländern in Deutschland „slow food“ zu einem Distinktionsmerkmal geworden, mit dem sich die eher linksliberale und ökologisch gesinnte „Toskana-Fraktion“ von den Anhängern des schnell und einfach zubereiteten, nahrhaften und preisgünstigen Essens absetzt (Gill 2003). Oder allgemeiner ausgedrückt: Während in der fordistischen Ära die „Sozialkritik“, der Protest gegen soziale Ungleichheit, die vorherrschende Kritikform war, wird in der neoliberalen Ära die „Künstlerkritik“, die gegen Massenproduktion, Vereinheitlichung und ästhetische Standardisierung – die „McDonaldisierung“ (Ritzer 1993) – zu Felde zieht, zum dominanten Modus des Protests (Boltanski und Chiapello 2001). Gentechnik wird hier mit industrieller und künstlicher Nahrungsmittelproduktion assoziiert und entsprechend als „unnatürlich“ abgelehnt. Der aus postfordistisch-urbanem Wohlstand stammende Wunsch nach Vielfalt, Wildheit und stilisierter Einfachheit im Konsum fördert dann vielfach die Wiederbelebung von handwerklichen und frühindustriellen Produktionsformen, insbesondere da, wo sich diese noch in Ansätzen erhalten haben. In der Landwirtschaft ist das vor allem dort der Fall, wo aufgrund eines schrofferen Bodenprofils die Industrialisierung von Ackerbau und Viehzucht zu kostenaufwendig ist und wo entsprechend kleinere Betriebe fortbestehen, also z. B. in den Höhenlagen von Süddeutschland und Österreich. Die Aufrechterhaltung der Landwirtschaft ist dort vielfach gekoppelt mit ruralem Tourismus, der den Städtern rustikale Speisen und „Natur pur“ offeriert. Auch in der Nahrungsmittelverarbeitung haben bisher in vielen Zweigen kleinere, eher handwerkliche Betriebe dem industriellen Rationalisierungsdruck widerstehen können. Das gilt vor allem da, wo die agrarischen Ausgangsstoffe nur einen sehr kleinen Teil des Endverbraucherpreises ausmachen. Zum Beispiel gibt es in Süddeutschland noch eine Reihe von kleineren Brauereien; ihre Zahl hat sich in jüngerer Zeit sogar wieder erhöht (Destatis 2012). Hier bestehen unseren Recherchen zufolge vielfach direkte und etablierte Abnehmerbeziehungen zwischen Brauereien und Landwirten, die entsprechend wenig standardisiert sind, nur einem sehr vermittelten Kostendruck unterliegen und deshalb an angestammten, in ihren Braueigenschaften gut bekannten Gerstensorten festhalten.

In diesem Kontext wird auch verständlich, dass die deutsche Saatgutindustrie teilweise noch wenig verwissenschaftlicht und im Vergleich zu den USA relativ schwach konzentriert ist. Da die Züchter meist auf eine Kulturart spezialisiert sind – Roggen oder Weizen oder Raps usw. –, herrscht zwischen ihnen mehr Kooperation als Konkurrenz. Außerdem stehen sie in Kontakt zum Bundessortenamt, das sowohl für die Sortenzulassung, d. h. die Markttransparenz und Qualitätskontrolle, als auch für den Sortenschutz, d. h. die Immaterialgüterrechte der Züchter, zuständig ist. Daneben gibt es auch relativ enge Verbindungen zu den Landwirtschaftsämtern auf Landesebene, die für die Bauern auf der Grundlage von Anbauversuchen sogenannte „Sortenempfehlungen“ ausgeben. Insoweit scheint sich also hier das fordistische Regime (vgl. Abschn. 4.2) noch weitgehend zu erhalten.

Daneben zeigen unsere Experteninterviews, dass die Saatgutzüchtung lokal bei Weitem nicht so stark – etwa über Bodenbeschaffenheit oder sonstige geografische Besonderheiten – gebunden ist, wie gemeinhin behauptet wird. Vielfach würden nämlich Sorten an vielen europäischen, zum Teil auch außereuropäischen Orten vertrieben. Vor allem von den Witterungsbedingungen scheint es abhängig zu sein, welche Sorten sich dann als erfolgreich erweisen und nachgefragt werden. Wesentlich sind dabei wohl auch die Verbindungen zu den lokalen Saatgutvermehrern und zum Landhandel, denn eine überörtliche Produktion und Distribution des Saatgutes wäre im Allgemeinen zu aufwendig. So seien Züchtung und Saatguthandel deutlich von einem vertrauensvollen, quasi-familiären Umgang und stark von einem fruchtartenspezifischen Insiderwissen geprägt, und sie bildeten daher Geflechte aus, die von außen nur schwer zu durchschauen seien. Es habe sich eine Art Korpsgeist „gegen die Großen“ (Chemiekonzerne) entwickelt, mit denen man zwar stellenweise kooperiere, von denen man aber nicht dominiert werden möchte. In einem Interview wurde sogar betont, dass Intransparenz hier einen Schutzschild darstelle. Hinter vorgehaltener Hand – man will nicht als technikfeindlich dastehen – wird zudem immer wieder konstatiert, dass der EU-weite Boykott gegen die Gentechnik die Eigenständigkeit und Unabhängigkeit der deutschen Saatgutzüchter schützen würde.

So besehen hat sich also in Deutschland in der Verbindung von postfordistischer Differenzierung des Konsums und partieller Bewahrung von Handwerkstraditionen in der Produktion ein vergleichsweise wenig zentralisiertes Autorisierungsregime erhalten können, in dem private Firmen und staatliche Stellen eng miteinander kooperieren. Allerdings steht dieses Autorisierungsregime von allen Seiten unter teils latentem, teils manifestem Druck: Politisch wird der Boykott der Gentechnik von den USA und den anderen Gentechnik-Exporteuren (Kanada, Australien, Neuseeland, Argentinien, Brasilien) in der Welthandelsorganisation als Protektionismus gebrandmarkt. Wirtschaftlich ist der Boykott vor allem deshalb leicht durchzuhalten, weil die bisherigen transgenen Eigenschaften für den nordamerikanischen Markt entwickelt wurden und in Europa kaum Ertragsvorteile bringen. Zudem war der europäische Agrarmarkt bis vor Kurzem von Überproduktion geprägt. Beides könnte sich nach Auffassung einiger Befragter ändern: Es könnten neue transgene Eigenschaften entwickelt werden, die auch in Europa wesentliche Anbauvorteile mit sich brächten, und durch das Wirtschaftswachstum in den Schwellenländern könnte sich die Nachfrage an den Agrarmärkten so weit verstärken, dass von dort ein auch in Europa spürbarer Druck auf die Lebensmittelpreise ausgeübt würde. Zudem wird nun von ganz anderer Seite – kulturell besehen vom dezentralen Pol her – die lang etablierte Beschränkung des Saatgutmarktes kritisiert. Der Ökolandbau und die Slow-Food-Bewegung sehen darin eine Reduzierung der Biodiversität und eine Verengung des Geschmacksspektrums. In diesem Sinne wurde jüngst eine Klage bis vor den Europäischen Gerichtshof gebracht, um die Beschränkung des Saatguthandels auf die registrierten Hochzuchtsorten aufzuweichen und den Handel mit „alten Sorten“ zu erleichtern (AFP 2012).

4.6 Fazit zum Fallbeispiel

Am Fallbeispiel „Saatgut“ konnte gezeigt werden, in welche Richtung sich die Autorisierungsregime bewegt haben. Das wird in Abb. 3 noch einmal verdeutlicht: Es gibt von den lokalen Landrassen über die national vertriebenen Hochzuchtsorten eine Bewegung hin zu einem hoch konzentrierten und global organisierten Markt für transgenes Saatgut, also eine Bewegung hin auf den zentralen Pol. Gleichzeitig beobachten wir die erwartete Schwingung des Pendels zunächst zum öffentlichen und dann, in den letzten 30 Jahren, hin zum kommerziellen Pol. In Indien, wo uns aufgrund der postkolonialen Gleichzeitigkeit der Anbausysteme gute Vergleichsdaten vorliegen, kann man bei Baumwolle zwischen Landrassen, Hochzuchtsorten und transgenen Linien einen Unterschied im Flächenertrag von ungefähr 1 zu 3 zu 6 ausmachen (Ramaswami et al. 2012, Tab. 5), wobei allerdings zu bedenken ist, dass die Landrassen meistens von den ärmeren Bauern – d. h. auf den schlechteren Böden, mit weniger Bewässerung, weniger Dünger und weniger Pestiziden – angebaut werden.

Abb. 3
figure 3

Autorisierungsregime für Saatgut im sozialen Feld des Wissens. Pfeile symbolisieren die historische Entwicklung, Blitze markieren aktuelle Spannungen

Gleichzeitig sind die Autorisierungsregime in sich komplexer geworden und erheblich unter Spannung geraten. Gegen die Zentralisierung, also die Verdrängung des traditionellen Wissens von Bauern und Verbrauchern durch eine großindustrielle Expertenherrschaft, erhebt sich kulturelle, ökologische und soziale Kritik mit dem Ergebnis, dass die Weltmärkte bezüglich der Annahme oder Ablehnung gentechnisch veränderter Nahrungsmittel tief gespalten sind. Auch die Kommerzialisierung verläuft keineswegs bruchlos: In Nordamerika ist sie mit sehr hohen Transaktionskosten verbunden, in den Schwellenländern wird sie durch Schwarzmärkte erheblich beschränkt. Zudem sind die Autorisierungsregime mit staatlichen Validierungsinstanzen aufgerüstet worden, die Markttransparenz, Qualität sowie die gesundheitliche und ökologische Sicherheit des Saatguts garantieren sollen. Hierdurch ergeben sich zusätzliche Markteintrittsbarrieren, deren Wirkungen und Interaktionen einzukalkulieren sind, wenn man die Effekte von Rechten des geistigen Eigentums verstehen will.

5 Gesellschaftstheoretische Schlussfolgerungen

Wir haben in dieser Abhandlung über Autorisierungsregime drei zentrale Thesen verfolgt. Erstens: Rechte des geistigen Eigentums dienen nicht allein der Anregung und Belohnung von Innovationen, sondern auch der Herstellung von kognitiver Orientierung und technologischer Sicherheit. Autorenschaft und Reputation werden deswegen nicht nur von Wissensproduzenten angestrebt, sondern von Wissensnutzern auch umgekehrt diesen zugeschrieben. Denn beim Wissen handelt es sich notwendigerweise um ein asymmetrisches Gut: Nur wenn der Autor über seinen Gegenstand mehr weiß als der Leser, lohnt sich die Lektüre. Hier kommt eine zentrale Erkenntnis der Neuen Wirtschaftssoziologie beziehungsweise der Neuen Institutionenökonomik ins Spiel: Auf Märkten geht es nicht allein um Preise und Mengen, wie der Mainstream des wirtschaftspolitischen Diskurses behauptet, sondern immer auch um die Feststellung von Qualitäten und die Vertragstreue der Handelspartner. Das primäre Interesse der Konsumenten und Wissensnutzer gilt also nicht der Förderung weiterer Innovationen, sondern zunächst und in erster Linie müssen sie sich in der Flut vorhandener Angebote zurechtfinden. So besehen dient geistiges Eigentum nicht, oder jedenfalls nicht zuerst der Anreizung und Diffusion von Innovationen, sondern der Herstellung von Zurechenbarkeit und Ordnung. Der zugrunde liegende Gesellschaftsvertrag lautet also nicht „Monopolrenten für Kreativität“, sondern „Ehre und Geld für Verantwortung“.

Zweitens: Die resultierenden Autorisierungsregime sind nicht nur von wirtschaftspolitischer, sondern auch von gesellschaftspolitischer Bedeutung. Deshalb muss man sich auch nicht zu sehr wundern, wenn bei klirrender Kälte plötzlich zehntausende Menschen gegen ACTA – ein ehedem arkanes Vertragsprojekt der Handelspolitik – auf die Straße gehen oder nun regelmäßig „Piraten“ in die Parlamente einziehen. In dem Maße, wie formales Wissen und digitalisierte Informationen zur zentralen Ressource werden, sind Konflikte über ihre Regulierung und Verteilung unausweichlich. Ob die Wissensproduktion öffentlich oder kommerziell finanziert, das Wissensgut kostenlos oder gegen Entgelt bereitgestellt werden soll, ist ein in den Wirtschaftswissenschaften schon seit Langem analysierter Gegenstand und Anlass für einen heftigen Streit. In diesem Kontext wird auch immer wieder Robert K. Merton, einer der Säulenheiligen im Pantheon der Soziologie, mit seinem Begriff des Wissenskommunismus zitiert (Merton 1979a).Footnote 6 Daneben kommt aber eine weitere und mindestens ebenso wichtige Dimension ins Spiel, nämlich die der Zentralität oder Dezentralität von Definitionsmacht. In beiden Dimensionen ist die soziale Ordnung des Wissens in den letzten vierzig Jahren ins Rutschen gekommen. Zum einen ist Wissen durch die Austrocknung öffentlicher Finanzierung und die Ausweitung der Rechte des geistigen Eigentums stärker kommerzialisiert worden – zugleich hat sich aber mit dem Internet eine neue, weitgehend staatsferne Wissensallmende etabliert, die sich aus freiwilliger und nach außen namenlos bleibender Zuträgerschaft speist. Zum anderen ist Wissen stärker dekontextualisiert und expliziert worden. Damit wurden die Träger des traditionellen – d. h. kontextuell verteilten, impliziten und inkorporierten – Wissens, in unserem Fallbeispiel also die Bauern und später die mittelständischen Saatzüchter, entmachtet und, wie am Aufstieg Monsantos gezeigt, durch globale Definitions- und Gewinnmonopole zunehmend kolonialisiert. Jedoch sind mit der Bildungsexpansion und mit Open-Source-basierten Geschäftsmodellen auch antiautoritäre Gegenkräfte ins Spiel gekommen. Hier sind neue politische Bruchlinien entstanden, die von neuen Bewegungen und Parteien artikuliert werden.

Drittens: Je mehr die Produktion von Gütern auf neuem, exklusivem und dekontextualisiertem Wissen beruht, umso mehr werden diese Güter von den Nutzern und oft noch mehr von außenstehenden Dritten als „gefährlich“ wahrgenommen. Dies gilt insbesondere für technologisch hoch entwickelte, spätmoderne Gesellschaften, die diesbezüglich auch als „Risikogesellschaften“ qualifiziert werden (Beck 1986). Entsprechend werden viele Wissensgüter – wie Arzneimittel, Atomenergie, Chemikalien, transgenes Saatgut, industrialisierte Lebensmittel – im Zuge ihrer Autorisierung einem immer stärkeren staatlichen Zulassungs- und Kontrollregime unterworfen, das nolens volens wie eine Art zweites Immaterialgüterrecht wirkt und ohnehin vorhandene Monopolisierungstendenzen verstärkt. Es ist insoweit eine Ironie für die Grüne Bewegung, die sich in gesellschaftspolitischer Hinsicht Dezentralisierung und die Bewahrung von Lebenswelten auf die Fahnen geschrieben hat, dass ein verschärfter Verbraucherschutz zunächst einmal genau das Gegenteil bewirkt, nämlich weitere Verwissenschaftlichung und Monopolisierung – jedenfalls bis zu einem Schwellenwert, an dem die regulierten Wissensgüter praktisch unverkäuflich werden, wie etwa transgenes Saatgut in Europa und Japan oder Atomkraftwerke in Deutschland.

Zum Schluss sei noch ein Gedankenexperiment erlaubt: Was wäre, wenn morgen alle formellen Rechte des geistigen Eigentums abgeschafft würden? Kämen dann mangels Anreiz sämtliche Innovationen zum Erliegen – oder zumindest alle kommerziell betriebenen Innovationen? Das wäre kaum der Fall, denn Autorisierung würde dennoch stattfinden, und zwar ganz einfach deshalb, weil die Wissensnutzer aus eigenem Ordnungsbedürfnis und Qualitätsbewusstsein heraus eben trotzdem Autorität zuschreiben würden, zunächst auch ohne jeden staatlichen Eingriff. Schon der Schwarzmarkt erfordert Bezeichnungen für die Ware und Namen für die Händler als Treuhänder, auch wenn beide nur durch Flüsterpropaganda verbreitet werden. So entstehen über die basale Funktion der Identifizierung – wie wir oben am Beispiel der Stealth Seeds gesehen haben – schon spontan „natürliche“ Rechte des geistigen Eigentums. Bei Wissensgütern ist der Verbraucherschutz aber kaum über den spontanen Reputationsmechanismus allein zu gewährleisten. So sind in der Vergangenheit immer mehr Güter einer staatlich verfassten Identitätsprüfung und Validierung in immer umfassenderem Sinn unterworfen worden, wie wir es am Beispiel von Saatgut gerade gesehen haben: zunächst der Registrierung, dann der Qualitätszertifizierung, schließlich mit der Gentechnik einer umfassenden Toxizitäts- und Umweltverträglichkeitsprüfung. Insofern sind Wissensgüter de facto doppelt gegen Konkurrenz geschützt – zum einen absichtlich durch die formalen Ausschlussrechte des geistigen Eigentums, zum anderen nicht-intendiert, aber nicht weniger wirksam durch die Hürden des spontanen wie des staatlichen Verbraucherschutzes. Diese Zangenbewegung kommt aber nur in den Blick, wenn man dem Homo oeconomicus einen Homo sociologicus hinzugesellt und dem doppelten Charakter der Autorisierung nachspürt: einerseits als Anspruch oder Anmaßung von Wissensproduzenten, andererseits als Ehrerbietung und Verantwortungszuschreibung seitens der Wissensnutzer.

Das Bedürfnis nach Verantwortungszuschreibung wächst in dem gleichen Maße, wie die produzierten Güter zu Wissensgütern werden – die Wissensgesellschaft wird damit fast automatisch und beinahe zwangsläufig zur Risikogesellschaft. Warum? Indem das Wissen immer abstrakter und universeller, die Technologien immer potenter und die Durchgriffe immer globaler werden, wächst auch die Abwehr gegen die autoritäre Ermächtigung von Wissensproduzenten. Soziologisch besehen ist es dabei unerheblich, ob die Gefahren tatsächlich zunehmen, entscheidend ist vielmehr, dass sie nicht mehr auf Schicksal, sondern auf menschliche Verursachung und Verantwortung zugerechnet werden (Evers und Nowotny 1987). Hinzu kommt, dass die Autorität von Experten und die Gültigkeit ihrer Sicherheitsversprechen angezweifelt werden. Denn das ist das Doppelgesicht der Wissensgesellschaft, auf das insbesondere Nico Stehr (2003) hingewiesen hat: Die Ermächtigung der Wissensproduzenten wird begleitet von einer Emanzipation der Wissensnutzer, denn ohne Bildungsexpansion ist eine „Wissensgesellschaft“ längerfristig nicht denkbar. Behielten in den 1950er und 1960er Jahren noch die autoritären Bestrebungen der Objektivierung und des Sachzwangs die Oberhand (Schelsky 1961), haben sich seit den 1970er Jahren, als die Bildungsexpansion zu wirken begann, viele zentrifugale Gegenströmungen herausgebildet, die auf wissenschaftlichem Terrain das Objektivitätspostulat (z. B. Feyerabend 1988) und auf technologischem Terrain die Sicherheitsversprechen (Roth und Rucht 2008) grundsätzlich hinterfragen.

Praktisch manifestieren sich die Emanzipationsbestrebungen auch darin, dass Wikipedia mittlerweile den etablierten Enzyklopädien den Rang streitig macht. Die alten Autorisierungsregime waren hier dominiert von alteingesessenen kommerziellen Verlagshäusern, die mit ihren Lexika zur nationalen Institution aufgestiegen waren – Larousse in Frankreich, Encyclopaedia Britannica in Großbritannien und Brockhaus in Deutschland – und für ihre Einträge meistens auf wissenschaftliche Experten zurückgriffen. Wikipedia ist demgegenüber transnationaler und – zumindest auf den ersten Blick gesehen – sehr viel demokratischer organisiert: Theoretisch kann jeder Einträge anlegen, korrigieren und löschen. Da universal gültige Wahrheit aber trotzdem noch – oder in globaler Hinsicht mehr denn je – als „regulative Idee“ im Sinne von Immanuel Kant wirksam ist, gibt es auch im neuen Autorisierungsregime einen redaktionellen Prozess und mit ihm interne Hierarchiebildungen, bei denen aber universitäre Ausbildungen und wissenschaftliche Reputation kaum eine Rolle spielen (Stegbauer 2009). Da Wikipedia mittlerweile selbst von vielen Wissenschaftlern anerkannt wird (Nature 2006) und sich beim übrigen Publikum ohnehin großer Nachfrage erfreut, kann man hier die Wirksamkeit der Bildungsexpansion sowie die dezentralisierende Wirkung von digitalen und internetbasierten Medien beobachten.

So betrachtet ist dann der Streit um die Gentechnik oft nur vordergründig ein Streit um Sicherheit und Gesundheit. Es geht wohl nicht so sehr darum, ob MON 810 – ein in Deutschland sehr umstrittener Zulassungsfall – als insektenresistenter Mais nun eine Gefahr für bestimmte Arten von Schmetterlingen darstellt oder nicht. Hier gibt das Umwelt- und Naturschutzrecht der Umweltschutzbewegung jedoch einen Hebel in die Hand, um die Dominanz einer bestimmten Richtung der Agrartechnologie und die Monopolstellung eines Konzerns (Monsanto) zu attackieren – also letztlich die Definitionsmacht zu dezentralisieren, was Bauern anbauen müssen und was wir essen sollen. Die Ironie dabei ist jedoch, dass durch den politischen Konflikt um Kennzeichnung, Haftung und präventive Sicherheitsüberprüfungen – und bei Arzneimitteln, Chemikalien etc. haben wir ähnliche Entwicklungen – Marktzugangsbarrieren errichtet und damit nicht-intendierte Monopolstellungen erst geschaffen werden. Andererseits ist aber auch zu fragen: Sind autoritäre und zentralisierte Autorisierungsregime bei gefährlichen Technologien nicht sogar die bessere Lösung? Man stelle sich vor, die Atomtechnologie wäre so dezentral diffundiert wie die Personalcomputer: In den 1950er Jahren gab es tatsächlich die Idee, die Keller von Wohnhäusern zum Zweck der Heizung und sonstigen Energieversorgung mit kleinen Kernkraftwerken zu versehen (Radkau 1988). Wenn jeder Hausbesitzer zum Betreiber eines Kernkraftwerks würde, wie wollte man da die Probleme der Verstrahlung, der Verseuchung und der Proliferation von spaltbarem Material kontrollieren?

Autorisierung würde also im Bereich von Wissenschaft und Technologie in jedem Fall stattfinden, auch ohne staatlich erlassene Rechte des geistigen Eigentums. Was wäre aber mit der kulturellen Produktion – käme sie ohne materielle Anreize des Urheberrechts nicht zum Erliegen? Hier müssen wir auf ein offensichtliches Missverhältnis hinweisen: Anspruchsvolle Produktionen im Bereich der Literatur, der Musik, des Theaters, der Bildenden Künste und des Films etc. sind in aller Regel kommerziell wenig ertragreich und daher materiell vor allem auf Selbstausbeutung, reiche Verwandte oder öffentliches Mäzenatentum angewiesen. Seichte Unterhaltung – eng am eingeschliffenen Publikumsgeschmack orientiert – verkauft sich dagegen gut, jedenfalls für einige Autoren und deren Verlage, die das Glück gehabt haben, über selbstverstärkende Aufwinde der Publikumsresonanz einen Blockbuster zu lancieren (Keuschnigg 2012). Die Ironie liegt im Kulturbereich also darin, dass das Urheberrecht gerade dem Teil des kulturellen Schaffens besonders zugutekommt, der seiner Natur nach sowieso durch die leichte Variation der immer gleichen, einfachen Formen immer schon ein Plagiat seiner selbst darstellt und insofern Welten entfernt ist von der bürgerlichen Idee des „genialen Künstlers“, die das Urheberrecht ursprünglich legitimiert hat.

Doch über Geschmack soll hier nicht gestritten werden: Alle Arten von kulturellem Schaffen wird es weiter geben, indem sie sich wie schon in der Vergangenheit über Auftritte und Mäzene finanzieren. Allerdings würden dann z. B. Popmusiker wieder zu Volksmusikanten, weil Kopien kommerziell nicht mehr verwertbar wären – ein Teil der Finanzmittel würde sich aus der Branche verflüchtigen und in andere Konsumfelder umgelenkt werden. Die kommerziellen Einkünfte der Kulturschaffenden würden sich nach unten hin nivellieren, weil sich monetäre Einkünfte nur noch aus der Kontextualität des Auftritts ergäben. Deswegen müsste jedoch niemand um seine Idole bangen – seien es die Rolling Stones oder Heino; aber sie könnten dann künstlerische Präsenz nicht mehr mit der künstlichen Aura des großen Geldes verstärken oder ersetzen.

Wie immer man über die erwartbaren Veränderungen urteilt: Ein öffentliches Interesse an Rechtsverfolgung ist zumindest im kulturellen Bereich kaum ersichtlich. Denn wo es keine Verunsicherung gibt, da muss auch nichts autorisiert werden. So betrachtet wirft das hier skizzierte Konzept der Autorisierung nicht nur theoretisch, sondern auch politisch-praktisch ein anderes Licht auf die Rechte des geistigen Eigentums, je nachdem, um welche Wissensformen, Güter und Technologien es geht.

Danksagung:

Die Forschungen zu dieser Untersuchung wurden vom Bundesministerium für Bildung und Forschung im Rahmen der Förderinitiative „Neue Governance der Wissenschaft“ mit dem Projekt „Governance Geistigen Eigentums“ unterstützt. Für hilfreiche Kommentare danken wir den Herausgebern und dem Redakteur des Berliner Journals für Soziologie. Außerdem geht unser Dank für Unterstützung und Kritik an Johannes Schubert, Matthias Huber, Elisabeth Fleschhut, Susan Hachgenei und Max Ischebeck.