Zusammenfassung
Open Science ist normatives Ideal einer sozial robusten Wissensproduktion und zugleich wissenschaftspolitisches Ziel, Investitionen in Forschung so effektiv wie möglich zu gestalten. Die Realisierung der Idee von Open Science ist an die digitale Transformation der Wissenschaft geknüpft, die weitreichende Veränderungen der bisherigen Praxis der Wissensproduktion mit sich bringt. Im vorliegenden Beitrag wird das schillernde Programm von Open Science in seinen vielfältigen Dimensionen systematisch abgesteckt und dessen Implikationen entlang aktueller Krisendiagnosen der Wissenschaft wissenschaftssoziologisch reflektiert.
Similar content being viewed by others
Literatur
Assante, Massimiliano, Leonardo Candela, Donatella Castelli, Paolo Manghi, und Pasquale Pagano. 2015. Science 2.0 Repositories. Time for a Change in Scholarly Communication. D-Lib Magazine 21(1/2) Doi:10.1045/january2015-assank.
Beck, Ulrich. 1986. Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt am Main: Suhrkamp.
Begley, Glenn C., und Lee M. Ellis. 2012. Drug development: Raise standards for preclinical cancer research. Nature 483:531–533.
Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities. 2003. http://openaccess.mpg.de/Berliner-Erklaerung. Zugegriffen am 15.01.2016.
Bernstein, Ethan S. 2012. The transparency paradox: A role for privacy in organizational learning and operational control. Administrative Science Quarterly 57:181–216.
Bethesda Statement on Open Access Publishing. 2003. Initiiert von Patrick O. Brown et al. http://www.earlham.edu/~peters/fos/bethesda.htm. Zugegriffen am 15.01.2016.
Blattmann, Heidi, Otfried Jarren, Ulrich Schnabel, Peter Weingart, und Holger Wormer. 2014. Kontrolle durch Öffentlichkeit: Zum Verhältnis Medien – Wissenschaft in der Demokratie. In Wissen – Nachricht – Sensation, Hrsg. Peter Weingart und Patricia Schulz, 391–412. Weilerswist: Velbrück Wissenschaft.
Bornmann, Lutz. 2012. Measuring the societal impact of research: Research is less and less assessed on scientific impact alone – we should aim to quantify the increasingly important contributions of science to society. EMBO Reports 13:673–676.
Bornmann, Lutz. 2014a. Is there currently a scientific revolution in Scientometrics? Journal of the Association for Information Science and Technology 65(3): 647–648.
Bornmann, Lutz. 2014b. Do altmetrics point to the broader impact of research? An overview of benefits and disadvantages of altmetrics. Journal of Informetrics 8(4): 895–903.
Bundesministerium für Bildung und Forschung (BMBF). 2013. Roadmap für Forschungsinfrastrukturen. Pilotprojekt des BMBF. https://www.bmbf.de/pub/roadmap_forschungsinfrastrukturen.pdf. Zugegriffen am 15.09.2015.
Chambers, Chris, und Brian Nosek. 2015. The first imperative: Science that isn’t transparent isn’t science. The Guardian. 25. Juni 2015. http://www.theguardian.com/science/head-quarters/2015/jun/25/the-first-imperative-science-that-isnt-transparent-isnt-science. Zugegriffen am 15.09.2015.
Chang, Andrew C., und Phillip Li. 2015. Is economics research replicable? Sixty published papers from thirteen journals say „Usually Not“. In Finance and economics discussion series, 2015–083. Washington: Board of Governors of the Federal Reserve System. doi:10.17016/FEDS.2015.083.
Delfanti, Alessandro. 2013. Biohackers. The politics of open science. London: Pluto Press.
Dickel, Sascha, und Martina Franzen. 2015. Digitale Inklusion: Zur sozialen Öffnung des Wissenschaftssystems. Zeitschrift für Soziologie 44(5): 330–347.
Dickel, Sascha, und Martina Franzen. 2016. ‚Das „Problem of Extension“ revisited: Neue Modi digitaler Partizipation in der Wissenschaft‘. JCOM 15(01):A06_de.
DORA. 2013. American Society for Cell Biology: San Francisco declaration on research assessment. http://am.ascb.org/dora. Zugegriffen am 15.09.2015.
European Commission. 2014. Background document: Public Consultation ‚Science 2.0‘: Science in transition. Directorates-General for Research and Innovation (RTD) and Communications Networks, content and Technology (CONNECT) http://ec.europa.eu/research/consultations/science-2.0/background.pdf . Zugegriffen am 15.09.2015.
European Commission. 2015. Validation of the results of the public consultation on Science 2.0: Science in Transition. https://ec.europa.eu/research/consultations/science-2.0/science_2_0_final_report.pdf. Zugegriffen am 15.09.2015.
Fecher, Benedikt, und Sascha Friesike. 2013. Open science: One term, five schools of thought. RatSWD WP 218. http://ssrn.com/abstract-227036. Zugegriffen am 15.05.2016.
Finke, Peter. 2014. Citizen Science: Das unterschätzte Wissen der Laien. München: oekom verlag.
Franzen, Martina. 2011. Breaking News. Wissenschaftliche Zeitschriften im Kampf um Aufmerksamkeit. Baden-Baden: Nomos.
Franzen, Martina. 2015. Der Impact Factor war gestern. Altmetrics und die Zukunft der Wissenschaft. Themenheft: Der impact des impact factors, Soziale Welt 66(2): 225–242.
Franzen, Martina. 2016 (i. E.). Science between trust and control: Non-Reproducibility in scholarly publishing. In Reproducibility: Principles, problems, practices and prospects, Hrsg. Harald Atmanspacher und Sabine Maasen, 468–485. New York: Wiley.
Franzen, Martina, Simone Rödder, und Peter Weingart. 2012. Wissenschaft und Massenmedien: Von Popularisierung zu Medialisierung. In Handbuch Wissenschaftssoziologie, Hrsg. Maasen Sabine, Kaiser Mario, Reinhart Martin und Sutter Barbara, 355–364. Wiesbaden: Springer.
Gewin, Virgina. 2016. An open mind on open data. Nature 529:117–119.
Haeussler, Carolin. 2011. Information-sharing in academia and the industry: A comparative study. Research Policy 40(1): 105–122.
Herb, Ullrich. 2015. Open Science in der Soziologie. Eine interdisziplinäre Bestandsaufnahme zur offenen Wissenschaft und eine Untersuchung ihrer Verbreitung in der Soziologie. Schriften zur Informationswissenschaft, Bd. 67. Glückstadt: Verlag Werner Hülsbusch. doi:10.5281/zenodo.31234.
Hirschauer, Stefan. 2004. Peer Review Verfahren auf dem Prüfstand. Zum Soziologiedefizit der Wissenschaftsevaluation. Zeitschrift für Soziologie 33(1): 62–83.
Hung, Jochen. 2011. Großbritannien: Aufregung im Elfenbeinturm, in: duz Deutsche Universitätszeitung vom 19.08.2011.
King’s College London and Digital Science. 2015. The nature, scale and beneficiaries of research impact: An initial analysis of Research Excellence Framework (REF) 2014 impact case studies. Research Report 2015/01.
Kriegeskorte, Nikolaus. 2012. Open evaluation: A vision for entirely transparent post-publication peer review and rating for science. Frontiers in Computational Neuroscience 6:79. doi:10.3389/fncom.2012.00079.
Leonelli, Sabina. 2013. Why the current insistence on open access to scientific data? Big data, knowledge production and the political economy of contemporary biology. Bulletin of Science, Technology and Society 33(1–2): 6–11.
Leonelli, Sabina, Daniel Spichtinger, und Barbara Prainsack. 2015. Sticks and carrots: Encouraging open science at its source. Geography and Environment 2(1): 12–16.
Luhmann, Niklas. 1984. Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt/Main: Suhrkamp.
Luhmann, Niklas. 1990. Die Wissenschaft der Gesellschaft. Frankfurt/Main: Suhrkamp.
Meyer, Marshall W., und Vipin Gupta. 1994. The performance paradox. Research in Organizational Behavior 16:309–369.
Münch, Richard. 2011. Akademischer Kapitalismus. Über die politische Ökonomie der Hochschulreform. Berlin: Suhrkamp.
Munthe, Christian, und Stellan Welin. 1996. The morality of scientific openness. Science and Engineering Ethics 2(4): 411–428.
Nassehi, Armin. 2006. Der soziologische Diskurs der Moderne. Frankfurt/Main: Suhrkamp.
Nature Editorial. 2015. Rise of the citizen scientist. Nature 534:265.
Neuberger, Christoph. 2014. Social Media in der Wissenschaftsöffentlichkeit. Forschungsstand und Empfehlungen. In Wissen – Nachricht – Sensation. Zur Kommunikation zwischen Wissenschaft, Öffentlichkeit und Medien, Hrsg. Peter Weingart und Schulz Patricia, 315–368. Weilerswist: Velbrück.
Nosek, Brian A., et al. 2015. Promoting an open research culture. Science 348(6242): 1422–1425.
Open Science Collaboration. 2015. Estimating the reproducibility of psychological science. Science 349(6251):aac4716.
ORCID. 2016. Requiring ORCID in Publication Workflows: Open Letter https://orcid.org/content/requiring-orcid-publication-workflows-open-letter. Zugegriffen am 19.01.2016.
Osterloh, Margrit. 2010. Governance by numbers: Does it really work in research? Analyse und Kritik 32: 267–283.
Paglione, Laura, und Rebecca N. Lawrence. 2015. Data exchange standards to support and acknowledge peer-review activity. Learned Publishing 28(4): 309–316.
Priem, Jason. 2013. Beyond the paper. Nature 495:437–440.
Priem, Jason, Dario Taraborelli, Paul Groth und Cameron Neylon. 2010. Alt-metrics: A manifesto. http://altmetrics.org/manifesto. Zugegriffen am 15.10.2015.
Pulverer, Bernd. 2010. Transparency showcases strength of peer review. Nature 468:29–31.
Reich, Eugenie Samuel. 2013. Science publishing: The golden club. Nature 502(7471): 291–293.
Rogge, Jan-Christoph. 2015. Soziale Bedingungen und Effekte der quantitativen Leistungsmessung, Themenheft: Der impact des impact factors. Soziale Welt 66(2): 205–214.
Scheufele, Dietram. 2014. Science communication as political communication. Proceedings of the National Academy of Sciences 111(Suppl. 4): 13585–13592.
Schimank, Uwe. 2010. Reputation statt Wahrheit: Verdrängt der Nebencode den Code? Soziale Systeme 16:233–242.
Stichweh, Rudolf. 1994. Differenzierung der Wissenschaft. In Wissenschaft, Universität, Professionen. Soziologische Analysen, Hrsg. R. Stichweh, 15–51. Frankfurt am Main: Suhrkamp.
Tenopir, Carol, et al. 2011. Data sharing by scientists: Practises and perceptions. PLoS ONE 6(6), e21101.
Wehling, Peter. 2012. From invited to uninvited participation (and back?): Rethinking civil society engagement in technology assessment and development. Poiesis & Praxis 9(1–2): 43–60.
Weingart, Peter. 2001. Die Stunde der Wahrheit? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft. Weilerswist: Velbrück Wissenschaft.
Weingart, Peter. 2012. The lure of the mass media and its repercussions on science. In The sciences’ media connection – Communication to the public and its repercussions. Sociology of the sciences yearbook, Bd. 28, Hrsg. Simone Rödder, Martina Franzen und Peter Weingart, 17–32. Dordrecht: Springer.
Wilsdon, James, et al. 2015. The Metric Tide: Report of the independent review of the role of metrics in Research Assessment and Management. doi:10.13140/RG.2.1.4929.1363.
Wissenschaftsrat (WR). 2011. Empfehlungen zu Forschungsinfrastrukturen in den Geistes- und Sozialwissenschaften. Drs. 10465–11. Berlin: Wissenschaftsrat.
Wissenschaftsrat (WR). 2012. Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastrukturen in Deutschland bis 2020. Drs. 2359–12. Berlin: Wissenschaftsrat.
Wouters, Paul, und Rodrigo Costas. 2012. Users, narcissism and control – tracking the impact of scholarly publications in the 21st century, Utrecht. http://research-acumen.eu/wp-content/uploads/Users-narcissism-and-control.pdf. Zugegriffen am 15.09.2015.
Wouters, Paul, et al. 2015. The Metric Tide: Literature review (Supplementary report I to the independent review of the role of metrics in research assessment and management). HEFCE. doi:10.13140/RG.2.1.5066.35.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2016 Springer Fachmedien Wiesbaden
About this entry
Cite this entry
Franzen, M. (2016). Open Science als wissenschaftspolitische Problemlösungsformel?. In: Simon, D., Knie, A., Hornbostel, S., Zimmermann, K. (eds) Handbuch Wissenschaftspolitik. Springer NachschlageWissen. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-05677-3_23-1
Download citation
DOI: https://doi.org/10.1007/978-3-658-05677-3_23-1
Received:
Accepted:
Published:
Publisher Name: Springer VS, Wiesbaden
Online ISBN: 978-3-658-05677-3
eBook Packages: Springer Referenz Sozialwissenschaften und Recht