Zusammenfassung
In der Robotik lässt sich ein partieller Übergang von der Servicerobotik, die menschliche Alltagsumgebungen als eine für Roboter besonders komplexe und daher rein technisch besonders reizvolle Aufgabe betrachtet hat, hin zu Social Robotics beobachten. Jene ist angetreten, die im engeren Sinne ingenieurialen Entwicklungsanstrengungen eng mit der sozialwissenschaftlichen und psychologischen Begleitforschung zu verzahnen. Der Beitrag schlägt vor, diesen grundsätzlichen Wandel des Innovationskontextes konzeptionell als Institutionalisierung zu fassen, und zwar im Sinne des neoinstitutionalistischen Konzeptes der Issue-based Fields. Zu diesem Zweck wird zunächst das Konzept der Issue-based Fields so rekonstruiert, dass sich vier generalisierbare Hauptbestandteile identifizieren lassen, die sich dann auf den empirischen Fall der Robotik anwenden lassen. Anschließend werden anhand von prominenten Beispielen aus den Feld Social Robotics empirische Evidenzen für das Vorliegen von verschiedenen Arten von Institutionalisierungstendenzen in Social Robotics präsentiert. Abschließend wird der Ertrag der Anwendung des Konzeptes auf den Fall systematisch diskutiert, um daran anschließend zwei vorsichtige Generalisierungen zu wagen, die auf eine Erweiterung des Konzeptes der Issue-based Fields hinauslaufen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Similar content being viewed by others
Notes
- 1.
Aus diesem Grund habe ich es in diesem Text beim englischen Originalbegriff belassen.
- 2.
Auch wenn in vielen neoinstitutionalistischen Texten ein Mangel an klaren und geteilten Basisbegriffen beklagt wird, so findet sich doch häufig ein Bezug auf diese drei „pillars“ (Säulen) des Neoinstitutionalismus nach Scott (1995). Und auch im Klassiker DiMaggio und Powell (1983) werden inhaltlich gleichlautend „coercive isomorphism“ (also regulative Institutionen), „normative pressures“ (also normative Institutionen, d. h. Legitimation im engeren Sinne) sowie „mimetic processes“ (also „kognitive Institutionen“) als „Mechanismen“ der institutionellen Gleichrichtung genannt.
- 3.
Solche in einem ganzen Feld wirkenden organisationalen Verfahrensmodelle, die dem Neoinstitutionalismus zufolge ja häufig weltweite Geltung erlangen, werden häufig mit kondensierten englischen Begriffen bezeichnet. Deshalb belasse ich es auch hier beim englischen Begriff.
- 4.
Damit soll ganz explizit mit der Vorstellung des klassischen Neoinstitutionalismus gebrochen werden: „For institutional theory, the implications of this model allow for more sophisticated notions of isomorphism and resistance to change. Inertia, traditionally a phenomenon attributed to the field, can be the result of organization-level dynamics that resist change“ (Hoffman 2001, S. 133).
- 5.
Das soll keineswegs als eine prinzipielle Kritik an quantitativer Vorgehensweise verstanden werden. Hoffmans quantitatives Design der empirischen Erhebung erlaubt vielmehr, die wesentlichen Daten für einen Jahrzehnte umspannenden Wandlungsprozess in einem so umfangreichen sozialen Gebilde wie einem Feld in Gänze erheben zu können, was gegenüber jeder zwangsläufig auf stichprobenartige Vertiefung begrenzten qualitativen Methoden einen großen Vorteil darstellt. Ein solch umfangreicher Gegenstand schreit geradezu nach einem Mixed-methods-Vorgehen. Das aber liegt weit jenseits der Kapazität eines Einzelforschers.
- 6.
Dafür scheint es einen tieferliegenden Grund zu geben, den Garud et al. (2007) als das „paradox of embedded agency“ beschreiben: „The theoretical puzzle is as follows: if actors are embedded in an institutional field and subject to regulative, normative and cognitive processes that structure their cognitions, define their interests and produce their identities […], how are they able to envision new practices and then subsequently get others to adopt them?“ (Garud et al. 2007, S. 961). Als Lösung dieses Paradoxes wirkt eine Abfolge der Art: totale Einbettung in die institutionelle Ordnung – totale Entbettung und interessengeleiteter Kampf für eine neue Ordnung – totale Einbettung in die als Ergebnis des Kampfes entstandene neue Ordnung schon deshalb nicht besonders plausibel, weil diese Abfolge den mehrfachen drastischen und sofortigen Einstellungswechsel der Akteure voraussetzt.
- 7.
In den angesprochenen Überblicksdarstellungen wird immer eine dritte Variante der Thematisierung des Verhältnisses von Ethik und Robotik genannt: „Robot’s Ethics“. Dabei geht er darum, sich in ethischer Hinsicht einen – heute sicherlich noch nicht existierenden – Roboter mit echter Entscheidungsautonomie vorzustellen, um dann nach den gesellschaftlichen Konsequenzen und Herausforderungen zu fragen (bzw. moralphilosophisch zu extrapolieren), die gelungene „artificial morality“ mit sich bringen würde. Das ist auch, aber nicht nur spekulative Philosophie und damit eine vielleicht etwas ‚abgefahrene‘ akademische Spezialisierung. Eine Variante dieser dritten Variante der Thematisierung des Verhältnisses von Ethik und Robotik scheint sich auf die Frage zu konzentrieren: „is it ethical for designers to attempt to ‚design out‘ abusive behaviour by users?“ (Whitby 2008). Es geht dann also um „the ethics of mistreating robots“ (Whitby 2008, S. 4). Viele, die wie ich selbst Roboter mögen und faszinierend finden, werden dieser Perspektive sicherlich etwas abgewinnen können. Einen realen Einfluss auf das Feld Social Robotics hat diese Sympathie mit den Robotern, soweit ich sehen kann, allerdings nicht.
- 8.
Selbstredend gibt es Ausnahmen. So lehnen etwa Sparrow und Sparrow (2006) den Einsatz von Robotern in der Pflege aus moralphilosophischen Gründen rundheraus ab, obwohl sie eine große Sympathie für andere Anwendungsdomänen von Robotern erkennen lassen.
- 9.
Allerdings ist es auch für die Bewertung solcher Opportunitäten zentral, Bewertungsmaßstäbe für die Bewertung und Evaluation unterschiedlicher konkreter Geschäftsmodelle und Produktarten zu haben. Zudem spielen solche Maßstäbe der Messung von Umweltverschmutzung sowie von notwendigen Grenzwerten auch in Hoffmans empirischem Fall ersichtlich eine große Rolle, auch wenn er selbst sie nicht im Zusammenhang mit Institutionalisierung thematisiert. Diese Überlegungen würden eher dafür sprechen, evaluative Institutionalisierung in den generellen Kanon der grundlegenden Institutionalisierungsformen aufzunehmen.
Literatur
Arkin, R.C. (2007). Governing Lethal Behavior: Embedding an Ethical Controller in a Hybrid Deliberative-Reactive Robot Architecture. Atlanta: GVU Technical Report GIT-GVU-07-11, College of Computing, Georgia Tech. https://s3.amazonaws.com/academia.edu.documents/37456443/Le_arkin.pdf. Zugegriffen: 09.12.2017.
Arkin, R.C. (2008). Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative-reactive Robot Architecture –Part III: Representational and Architectural Considerations. In Technology in Wartime Conference, 2008. Stanford Law School, http://hdl.handle.net/1853/22715. Zugegriffen: 09.12.2017.
Bartneck, C., Kulic, D., Croft, E., & Zoghbi, S. (2009). Measurement Instruments for the Anthropomorphism, Animacy, Likeability, Perceived Intelligence, and Perceived Safety of Robots. International Journal of Social Robotics, 1(1), S. 83–93.
Beck, S. (2016). The Problem of Ascribing Legal Responsibility in the Case of Robotics. AI & Society, 31(4), S. 473–481.
Beer, J.M., Fisk, A.D., & Rogers, W.A. (2014). Toward a Framework for Levels of Robot Autonomy in Human-Robot Interaction. Journal of Human-Robot Interaction, 3(2), S. 74–99.
Bethel, C.L., & Murphy, R.R. (2010). Review of Human Studies Methods in HRI and Recommendations. International Journal of Social Robotics, 2, S. 347–359.
Bischof, A. (2017). Soziale Maschinen bauen: Epistemische Praktiken der Sozialrobotik. Bielefeld: transcript. Zugegriffen.
Breazeal, C., Dautenhahn, K., & Kanda, T. (2016). Social Robotics. In B. Siciliano & O. Khatib (Hrsg.), Springer Handbook of Robotics 2nd Edition (S. 1935–1972). Cham: Springer International Publishing.
Compagna, D., & Kohlbacher, F. (2015). The Limits of Participatory Technology Development: the Case of Service Robots in Care Facilities for Older People. Technological Forecasting and Social Change, 93(1), S. 19–31.
Dautenhahn, K. (2007). Socially Intelligent Robots: Dimensions of Human-Robot Interaction. Philosophical Transactions of the Royal Society: Biological Science, 362(1480), S. 679–704.
de Graaf, M.M.A. (2016). An Ethical Evaluation of Human-Robot Relationships. International Journal of Social Robotics, 8(4), S. 589–598.
DiMaggio, P.J., & Powell, W.W. (1983). The Iron Cage Revisited: Institutional Isomorphism and Collective Rationality in Organizational Fields. American Sociological Review, 48(2), S. 147–160.
Feil-Seifer, D., & Mataric, M.J. (2011). Socially Assistive Robotics. IEEE Robotics & Automation Magazine 18(1), S. 24–31.
Feil-Seifer, D., Skinner, K., & Matarić, M.J. (2007). Benchmarks for Evaluating Socially Assistive Robotics. Interaction Studies, 8(3), S. 423–439.
Fligstein, N. (1997). Social Skill and Institutional Theory. American Behavioral Scientist, 40(4), S. 397–405.
Garud, R., Hardy, C., & Maguire, S. (2007). Institutional Entrepreneurship as Embedded Agency: An Introduction to the Special Issue. Organization Studies, 28(7), S. 957–969.
Gläser, J., & Schimank, U. (2014). Autonomie als Resistenz gegen Beeinflussung. Forschungshandeln im organisatorischen und politischen Kontext. Zeitschrift für theoretische Soziologie, 3(Sonderband 2: Autonomie revisited. Beiträge zu einem umstrittenen Grundbegriff in Wissenschaft, Kunst und Politik), S. 41–61.
Greenwood, R., Suddaby, R., & Hinings, C.R. (2002). Theorizing Change: The Role of Professional Associations in the Transformation of Institutional Fields. Academy of Management Journal, 45(1), S. 58–80.
Heerink, M., Kröse, B., Evers, V., & Wielinga, B. (2010). Assessing Acceptance of Assistive Social Agent Technology by Older Adults: the Almere Model. International Journal of Social Robotics, 2, S. 361–375.
Hoffman, A.J. (1999). Institutional Evolution and Change: Environmentalism and the US Chemical Industry. Academy of Management Journal, 42(4), S. 351–371.
Hoffman, A.J. (2001). Linking Organizational and Field Level Analyses: The Diffusion of Corporate Environmental Practice. Organization & Environment, 14(2), S. 133–156.
Krings, B.-J., Böhle, K., Decker, M., Nierling, L., & Schneider, C. (2014). Serviceroboter in Pflegearrangements. In M. Decker, T. Fleischer, J. Schippl & N. Weinberger (Hrsg.), Zukünftige Themen der Innovations- und Technikanalyse: Lessons learned und ausgewählte Ergebnisse. KIT Report No. 7668 (S. 63–122). Karlsruhe: KIT Scientific Publishing.
Łichocki, P., Billard, A., & Kahn, P.H. (2011). The Ethical Landscape of Robotics. IEEE Robotics & Automation Magazine, 18(1), S. 39–50.
Lin, P. (2012). Introduction to Robot Ethics. In P. Lin, G. Abney & G.A. Bekey (Hrsg.), Robot Ethics. The Ethical and Social Implications of Robotics (S. 3–16). Boston, MA: MIT Press.
Lin, P., Abney, G., & Bekey, G.A. (Hrsg.) (2012). Robot Ethics. The Ethical and Social Implications of Robotics. Boston, MA: MIT Press.
Lukes, S. (1974). Power: A Radical View. London: Macmillan.
Matthias, A. (2004). The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata. Ethics and Information Technology, 6(3), S. 175–183.
Meister, M. (2011). Soziale Koordination durch Boundary Objects am Beispiel des heterogenen Feldes der Servicerobotik. Dissertation, Technische Universität Berlin.
Meister, M. (2014). When is a Robot really Social? An Outline of the Robot Sociologicus. Sti-Studies, 10(1), S. 107–134.
Meyer, J.W., & Rowan, B. (1977). Institutionalized Organizations: Formal Structure as Myth and Ceremony. American Journal of Sociology, 83(2), S. 340–363.
Murphy, R., & Woods, D.D. (2009). Beyond Asimov: The Three Laws of Responsible Robotics. IEEE Intelligent Systems, 24(9), S. 14–20.
Powers, T.M. (2011). Incremental Machine Ethics. IEEE Robotics & Automation Magazine, 18(1), S. 51–58.
Rammert, W. (1997). Innovation im Netz. Neue Zeiten für technische Innovationen: heterogen verteilt und interaktiv vernetz. Soziale Welt, 48(4), S. 397–416.
Rammert, W. (2000). Auf dem Weg zu einer post-schumpeterianischen Innovationsweise. Institutionelle Differenzierung, reflexive Modernisierung und interaktive Vernetzung im Bereich der Technikentwicklung. In W. Rammert (Hrsg.), Technik aussoziologischer Perspektive 2. Kultur –Innovation –Virtualität (S. 157–173). Wiesbaden: Westdeutscher Verlag.
Rammert, W. (2006). Two Styles of Knowing and Knowledge Regimes: Between ‘Explicitation’ and ‘Exploration’ under Conditions of ‘Functional Specialization’ or ‘Fragmental Distribution’. In J. Hage & M. Meus (Hrsg.), Innovation, Science and Institutional Change. A Research Handbook (S. 256–284). Oxford: Oxford University Press.
Rao, H. (1998). Caveat Emptor: The Construction of Nonprofit Consumer Watchdog Organizations. American Journal of Sociology, 103(4), S. 912–961.
Royakkers, L., & van Elst, R. (2015). A Literature Review on New Robotics: Automation from Love to War. International Journal of Social Robotics, 7(5), S. 549–570.
Sabanovic, S. (2010). Robots in Society, Society in Robots. Mutual Shaping of Society and Technology as a Framework for Social Robot Design. Internatinal Journal of Social Robotics, 2, S. 439–450.
Schimank, U. (2010). Handeln in Strukturen. Einführung in die akteurtheoretische Soziologie. Vierte völlig überarbeitete Auflage. Weinheim: Juventa.
Scott, W.R. (1995). Institutions and Organizations. London: Sage.
Shim, J., Arkin, R., & Pettinatti, M. (2017). An Intervening Ethical Governor for a Robot Mediator in Patient-Caregiver Relationship: Implementation and Evaluation. In 2017 IEEE International Conference on Robotics and Automation (ICRA), https://www.cc.gatech.edu/ai/robot-lab/online-publications/ICRA17_Shim_Arkin_Pettinati_final.pdf. Zugegriffen: 09.12.2017.
Siciliano, B., & Khatib, O. (2016). Robotics and the Handbook. In B. Siciliano & O. Khatib (Hrsg.), Springer Handbook of Robotics 2nd Edition (S. 1–5). Cham: Springer International Publishing.
Snow, D.A., & Benford, R.D. (1992). Master Frames and Cycles of Protest. In A. Morris & C. Mueller (Hrsg.), Frontiers in Social Movement Theory, (S. 133–155). New Haven, Conn.: Yale University Press.
Sparrow, R., & Sparrow, L. (2006). In the Hands of Machines? The Future of Aged Care. Minds and Machines, 16(2), S. 141–161.
Star, S.L., & Griesemer, J.R. (1989). Institutional Ecology, ‘Translations’ and Boundary Objects: Amateurs and professionals in Berkley’s Museum of Vertebrate Zoology, 1907–39. Social Studies of Science, 19, S. 387–420.
Steinfeld, A., Fong, T., Kaber, D., Lewis, M., Scholtz, J., Schultz, A., & Goodrich, M. (2006). Common metrics for human-robot interaction. Proceedings of the First ACM International Conference on Human Robot Interaction, Salt Lake City, UT, S. 33–40.
Suddaby, R., & Greenwood, R. (2005). Rhetorical Strategies of Legitimacy. Administrative Science Quarterly, 50(1), S. 35–67.
Van Wynsberghe, A. (2013). Designing Robots for Care: Care Centered Value-Sensitive Design. Science and Engineering Ethics, 19(2), S. 407–433.
Vanderelst, D., & Winfield, A. (2016). An Architecture for Ethical Robots. arXiv preprint, arXiv:1609.02931.
Veruggio, G., Operto, F., & Bekey, G. (2016). Roboethics: Social and Ethical Implications. In B. Siciliano & O. Khatib (Hrsg.), Springer Handbook of Robotics 2nd Edition (S. 2135–2160). Cham: Springer International Publishing.
Walgenbach, P., & Meyer, R. (2008). Neoinstitutionalistische Organisationstheorie. Stuttgart: Kohlhammer.
Wallace, W., & Allen, C. (2008). Moral Machines: Teaching Robots Right from Wrong. Oxford: Oxford University Press.
Weber, K. (2015). MEESTAR: Ein Modell zur ethischen Evaluierung sozio-technischer Arrangements in der Pflege- und Gesundheitsversorgung. In K. Weber, D. Frommeld, A. Manzeschke & H. Fangerau (Hrsg.), Technisierung des Alters –Beitrag für ein gutes Leben? (S. 247–262). Stuttgart: Steiner.
Weiss, A. (2016). Creating Service Robots for and with People: A User-Centered Reflection on the Interdisciplinary Research Field of Human-Robot Interaction. In 15th Annual STS Conference Graz, Critical Issues in Science, Technology, and Society Studies, https://conference.aau.at/event/46/material/paper/6.pdf. Zugegriffen: 05.04.2017.
Weiss, A., Bernhaupt, R., Lankes, M., & Tscheligi, M. (2009). The USUS Evaluation Framework for Human-Robot Interaction. In AISB2009: Proceedings of the Symposium on New Frontiers in Human-Robot Interaction. SSAISB, (158–165). http://www.aisb.org.uk/convention/aisb09/Proceedings/NEWFRONTIERS/FILES/WeissABernhauptR.pdf. Zugegriffen: 12.07.2010.
Whitby, B. (2008). Sometimes it’s Hard to be a Robot: A Call for Action on the Ethics of Abusing Artificial Agents. Interacting with Computers, 20(3), S. 326–333.
Wooten, M., & Hoffman, A.J. (2016). Organizational Fields Past, Present and Future. Ross School of Business Working Paper No. 1311. Ann Arbor: University of Michigan.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Meister, M. (2019). Ein institutionelles Feld als heterogener Innovationskontext. Das Beispiel Social Robotics. In: Schubert, C., Schulz-Schaeffer, I. (eds) Berliner Schlüssel zur Techniksoziologie. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-22257-4_11
Download citation
DOI: https://doi.org/10.1007/978-3-658-22257-4_11
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-22256-7
Online ISBN: 978-3-658-22257-4
eBook Packages: Social Science and Law (German Language)