Zusammenfassung
No trust, no use? Oft wird Vertrauen als kritischer Erfolgsfaktor propagiert, wenn es um die Nutzung von neuen Technologien geht, vor allem wenn es sich um intelligente Systeme, sogenannte KI (Künstliche Intelligenz) handelt. Diese finden nämlich immer mehr Eingang in die heutige Gesellschaft, sowohl im privaten (z. B. Einkaufen mit Amazons KI-basiertem Smart Speaker Alexa) als auch im beruflichen oder schulischen Umfeld (z. B. intelligente Systeme, die die Personalauswahl oder Lernprozesse unterstützen sollen). Der Einsatz von smarten, ubiquitären Technologien erhöht die Unsicherheit und Skepsis, gerade bei EndanwenderInnen ohne technisches Verständnis, und verschärft das Spannungsfeld zwischen Mensch, Maschine und Gesellschaft. Die Vertrauensfrage wird ins Rampenlicht gerückt. Ist Vertrauen der KonsumentInnen die Lösung, um das hochgelobte Potenzial der künstlichen Intelligenz voll auszunutzen? Ganz so einfach ist es nicht. Unklarheiten in Definitionen, Sprachgebrauch und Messmethoden verwässern das Verständnis um die Zusammenhänge von Vertrauen und Nutzen. Es ist über die unterschiedlichen Disziplinen hinweg nicht eindeutig geklärt, ob die Nutzung von neuen Technologien, insbesondere KI, tatsächlich mit Vertrauen einhergeht, für welchen Zweck und Vertrauen in wen: Die HerstellerInnen? Die DesignerInnen? Wie kann Vertrauen und Nutzung abgegrenzt werden? Dieser Beitrag hat zum Ziel, kuriose Geschichten und Behauptungen rund um KI und Vertrauen zu entmystifizieren, um letztlich Künstliche Intelligenz besser in die Praxis zu bringen. Dazu braucht es einen transdisziplinären und vor allem adressatengerechten Diskurs darüber, was intelligente Systeme sind, und eine differenzierte Auseinandersetzung damit, welche Rolle Vertrauen dabei spielen könnte. Es gibt nämlich auch die Vertrauens-SkeptikerInnen, die vehement die Meinung vertreten, dass Vertrauen im Kontext KI überhaupt keine Rolle spielt. Wir argumentieren, dass Vertrauen – vor allem im Endanwenderkontext – eine wichtige Variable ist, welche nicht nur die Adoption, sondern auch die Art und Weise, wie KI-basierte Systeme genutzt werden, maßgeblich beeinflusst. Anhand von praktischen Beispielen wollen wir aufzeigen, dass ein angemessen kalibriertes Vertrauensniveau nicht nur zu einem effizienteren, sicheren und synergetischen Umgang mit KI-basierten oder automatisierten Systemen führt, sondern sogar Leben retten kann.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Similar content being viewed by others
Literatur
Algorithmwatch. (2019). Global inventory. https://algorithmwatch.org/launch-unseres-ai-ethics-guidelines-global-inventory/. (Stand: 20.7.2020).
Appel, M., Weber, S., Krause, S., & Mara, M. (2016). On the eeriness of service robots with emotional capabilities. In Proceedings of the ACM/IEEE International Conference on Human-Robot Interaction (S. 411–412). https://doi.org/10.1109/HRI.2016.7451781.
Baur, D. (2020). Opposing facial recognition – Why focusing on accuracy misses the point. Medium. https://medium.com/@dorotheabaur/opposing-facial-recognition-why-focusing-on-accuracy-misses-the-point-9b96ea3f864b. (Stand: 10.7.2020).
Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. University Press.
Botsman, R. (2017). Who can you trust? How technology brought us together and why it could drive us apart.. Portfolio Penguin.
Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., Dafoe, A., Scharre P., Zeitzoff, T., Filar, B., Anderson, H., Roff, H., Allen, G. C., Steinhardt, J., Flynn, C., hÉigeartaigh, S. Ó., Beard, S., Belfield, H., Farquhar, S., Lyle, C., Crootof, R., Evans, O., Page, M., Bryson, J., Yampolskiy, R., & Amode, D. (2018). The malicious use of artificial intelligence: Forecasting, prevention, and mitigation. https://arxiv.org/ftp/arxiv/papers/1802/1802.07228.pdf. (Stand 07.12.2020).
Bryson, J. (2018). AI & global governance: No one should trust AI published in the AI & global governance articles & insights. Digital Technology and Global Order. https://cpr.unu.edu/ai-global-governance-no-one-should-trust-ai.html. (Stand: 1.6.2020).
Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81, 1–15.
Cascio, W. F., & Montealegre, R. (2016). How technology is changing work and organizations. Annual Review of Organizational Psychology and Organizational Behavior, 3, 349–375. https://doi.org/10.1146/annurev-orgpsych-041015-062352.
Cellan-Jones, R. (2014). Stephen Hawking warns artificial intelligence could end mankind. https://www.bbc.com/news/technology-30290540. (Stand: 13.7.2020).
Chien, S., Lewis, M., Semnani-Azad, Z., & Sycara, K. (2014). An empirical model of cultural factors on trust in automation. Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 58, 859–863. https://doi.org/10.1177/1541931214581181.
Dzindolet, M., Peterson, S., Pomranky, R., Pierce, L., & Beck, H. (2003). The role of trust in automation reliance. International Journal of Human-Computer Studies, 58, 697–718. https://doi.org/10.1016/S1071-5819(03)00038-7.
Ernst & Young GmbH. (2018). Artificial intelligence in Europe – Outlook for 2019 and beyond. Ernst & Young GmbH. https://pulse.microsoft.com/uploads/prod/2018/10/WE_AI_Report_2018.pdf. (Stand: 21.5.2020).
GEO (o. J.). Ein Bluff und doch ein Meisterwerk: Wie das Geheimnis des Schachtürken gelüftet wurde. GEO. https://www.geo.de/wissen/22657-rtkl-legendaerer-automat-ein-bluff-und-doch-ein-meisterwerk-wie-das-geheimnis-des. (Stand: 25.4.2020).
Glikson, E., & Woolley, A. (2020). Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2). https://doi.org/10.5465/annals.2018.0057.
Greenemeier, L. (2017). 20 years after deep blue: How AI has advanced since conquering chess. Scientific American. https://www.scientificamerican.com/article/20-years-after-deep-blue-how-ai-has-advanced-since-conquering-chess/. (Stand: 25.4.2020).
Haenlein, M., & Kaplan, A. (2019). A brief history of artificial intelligence: On the past, present, and future of artificial intelligence. California Management Review, 61(4), 5–14. https://doi.org/10.1177/0008125619864925.
Hancock, P., Billings, D., Schaefer, K., Chen, J., de Visser, E., & Parasuraman, R. (2011). A meta-analysis of factors affecting trust in human-robot interaction. Human Factors, 53, 517–527. https://doi.org/10.1177/0018720811417254.
Hauser, A. (2018a). Deep Fakes – Eine Einführung. scip labs. https://www.scip.ch/?labs.20181004. (Stand: 25.6.2020).
Hauser, A. (2018b). Deep Fakes Analyse – Anzahl Bilder, Lichtverhältnisse und Winkel. scip labs. https://www.scip.ch/?labs.20181122. (Stand: 25.6.2020).
Hauser, A. (2018c). Deep Fakes Analyse – Einfluss der Berechnungsdauer. scip labs. https://www.scip.ch/?labs.20190613. (Stand: 25.6.2020).
HEG-KI. (2019). Ethik-Leitlinien für eine vertrauenswürdige KI. Europäische Kommission. Aufgerufen am 20.7.2020 unter https://bit.ly/HEGKI2019.
Hengstler, M., Enkel, M., & Duelli, S. (2016). Applied artificial intelligence and trust – The case of autonomous vehicles and medical assistance devices. Technological Forecasting and Social Change, 105, 105–120.
Herweijer, C. (2018). 8 ways AI can save the planet. World Economic Forum. Aufgerufen am 13.7.2020 unter https://www.weforum.org/agenda/2018/01/8-ways-ai-can-help-save-the-planet/.
Hoff, K., & Bashir, M. (2015). Trust in automation: Integrating empirical evidence on factors that influence trust. Human Factors the Journal of the Human Factors and Ergonomics Society, 57, 407–434. https://doi.org/10.1177/0018720814547570.
Jonkuviene, K. (2020). What is AI. https://www.trustful.ai/what-is-ai. (Stand: 20.7.2020).
Kurenkov, A. (2019). AI coverage best practices, according to AI researchers. Skynet Today. Aufgerufen am 6.7.2020 unter https://www.skynettoday.com/editorials/ai-coverage-best-practices.
Laurens, C. (2020). How to spot a deepfake. World Economic Forum. https://www.weforum.org/agenda/2020/01/how-to-spot-a-deepfake/. (Stand: 15.7.2020).
Lee, J. D., & See, K. A. (2004). Trust in automation: Designing for appropriate reliance. Human Factors, 46(1), 50–80.
Lemke, C., & Monett, D. (2020). KI und Automatisierung: Wirkung auf die Arbeit der Zukunft. In: J. Nachtwei & A. Sureth (Hrsg.), VQP. VQP, Sonderband Zukunft der Arbeit, Human Resources Consulting Review Band 12 (S. 400–403).
Lyons, J. B., & Guznov, S. Y. (2018). Individual differences in human-machine trust: A multi-study look at the perfect automation schema. Theoretical Issues in Ergonomics Science, 20(4), 440–458. https://doi.org/10.1080/1463922X.2018.149107.
Mayer, R. C., Davis, J. H., & Schoorman, F. D. (1995). An integrative model of organizational trust. Academy of Management Review, 20(3), 709–734.
McCarthy, J. (2007). What is artificial intelligence? Computer Science Department, School of Engineering, Stanford University. http://www-formal.stanford.edu/jmc/whatisai/. (Stand: 19.07.2020).
McCarthy, J., Minsky, M., Rochester, N., & Shannon, C. (1955). A proposal for the dartmouth summer research project on artificial intelligence. Stanford University. http://jmc.stanford.edu/articles/dartmouth.html.
McCorduck, P. (2004). Machines who think: A personal inquiry into the history and prospects of artificial intelligence. (2. Aufl.). A. K. Peters.
Merritt, S., Unnerstall, J., Lee, D., & Huber, K. (2015). Measuring individual differences in the perfect automation schema. Human Factors, 57(5), 740–753. https://doi.org/10.1177/0018720815581247.
Minsky, M. (1985). The society of mind. Simon and Schuster.
MIT Technology Review Insights. (2020). The global AI agenda. Aufgerufen am 25.5.2020 unter https://mittrinsights.s3.amazonaws.com/AIagenda2020/GlobalAIagenda.pdf.
Monett, D., Lewis, C. W. P., & Thórisson, K. R. (2020). Special issue “On defining artificial intelligence”—Commentaries and author’s response. Journal of Artificial General Intelligence, 11(2), 1–100. https://doi.org/10.2478/jagi-2020-0003.
Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In: V. Müller (Hrsg.), Fundamental Issues of Artificial Intelligence. Synthese Library (Studies in Epistemology, Logic, Methodology, and Philosophy of Science) (S. 376). Springer International Publishing.
Parasuraman, R., Sheridan, T., & Wickens, C. (2000). A model for types and levels of human interaction with automation. IEEE Transactions on Systems, Man, and Cybernetics – Part A: Systems and Humans, 30(3), 286–297. https://doi.org/10.1109/3468.844354.
Ruef, M. (2020). Künstliche Intelligenz angreifen – Irritationen und Manipulationen provozieren. scip labs. https://www.scip.ch/?labs.20200123. (Stand: 10.7.2020).
Russell, S. J., & Norvig, P. (2012). Künstliche Intelligenz. Ein moderner Ansatz. (3. Aufl.). Pearson.
Schafheitle, S. & Weibel, A. (2020). COVID-19 tracing app for mobiles – The fine line between trust and big brother. Researchgate. https://www.researchgate.net/publication/341452669_COVID-19_Tracing_App_for_Mobiles_-_The_Fine_Line_Between_Trust_and_Big_Brother. (Stand: 20.7.2020).
Schafheitle, S. D., Weibel, A., Ebert, I. L., Kasper, G., Schank, C., & Leicht-Deobald, U. (2020). No stone left unturned? Towards a framework for the impact of datafication technologies on organizational control [Manuskript in Druck]. Academy of Management Discoveries. https://doi.org/10.5465/amd.2019.0002.
Sternberg, R. J. (2013). Intelligence. In D. K. Freedheim & I. B. Weiner (Hrsg.), Handbook of psychology: History of psychology (S. 155–176). Wiley.
Stone, P., Brooks, R., Brynjolfsson, E., Calo, R., Etzioni, O., Hager, G., Hirschberg, J., Kalyanakrishnan, S., Kamar, E., Kraus, S., Leyton-Brown, K., Parkes, D., Press, W., Saxenian, A., Shah, J., Tambe, M., & Tellert, A. (2016). “Artificial intelligence and life in 2030.” One hundred year study on artificial intelligence: Report of the 2015–2016 study panel. Stanford University, Stanford, CA. https://ai100.stanford.edu. (Stand: 13.7.2020).
Stower, R., Calvo-Barajas, N., Castellano, G., & Kappas, A. (in press). A meta-analysis on children’s trust in social robots. International Journal of Social Robotics (in press).
Tschopp, M. (2019). Gute KI, Böse KI – Psychologische Aspekte einer Dual-Use Technologie. scip labs. https://www.scip.ch/?labs.20190411. (Stand: 20.6.2020).
Tschopp, M. (2020). PAS – The Perfect Automation Schema Influencing Trust. scip labs. https://www.scip.ch/en/?labs.20200507. (Stand: 15.7.2020).
Tschopp, M., & Ruef, M. (2018). An Interdisciplinary Approach to Artificial Intelligence Testing: Developing an Artificial Intelligence Quotient (A-IQ) for Conversational AI. scip labs.
Tschopp, M., & Ruef, M. (2019). Artificial intelligence – Is it worth the risk? scip labs.
Tschopp, M., & Schafheitle, S. (2020). KI und Führung KI: Heute Hü, Morgen Hott? In J. Nachtwei & A. Sureth (Hrsg.), VQP, Sonderband Zukunft der Arbeit, Human Resources Consulting Review Band 12 (S. 420–423).
Turing, A. (1950). Computing machinery and intelligence. Mind, LIX(236), 433–460. https://doi.org/10.1093/mind/LIX.236.433.
Vallor, S., Green, B., & Raicu, I. (2018). Ethics in technology practice: An overview. The Markkula Center for Applied Ethics at Santa Clara University.
Vincent, J. (2019). Forty percent of ‘AI startups’ in Europe don’t actually use AI, claims report. The Verge. https://www.theverge.com/2019/3/5/18251326/ai-startups-europe-fake-40-percent-mmc-report. (Stand: 13.7.2020).
Wang, P. (1995). Non-axiomatic reasoning system: Exploring the essence of intelligence. Doctoral dissertation, Indiana University. https://bit.ly/Wang1995. (Stand: 20.7.2020).
Wang, P. (2019). On defining artificial intelligence. Journal of Artificial General Intelligence, 10(2), 1–37. https://doi.org/10.2478/jagi-2019-0002.
Winston, P. H. (1992). Artificial intelligence. (3. Aufl.). Addison-Wesley.
Wooldridge, M. (2020). The road to conscious machines: The story of AI. Pelican, Penguin Random House.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2022 Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature
About this chapter
Cite this chapter
Tschopp, M., Ruef, M., Monett, D. (2022). Vertrauen Sie KI? Einblicke in das Thema Künstliche Intelligenz und warum Vertrauen eine Schlüsselrolle im Umgang mit neuen Technologien spielt. In: Landes, M., Steiner, E., Utz, T. (eds) Kreativität und Innovation in Organisationen . Springer Gabler, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-63117-1_16
Download citation
DOI: https://doi.org/10.1007/978-3-662-63117-1_16
Published:
Publisher Name: Springer Gabler, Berlin, Heidelberg
Print ISBN: 978-3-662-63116-4
Online ISBN: 978-3-662-63117-1
eBook Packages: Business and Economics (German Language)