1 Digitalisierung als New Normal der Arbeitswelt

Kaum ein Thema hat die Arbeitswelt in den letzten Jahren so sehr geprägt wie die digitale Transformation. So standen und stehen weiterhin zahlreiche Unternehmen vor der Herausforderung, den digitalen Wandel voranzubringen, u. a. um wettbewerbsfähig und als Arbeitgeber attraktiv zu bleiben. Im Zuge dessen hat die Digitalisierung nahezu jeden Bereich der Arbeitswelt beeinflusst (z. B. Thiemann et al. 2019). Dabei hat sie vor allem die Art und Weise, wie Arbeit organisiert und strukturiert wird, in vielen – wenn auch nicht in allen – Unternehmen verändert. Virtuelle Teams, flexible Arbeitszeiten und Remote-Arbeit sind nur einige Beispiele für Veränderungen, welche die Digitalisierung vorangetrieben und durch die Corona-Pandemie noch beschleunigt hat (z. B. Kraus et al. 2023). Auch Routineaufgaben werden zunehmend durch Automatisierung und Robotik übernommen. Dies betrifft sowohl physische als auch kognitive Tätigkeiten, wie z. B. die Automatisierung von Produktionsprozessen in der Industrie und die Nutzung von Chatbots im Kundenservice (z. B. Glaser und Gehman 2023). Darüber hinaus sind im HR-Management verschiedene Bereiche betroffen (z. B. Ammirato et al. 2023). So haben z. B. in der Personalentwicklung sowohl Erfordernisse bzgl. digitaler Kompetenzen sowie neue Lehr‑, Lern- und Trainingsformate Inhalte und die Art der Vermittlung von Fähigkeiten und Wissen verändert. Ein weiteres Beispiel ist die Personalführung, die zunehmend in hybriden Settings über digitale Kanäle stattfindet (z. B. Thiemann 2021).

Die Liste an Veränderungen, die durch die Digitalisierung hervorgerufen werden, könnte noch um viele weitere Bereiche und Aspekte erweitert werden. Diese stellen insbesondere das Change-Management vor umfassende Herausforderungen. Hinzu kommt – neben weiteren die Arbeitswelt betreffenden Entwicklungen, wie z. B. dem demografischen Wandel, Fachkräftemangel, Enthierarchisierung oder Nachhaltigkeitsanforderungen – die Schnelllebigkeit des technologischen Fortschritts. Konzepte, die schon früh in der Auseinandersetzung mit Charakteristiken und Folgen dieser Entwicklungen entwickelt wurden, haben ihre Ursprünge in der VUCA-Welt (Volatility, Uncertainty, Complexity, Ambiguity). Dieses im angloamerikanischen Raum geprägte Akronym (z. B. Stiehm und Townsend 2002, S. 6) kam erstmals in den 1990er-Jahren am War College der U.S. Army zur Beschreibung der komplexen und unvorhersehbaren Welt nach dem Ende des kalten Krieges auf (z. B. Barber 1992). Durch die wahrgenommene Schnelligkeit, Komplexität und Unvorhersagbarkeit von Entwicklungen, die auch für Unternehmen von Relevanz sind, wurde das Akronym sodann insbesondere im Kontext der Digitalisierung häufig genutzt und hat in der Arbeitswelt einige Erweiterungen erfahren. So wurden z. B. im Akronym VUCADD die Buchstaben DD ergänzt (z. B. Köster und Kreppel 2021), um auf die steigende Dynamik (D) von Märkten sowie der Relevanz von Diversität (D) in der Belegschaft hinzuweisen.

Einen Schritt weiter ging daraufhin das Akronym BANI, das für brittle (brüchig), anxious (ängstlich), non-linear (nicht-linear) und incomprehensible (unverständlich) steht. Hiermit soll dem Umstand Rechnung getragen werden, dass die Welt nicht nur volatil und komplex sei, sondern die Bedingungen teilweise als chaotisch und völlig unvorhersehbar gelten. Als Beispiele für diese chaotische Welt werden Ereignisse wie die Covid-19-Pandemie, Klima- und Umweltkatastrophen (z. B. Fukushima), Systemkrisen, Bankenkrisen und kriegerische Eskalationen (z. B. Russland-Ukraine-Krieg) genannt, die auch weitreichende Auswirkungen für Unternehmen haben. Dadurch ist die Welt im Kontrast zum VUCA-Gedanken nicht nur unbeständig, sondern vorhandene Systeme und Strukturen sind brüchig und geraten an ihre Grenzen. Weiterhin besteht nicht nur eine Unsicherheit über mögliche Entwicklungen, sondern auch eine ständige Angst vor Fehlentscheidungen. Ursache-Wirkungs-Beziehungen sind oft nicht einfach nur komplex, sondern gar nicht identifizierbar. Dadurch wirken aktuelle Entwicklungen in Politik, Umwelt, Gesellschaft wie auch im Technologiebereich unverständlich und desorientierend.

Die Verwendung solcher Begrifflichkeiten kann durchaus kritisch hinterfragt werden. So konstatieren Strunk und Kollegen gar eine Ambiguität der VUCA-Welt selbst, da ihre Elemente unscharf definiert seien (Strunk et al. 2022). Dabei wird angemerkt, dass Konstrukte wie Volatilität und Komplexität grundsätzlich objektivierbare Grundlagen in Mathematik und Systemtheorie haben, während Unsicherheit und Ambiguität auf subjektiver Erlebnisebene stattfinden. Diese Subjektivität erschwert es, Entwicklungen eindeutig den VUCA-Elementen zuzuordnen. Wie gut treffen diese Akronyme also auf die Digitalisierung zu, welche Aktualität besitzen sie diesbezüglich und was bedeuten sie im Kontext von KI?

Obgleich die skizzierten Ausprägungen der Digitalisierung viele Unternehmen weiterhin stark beschäftigen und noch längst nicht überall Einzug in den organisationalen Alltag erhalten haben, könnte dennoch resümiert werden, dass sie für die meisten Beteiligten inzwischen als Teil einer „neuen Normalität“ der Arbeitswelt angesehen werden (vgl. Cascio 2020). Zeitweise ergab sich gar der Eindruck, dass das Thema digitale Transformation von Megatrends wie Nachhaltigkeit im praktischen und wissenschaftlichen Diskurs zunehmend in den Hintergrund gerückt wird. Mit künstlicher Intelligenz (KI), zuletzt besonders prominent in den öffentlichen Fokus gerückt durch die generative KI ChatGPT, nimmt jedoch ein weiteres technologiebezogenes Thema aktuell stark Fahrt auf. Dadurch erlangen entsprechende Akronyme, wie das eigentlich bereits als obsolet angesehene Akronym der VUCA-Welt (vgl. Cascio 2020) oder Aspekte des BANI-Akronyms erneute Aktualität: Fortschritte im Bereich künstlicher Intelligenz lassen den Wandel komplexer, schneller und unvorhersehbarer denn je erscheinen, wodurch die „neue Normalität“ der Digitalisierung ins Wanken gerät. Die Geschwindigkeit und die Komplexität des Wandels, und was durch den rasanten technologischen Fortschritt inzwischen möglich ist, lassen sich durch das folgende Beispiel erahnen: So stieg allein die Rechenleistung des 2020 entwickelten Supercomputers Fugaku im Vergleich zum ASCI White, einem Supercomputer aus dem Jahr 2001, um den Faktor 63.144 an.

Wohin letztendlich diese Entwicklungen führen werden (Ungewissheit) und ob Chancen oder Risiken im Kontext der Nutzung digitaler Technologien überwiegen (Ambiguität), wird bereits seit einiger Zeit in Wissenschaft und Praxis kontrovers diskutiert (z. B. Jager et al. 2019; Thiemann 2022). Unabhängig von einzelnen Begrifflichkeiten muss das Ziel dieser Auseinandersetzung sein, die postulierte Ungewissheit dieser Entwicklungen nicht einfach als gegeben anzunehmen, sondern sie durch wissenschaftlichen und praktischen Diskurs zu reduzieren. Dem unerklärbaren Chaos, wie es mit dem BANI-Akronym angedeutet wird, muss folglich durch empirischen Fortschritt entgegengewirkt werden. Nur so kann der technologische Wandel proaktiv und evidenzbasiert mitgestaltet werden und ein reaktiver „Feuerwehr“-Ansatz des Veränderungsmanagements vermieden werden, der insbesondere kleinen und mittleren Unternehmen schon seit längerer Zeit zugeschrieben wird und diese vor große Herausforderungen stellt (z. B. Ates und Bititci 2011).

Auf Basis dieses Grundgedankens werden im Folgenden die aktuellen Entwicklungen in diesem Kontext sowie Herausforderungen und Implikationen, die sich daraus für Organisationen und das Change-Management ergeben, diskutiert. Im Zuge dessen wird beleuchtet, inwieweit die Einführung und Nutzung neuer Technologien Folgen wie Technostress auslösen und welche Faktoren die Technologieakzeptanz erhöhen können. Darüber hinaus wird diskutiert, inwieweit durch das gestiegene Aufkommen von KI und deren möglicher Rolle als sozialer Akteur im organisationalen System gar ein Paradigmenwechsel für die Technologieakzeptanz und das Change-Management bevorsteht.

2 Implementierung von Technologien zwischen Potenzialen und Risiken

Die Auswirkungen der Nutzung und Implementierung von Technologien im organisationalen Kontext sind äußerst vielschichtig. Obwohl Maschinen spätestens seit den Tagen der Fließbandarbeit von Taylor bis Ford immer mehr zur festen Größe in der Arbeitswelt geworden sind, eröffnet die exponentielle Entwicklung und umfangreiche Konnektivität digitaler Technologien neue Horizonte für Zusammenarbeit, Wertschöpfung und Innovation. Flexibilität durch orts- und zeitunabhängiges Arbeiten, weitreichende Möglichkeiten für das Teilen von Wissen und Informationen, Unterstützung in der Entscheidungsfindung durch Big Data und Analyse-Algorithmen, Automatisierung einfacher Tätigkeiten, grenzenlose Konnektivität, digitale Kollaborationstools – die Liste der Potenziale, welche die Digitalisierung mitbringt, ist lang (z. B. Thiemann et al. 2019).

Nichtsdestoweniger werden auch Risiken diskutiert (z. B. Jager et al. 2019). Dazu gehören z. B. eine erhöhte Arbeitsplatzunsicherheit durch Automatisierung, Kompetenzentwertung ganzer Job-Familien und Datenschutz-Risiken. Aber auch gesundheitlich relevante Aspekte, wie eine mangelnde Work-Life-Balance durch permanente Konnektivität, Stress durch digitale Überwachung (z. B. Cascio und Montealegre 2016) und mögliche Einsamkeit durch einen zunehmenden Verlust menschlicher Interaktion werden diskutiert (z. B. Becker et al. 2022; Thiemann 2022). Durch die gestiegene Zusammenarbeit über digitale Kanäle und die sich ausweitende Integration digitaler Technologien im organisationalen Kontext wird im Zuge der Erschließung von Chancen und der Vermeidung von Risiken in diesen Veränderungsprozessen v. a. ein Forschungsbereich immer relevanter: die Mensch-Maschine-Interaktion. Damit verbunden ist die Frage danach, wie Technologien so integriert werden können, dass sie akzeptiert und sinnvoll für organisationale Ziele von Mitarbeitern genutzt werden. Ansonsten drohen negative Folgen für Organisationen und ihre Mitarbeiter.

3 Technostress: Belastungen digitaler Arbeit und Selbstcheck-Kurzfragebogen

In jüngerer Zeit gewinnt ein diesbezügliches Phänomen, das auch in den psychologischen Kontext einzuordnen ist, zunehmend an Bedeutung: Technostress. Erstmals bereits in den 1980er-Jahren beschrieben (Brod 1984), bezeichnet Technostress ein Stresserleben, das direkt oder indirekt durch Technologien ausgelöst wird (vgl. Tarafdar et al. 2019). Wichtig für die Entstehung von Technostress ist, ob Nutzer den Eindruck haben, dass ihre technologiebezogenen Fähigkeiten und vorhandene Ressourcen nicht ausreichend sind, um adäquat mit einer Technologie umzugehen. Insbesondere in Veränderungsprozessen ist diese Gefahr durch eine zu schnelle Einführung komplexer Technologien gegeben und für das Change-Management eine Herausforderung. Erzeugt die Implementierung neuer Technologien Technostress – so zeigt die Forschung –, sinkt nicht nur die Produktivität. Die Folgen reichen von der Beeinträchtigung psychologischer Variablen, z. B. abnehmender Arbeitszufriedenheit und Mitarbeiterbindung, bis hin zu der Entstehung von Erschöpfung und Burnout (z. B. Al-Ansari und Alshare 2019; Gimpel et al. 2018; Thiemann 2022).

Neben den Folgen von Technostress wurden ebenfalls Technostressoren beforscht, die zu entsprechendem Stresserleben führen können. Diese umfassen:

  • Technologieüberlastung: Stress aufgrund von Informationsüberflutung durch verschiedene Technologien und Kanäle. Werden z. B. über genutzte Geräte und Programme in kurzen Zeitabständen eine Vielzahl an Nachrichten und Informationen empfangen, kann dies zu Stress führen. Beispiel: Eine Mitarbeiterin erhält via Email, über gemeinsam genutzte Slack-Kanäle der Abteilung sowie über eine im Kontext eines Kundenprojekts genutzte Cloud so viele Nachrichten und Informationen, dass sie nicht mehr in der Lage ist, alle abzuarbeiten und zu beantworten, wodurch Stress entsteht.

  • Technologieinvasion: Stress durch das ständige Gefühl der Erreichbarkeit über verschiedene Geräte, was die Einhaltung von Erholungszeiten erschwert. Besonders gefährdet sind Mitarbeitende, die auch außerhalb der Arbeitszeiten ständig zum Laptop oder Handy greifen. Beispiel: Ein Mitarbeiter erhält häufig auch nach Feierabend noch Emails von seinem Chef. Er hat das Gefühl, ständig für die Arbeit erreichbar sein zu müssen, obwohl er sich eigentlich erholen möchte. Dies führt zu einer permanenten Anspannung und Stress.

  • Technologieunzuverlässigkeit: Stress aufgrund von Fehlfunktionen von Programmen oder Geräten. Insbesondere bei der Einführung neuer Programme oder Geräte ist die Gefahr groß, dass nicht nur durch Fehler der Technologien, sondern auch aufgrund von mangelnder Erfahrung Bedienfehler geschehen. Beispiel: Ein Mitarbeiter hat einen äußerst wichtigen Kundentermin über Zoom, für den es lange Zeit gebraucht hat, einen gemeinsamen Zeitslot für alle Parteien festzulegen. Mitten im Meeting stürzt das Programm ab und der Mitarbeiter schafft es nicht, es wieder zum Laufen zu bekommen. Dies führt zu starkem Stress.

  • Technologiekomplexität: Stress aufgrund zunehmender Überforderung durch komplexer werdende Technologien. Werden Programme und Systeme in ihrer Komplexität aufgrund dafür nicht ausreichender Technologiekenntnisse nicht mehr verstanden, kann dies zu Stress führen. Beispiel: In einer Behörde wird ein neues System eingeführt, das bisherige HR-Funktionen (z. B. Reisekostenerstattungen, Urlaubsanträge, Arbeitszeiterfassung) digitalisiert. Wenig technologieaffine Mitarbeiter haben jedoch große Probleme, das neue System zu verstehen und zu nutzen, was wiederum zu Stress führt.

  • Technologieunsicherheit: Stress aufgrund der Angst vor Arbeitsplatzverlust durch Automatisierung. Bisher besteht diese Befürchtung primär im Kontext repetitiver Tätigkeiten, ist aber durch intelligentere Algorithmen und KI mittlerweile auch in anderen Berufen (z. B. Juristen) anzutreffen. Beispiel: Eine Mitarbeiterin in der Fertigung eines Automobilherstellers erfährt, dass ein neuer Roboter angeschafft wird, der künftig eine Fertigungsstrecke abdecken wird, in der Personalmangel herrscht. Die Mitarbeiterin ist besorgt, dass auch ihr Fertigungsbereich bald davon betroffen sein könnte. Der Gedanke, bald durch intelligente Roboter ersetzt werden zu können, versetzt sie in Stress.

  • Technologieungewissheit: Stress durch die Sorge darüber, ob man dazu in der Lage ist, seine Kompetenzen im selben Tempo weiterzuentwickeln, wie der technologische Fortschritt voranschreitet. Besonders gefährdet sind Mitarbeitende, die keine hohe Technologie-Affinität besitzen und keine Digital Natives sind. Beispiel: Ein Mitarbeiter arbeitet bereits seit vielen Jahren im Controlling eines großen Unternehmens. Nun wird ein komplett neues System eingeführt, in dem darüber hinaus schrittweise weitere vor- und nachgelagerte Prozesse integriert und zusätzliche Systeme ergänzt werden sollen. Der Mitarbeiter, dem schon die Einarbeitung ins ursprüngliche System sehr schwergefallen ist, hat die Befürchtung, diese Veränderungen nicht zu schaffen, was ihn enorm unter Druck setzt.

Um festzustellen, ob Sie oder Ihre Mitarbeiter selbst möglicherweise gefährdet sind, Technostress zu erleben, können Sie die folgende Kurzskala als Orientierung nutzen. Beantworten Sie dazu zwölf Fragen auf einer Skala von 1 („stimme überhaupt nicht zu“) bis 5 („stimme voll und ganz zu“) in Bezug auf ihre berufliche Tätigkeit:

  1. 1.

    Durch digitale Technologien erhalte ich eine gestiegene Menge an Informationen in immer kürzeren Zeitabständen.

  2. 2.

    Durch digitale Technologien bin ich gezwungen, schneller zu arbeiten.

  3. 3.

    Ich empfinde Druck, auch außerhalb der Arbeitszeiten über digitale Technologien ständig erreichbar sein zu müssen.

  4. 4.

    Ich emfpinde Druck, auch nach Feierabend regelmäßig meine Arbeitsmails zu checken.

  5. 5.

    Ich benötige viel Zeit, um neue Systeme und Software zu verstehen.

  6. 6.

    Neue Technologien sind mir oft zu komplex.

  7. 7.

    Ich empfinde Druck, meine technologischen Fähigkeiten ständig weiterentwickeln zu müssen.

  8. 8.

    Die Häufigkeit von Weiterentwicklungen und Änderungen von Programmen und Systemen in meinem Job verunsichert mich.

  9. 9.

    Ich habe die Befürchtung, dass mein Job durch Technologien (z. B. Roboter oder KI) ersetzt werden könnte.

  10. 10.

    Ich habe die Sorge, dass Mitarbeiter mit besseren technologischen Fähigkeiten mich ersetzen könnten.

  11. 11.

    Programme und Systeme, die ich für die Arbeit nutze, funktionieren nicht zuverlässig.

  12. 12.

    Ich habe Schwierigkeiten, mit Störungen bei genutzten Programmen und Systemen umzugehen.

Bilden Sie nun jeweils die Mittelwerte aus 1 + 2 (Technologieüberlastung), 3 + 4 (Technologieinvasion), 5 + 6 (Technologiekomplexität), 7 + 8 (Technologieunsicherheit), 9 + 10 (Technologieungewissheit), 11 + 12 (Technologieunzuverlässigkeit). Während Werte zwischen 1 und 2 auf ein eher geringeres Technostress-Level in Bezug auf den jeweiligen Technostressor hindeuten, können Werte darüber ein Indikator dafür sein, dass für Sie eine Gefährdung für das Erleben von Technostress besteht. In der Validierungsstudie einer längeren Technostress-Skala (Ragu-Nathan et al. 2008), an der diese Kurzskala teilweise angelehnt ist, lagen die Werte im Durchschnitt zwischen 2 und 3. Werte ab 3,5 und aufsteigend können entsprechend für überdurchschnittlich starken Technostress sprechen.

Im Zuge der Forschung zu Technostress wurden inzwischen sowohl individuelle, situative als auch technologische Einflussfaktoren betrachtet, die einen mindernden oder steigernden Effekt auf Stressentstehung sowie dessen Bewältigung ausüben (vgl. Tarafdar et al. 2019; Thiemann 2022). Zu den situativen Elementen zählen z. B. Unterstützung durch die Führungskraft, Kollegen oder Fachpersonal aus IT und HR, wenn technologiebezogene Probleme auftreten oder technologiebezogene Kompetenzen gefördert werden müssen. Auf individueller Ebene spielen z. B. Faktoren wie technologische Selbstwirksamkeit, Fachwissen und Technologieaffinität eine Rolle. Wird die Technologie selbst betrachtet, werden Faktoren wie Benutzerfreundlichkeit und Usability relevant. Als wesentliches Kernelement ist für eine erfolgreiche Implementierung jedoch v. a. entscheidend, ob eine Technologie überhaupt von Mitarbeitenden akzeptiert wird.

4 Auf die Technologieakzeptanz kommt es an

Auch im Kontext der digitalen Transformation kann es, wie auch bei anderen Change-Vorhaben, zu Widerständen kommen (vgl. Weber et al. 2022). Schätzungsweise rund 70 % diesbezüglicher Veränderungsvorhaben scheitern (Neves et al. 2018). Zweifelsohne wird in jedem zweiten Management-Ratgeber dazu aufgerufen, die Ursachen für Widerstände zu erörtern, nicht nur um sie besser auflösen zu können, sondern auch, da sie wichtige Impulse für Optimierungen im Changeprozess liefern können. Unstrittig ist jedoch auch, dass dieses Unterfangen weder einfach noch immer erfolgsversprechend ist. Im Kontext von Technologien gibt es jedoch einen Faktor, der grundlegend einen Einfluss darauf ausübt, ob Mitarbeitende der Einführung neuer Technologien tendenziell eher positiv oder negativ gegenüberstehen: die Technologieakzeptanz. Um negative Faktoren wie Technostress zu vermeiden, eine humanzentrierte Implementierung zu fördern und potenzielle Mehrwerte von Technologien nutzen zu können, ist es daher insbesondere am Anfang von Veränderungsprozessen zunächst einmal wichtig, dass bei den Nutzern eine Akzeptanz gegenüber den einzuführenden Technologien entsteht.

Erste Modelle erörterten bereits Anfang der 1990er-Jahre mögliche Determinanten, die für die Technologieakzeptanz von Bedeutung sind. Mit der wahrgenommenen Einfachheit der Benutzung sowie der erlebten Nützlichkeit von Technologien beschreibt ein erstes Modell – das Technology-Acceptance-Model (TAM) von Davis (1993) – mögliche Faktoren, die dafür verantwortlich sind, ob Nutzer eine Technologie akzeptieren oder nicht. Wird z. B. ein neues Programm eingeführt, ist zunächst einmal entscheidend, dass es – in Anlehnung an das bestehende Fähigkeitsniveau der Nutzer – einfach zu bedienen ist. So kann ein kompliziertes Programm zwar durchaus einen hohen Nutzen aufweisen, der jedoch nicht zum Tragen kommt, wenn die Nutzer in der Bedienung überfordert sind. Zudem muss das Programm als nützlich für die eigene Arbeit erlebt werden. Weitere Modelle, wie das Task-Technology-Fit-Modell (TTF), erörterten darüber hinaus als weitere wichtige Variable, dass eine Passung zu den Aufgabenanforderungen gegeben sein muss, wenn Technologien implementiert werden (Goodhue und Thompson 1995). Dieser Gedanke ergänzt den Aspekt der Nützlichkeit dahingehend, dass bei der möglichen Implementierung einer Technologie immer zunächst betrachtet werden sollte, inwiefern sie bei der Bewältigung der Aufgabenanforderungen sinnvoll unterstützen kann. So kann konstatiert werden, dass Digitalisierung grundsätzlich nicht als Selbstzweck erfolgen sollte, sondern stets sinnvoll in bestehende Tätigkeiten integriert werden muss. Wird dies von Mitarbeitenden entsprechend so wahrgenommen, erhöht sich die Akzeptanz.

Neben den generellen Kompetenzen für eine adäquaten Bedienung einer Technologie und den eingangs im Kontext von Technostress skizzierten persönlichen Einflüssen, wie z. B. der Affinität für Technologien oder der diesbezüglichen Selbstwirksamkeit, spielen die Faktoren dieser frühen Modelle zweifelsohne eine Rolle für die Technologieakzeptanz und haben daher eine lange Tradition. Trotzdem beziehen sich diese Modelle überwiegend auf Charakteristika, welche die Technologie selbst betreffen. Erweiterungen dieser Modelle, wie das TAM2 und TAM3 (Venkatesh und Bala 2008) oder die Unified Theory of Acceptance and Use of Technology (UTAUT, Venkatesh et al. 2012), erörtern teilweise auch psychosoziale Variablen, wie z. B. die Angst vor Computern oder den sozialen Einfluss in Form der subjektiven Norm. Diese besagt im Kern, dass die eigene Technologieakzeptanz auch davon abhängig ist, wie die Bewertungen bedeutsamer Bezugspersonen für die Nutzung einer Technologie ausfallen. Dadurch wird auf die Relevanz sozialer Aspekte hingewiesen: Je mehr Kollegen eine Technologie positiv bewerten und nutzen, desto wahrscheinlicher wird es, dass auch weitere Mitarbeiter diese akzeptieren.

Angesichts des schnellen technologischen Fortschritts sowie zunehmend intelligenter werdender Algorithmen und Systeme ist jedoch fraglich, inwiefern diese Modelle noch ausreichend sind, um relevante Faktoren der Technologieakzeptanz in ihrer Gänze zu bewerten und sie in Veränderungsprozessen zu gestalten. Je intelligenter Technologien werden, desto mehr kommt es zu einer Verschiebung von einem passiven und vom Nutzer gesteuerten Objekt hin zu einem aktiv agierenden Akteur im System. Dieses Postulat gilt insbesondere im Kontext von künstlicher Intelligenz und wird im folgenden Abschnitt näher ausgeführt.

5 Paradigmenwechsel durch KI: Ein neuer sozialer Akteur im organisationalen Gefüge

Kaum ein Themengebiet der Digitalisierung hat den Diskurs in den letzten zwei Jahren so sehr dominiert wie der Bereich KI. Ein wesentlicher Grund lag in der Freigabe eines Chatbots namens ChatGPT für die Öffentlichkeit im November 2022 durch OpenAI, der auf maschinelle Lerntechnologien zurückgreift und Antworten auf beliebige Fragen und Eingaben generiert. Innerhalb von fünf Tagen hatte das Tool bereits eine Million Nutzer zu verzeichnen.

Auch wenn das Thema KI erst durch die aktuellen Entwicklungen in den breiteren gesellschaftlichen Diskurs gerückt ist, reicht die Beschäftigung mit künstlicher Intelligenz bis in die 1950er-Jahre zurück. Erste Vorreiter, wie z. B. Alan Turing, befassten sich in Positionspapieren schon im Jahr 1950 mit der Rolle intelligenter Maschinen. 1956 folgte die erste wissenschaftliche Tagung über künstliche Intelligenz am Dartmouth College. Im Jahr 1967 wurde der Mark 1 Perceptron gebaut, der als erster Computer auf ein künstliches neuronales Netz zurückgriff. Diese an Neuronen im Gehirn angelehnten Modelle haben sich seitdem stetig weiterentwickelt und werden bis heute in aktuellen Systemen für das maschinelle Lernen von KI eingesetzt. Im Zuge dieser Anfänge postulierte Alan Turing mit dem sogenannten Turing-Test ein Vorgehen, das dazu dienen sollte, festzustellen, ob ein Computer ein dem Menschen gleichwertiges Denkvermögen aufweisen kann. Lange Zeit galt die Entwicklung einer Maschine, die vom Menschen nicht mehr zu unterscheiden ist, als Mythos. Exponentielle technologische Fortschritte führen jedoch dazu, dass Nutzer zumindest teilweise in der Interaktion mit KI nicht mehr zwischen Mensch und Maschine unterscheiden können (z. B. Mei et al. 2024).

Seit den Anfangszeiten von KI hat die rasante technologische Entwicklung dazu geführt, dass entsprechende Systeme bereits in vielen Bereichen Einzug erhalten haben. Im Gesundheitswesen werden z. B. Röntgenaufnahmen und MRT-Scans durch KI analysiert und Diagnosen erstellt, im Finanzwesen analysiert KI Daten und trifft Investitionsentscheidungen, im Verkehr wird an selbstfahrenden Autos experimentiert, und durch intelligente Sprachmodelle (wie z. B. auch ChatGPT) wird KI als Assistenz in verschiedenen Kontexten eingesetzt, z. B. in Form von Alexa, Siri und Google Assistant oder bei der Textverarbeitung. Dadurch erhält KI ebenfalls Einzug in Organisationen (z. B. Vrontis et al. 2022). Im Zuge dessen geht es nicht nur um die Analyse großer Datenmengen (z. B. Budhwar et al. 2022), sondern auch um den Einsatz im Kundenkontakt, z. B. durch Chatbots. Weitere Anwendungsmöglichkeiten finden sich im HR-Bereich (z. B. Murugesan et al. 2023), z. B. im Recruiting bei der Analyse von Lebensläufen und Bewerbungsvideos oder im Rahmen von KPI-Analysen, z. B. um anhand von Fluktuationsmustern Zusammenhänge zwischen wichtigen Indikatoren zu erkennen. Darüber hinaus wird sogar darüber diskutiert, prospektiv Führungsfunktionen durch KI abzubilden, die nicht nur organisatorische und strukturierende Funktionen umfassen, sondern auch psychosoziale Aspekte wie Motivation. Dadurch dringt KI zunehmend auch in Bereiche vor, in denen bislang davon ausgegangen wurde, dass für sie menschliche Fähigkeiten benötigt werden.

Durch diese Entwicklungen postuliere ich einen Paradigmenwechsel, der sowohl ethische als auch rechtliche und soziale Fragen aufwirft. Denn je klüger Technologie wird und je stärker sie menschliche Domänen durchdringt, desto mehr wird sie selbst zum sozialen Akteur im System. Bereits zu Beginn des neuen Jahrtausends wurde die Hypothese aufgestellt, dass auch Computer unter Umständen die Rolle von sozialen Akteuren im System einnehmen könnten (vgl. Nass und Moon 2000). Durch den rasanten technologischen Fortschritt kann diese Rolle von KI zunehmend zur Realität werden: Diskutiert z. B. eine KI proaktiv in einer Gruppe mit, bringt sie Gegenargumente ein, interpretiert und äußert sie Emotionen, entwickelt sie sich selbstständig weiter, so übernimmt sie zunehmend menschliche Funktionen und Eigenschaften. Entsprechend gibt es bereits erste Diskussionen darüber, ob und in welcher Form KI entsprechend als Teammitglied fungieren kann. Im Zuge dessen wird der Anpassung an Erwartungshaltungen, die an die KI gestellt werden, bei der Entwicklung, Implementierung und Zusammenarbeit ein hoher Stellenwert beigemessen, um einen guten Fit zu erzeugen (vgl. Kerstan et al. 2023).

Für die Technologieakzeptanz könnte dies Folgendes bedeuten: Bisherige Modelle, die primär auf dem Nutzungspostulat einer eher passiv agierenden und aktiv durch den Nutzer gesteuerten Technologie basieren, müssen neu gedacht werden. Demgegenüber werden psychosoziale Dimensionen der Akzeptanz relevanter, die auch im Kontext der Zusammenarbeit zwischen Menschen eine Rolle spielen, z. B. ob ich einer KI vertraue, ob ich sie als Teil der Ingroup betrachte, ob ich sie sympathisch finde oder Angst vor ihr habe und welchen Status sie in der Gruppe entwickelt. So zeigt sich etwa, dass Aspekte wie z. B. das wahrgenommene Verständnis zwischen Mensch und KI, Kommunikationsfähigkeiten der KI sowie menschenähnliche Verhaltensweisen eine wichtige Rolle im Kontext der Erwartungshaltung an die Zusammenarbeit mit KI spielen (z. B. Zhang et al. 2020). Darüber hinaus können weitere Effekte relevant sein, die sich erst im Zuge der weiteren Forschung und praktischen Auseinandersetzung zeigen.

6 Handlungsimplikationen für das Change-Management

Wenngleich die Erforschung von KI im organisationalen Kontext noch am Anfang steht, bleibt die technologische Entwicklung nicht stehen. KI entwickelt sich in hoher Geschwindigkeit weiter, und damit einhergehende Herausforderungen müssen bereits jetzt adressiert werden. Auch für das Change-Management bedingen diese Entwicklungen Handlungsimplikationen. Um KI-Systeme humanzentriert in Organisationen einzuführen und Potenziale zu nutzen, wird es fortan zunehmend wichtig, auch die psychologischen sowie sozialen Implikationen und Determinanten mit zu berücksichtigen. Anderenfalls drohen negative Folgen wie Widerstände im Veränderungsprozess durch mangelnde Akzeptanz oder auch Technostress. Abschließend werden daher folgende Handlungsempfehlungen für die Einführung von KI in Organisationen gegeben:

  • Frühzeitig Erfahrungsräume mit KI schaffen: Binden Sie die Mitarbeiter früh im Prozess mit ein und schaffen sie erste Interaktionsräume. Durch dieses Ausprobieren kann Vertrauen in die KI geschaffen werden, wodurch auch Ängste und Vorbehalte abgebaut werden. Dies gilt insbesondere vor dem Hintergrund, dass die Funktionsweisen komplexer KI-Technologien für normale Nutzer kaum noch transparent verständlich gemacht werden können. Hilfreich kann in diesem Kontext die sogenannte explainable AI (XAI, erklärbares Maschinenlernen) sein. Hierbei wird versucht, die „Blackbox“ KI dahingehend zu öffnen, dass nachvollziehbarer wird, wie eine KI lernt und wie sie zu Ergebnissen kommt. Grundsätzlich muss das Change-Management Mechanismen schaffen, um diesbezügliches Feedback von den Mitarbeitern zu sammeln und ihre Bedenken ernst zu nehmen.

  • Berücksichtigung psychosozialer Dimensionen der KI-Akzeptanz: Achten Sie neben eher technischen Implikationen (Nutzerfreundlichkeit, Usability, Funktionsweise) auch auf mögliche psychosoziale Effekte des Einsatzes von KI. Greift eine Technologie z. B. in bislang menschliche Domänen ein oder wird sie gar selbst zum Akteur im System? Wenn ja, müssen auch diese Dimensionen im Change-Management berücksichtigt werden. Auch muss mit Ängsten und Befürchtungen darüber umgegangen werden, was mit den Mitarbeitern passiert, wenn eine Tätigkeit potenziell durch eine KI automatisiert werden könnte. Hier besteht ein Unterschied zu Technologien, die primär als Hilfestellung oder Assistenz fungieren, z. B. in Form von Augmentation (Erweiterung der Realität, z. B. in Produktionsstraßen).

  • Rollenklarheit von KI: Es ist wichtig, dass die Organisation offen kommuniziert, wie KI-Systeme eingesetzt werden und welche Auswirkungen sie auf die Arbeit der Mitarbeiter haben. Erörtern Sie sehr genau, welche Rolle KI im Gefüge der Zusammenarbeit einnehmen soll: Trifft sie eigene Entscheidungen? Dient sie als vorschlagender Assistent? Wird sie in Diskussionen befragt? Liefert sie „nur“ Daten und Trends? Je nach Rolle als KI-Assistenz oder KI-Teammitglied können auch hier psychosoziale Determinanten der Akzeptanz eine Rolle spielen.

  • Kompetenzen für Mensch-Maschine-Interaktion aufbauen: Mitarbeiter müssen möglicherweise neue Fähigkeiten erlernen und sich an neue Arbeitsabläufe und soziale Kontexte anpassen. Im Kontext von KI könnten Lernziele wichtig werden, die eine optimale Zusammenarbeit zwischen Mensch und Maschine gewährleisten und dabei nicht nur technologische Fähigkeiten, sondern auch soziale Dimensionen der Zusammenarbeit umfassen (z. B. Zhang et al. 2020).

  • Kulturwandel zur Arbeitswelt mit KI aktiv gestalten: Der postulierte Paradigmenwechsel bedeutet für viele Mitarbeitende einen Wandel ihrer bisher gewohnten Arbeitswelt ohne KI. Die Integration von KI in das organisationale System, z. B. wenn sie als Teammitglied integriert wird oder selbst autonome Entscheidungen trifft, könnte daher mit Vorbehalten behaftet sein. Die Einführung erfordert entsprechend einen kulturellen Wandel in der Organisation. Dieser benötigt ausreichend Zeit und muss durch entsprechende Maßnahmen der Kulturentwicklung flankiert werden. Ziel ist es, die Offenheit gegenüber KI zu fördern und sie als integrativen Bestandteil des organisationalen Gefüges zu akzeptieren.