Skip to main content

An den Grenzen (il)legitimer Diskriminierung durch algorithmische Entscheidungsunterstützungssysteme in der Medizin

  • Chapter
  • First Online:
Medizin – Technik – Ethik

Part of the book series: Techno:Phil – Aktuelle Herausforderungen der Technikphilosophie ((TPAHT,volume 5))

  • 1795 Accesses

Zusammenfassung

Der Einsatz von Systemen zur klinischen Entscheidungsunterstützung eröffnet der Medizin und dem Gesundheitsbereich vielversprechende Möglichkeiten. Vor allem nicht-regelbasierte Algorithmen wecken zunehmend das Interesse unterschiedlicher Fachdisziplinen, um Erkenntnisse aus großen Datenmengen für (individualisierte) klinische Entscheidungen nutzbar zu machen. Erhoffte man sich anfangs von Algorithmen nüchtern-objektive Empfehlungen, wurden diese Hoffnungen zumindest teilweise für unterschiedliche Lebensbereiche – darunter auch die Medizin – nachweislich enttäuscht. In diesem Beitrag wird ein zweifaches Ziel verfolgt: Zum einen soll das Phänomen algorithmenbedingter Diskriminierung im Gesundheitsbereich näher beleuchtet werden. Dabei wird zu klären sein, unter welchen normativen Voraussetzungen Ungleichbehandlungen überhaupt als Diskriminierung qualifiziert werden und wie Ungleichbehandlungen durch den Einsatz von Algorithmen zustande kommen. Zum anderen soll gezeigt werden, warum sich im Gesundheitsbereich die Qualifizierung von Ungleichbehandlungen als moralisch illegitime Diskriminierung und damit auch ihre Vermeidung besonders schwierig gestalten.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Subscribe and save

Springer+ Basic
$34.99 /Month
  • Get 10 units per month
  • Download Article/Chapter or eBook
  • 1 Unit = 1 Article or 1 Chapter
  • Cancel anytime
Subscribe now

Buy Now

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 59.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 74.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Similar content being viewed by others

Notes

  1. 1.

    Während der Begriff „Künstliche Intelligenz“ seit den 1970er-Jahren als Oberbegriff für ganz unterschiedliche informationstechnologische Methoden genutzt wurde, mithilfe derer das Ziel verfolgt werden sollte, Fähigkeiten der menschlichen Intelligenz möglichst umfassend zu simulieren oder gar zu übertreffen, etablierte sich in den letzten Jahrzehnten ein engerer Begriff von Künstlicher Intelligenz, der im Fachdiskurs weitgehend durch den Begriff „Maschinelles Lernen“ ersetzt wurde. Maschinelles Lernen bezeichnet dabei den Prozess, mithilfe von Algorithmen aus Daten Muster zu erkennen, und verhindert mit dieser differenzierenden Engführung der Begriffsnutzung missverständliche Vergleiche zur menschlichen Intelligenz (vgl. dazu auch Berendt 2020; Liedtke und Langanke 2021). Es ließen sich hierbei weitere Differenzierungen vornehmen, die für mein Anliegen jedoch nicht unmittelbar von Bedeutung sind. Insbesondere die Entwicklungen im Bereich des Deep Learning bzw. die Modellierung von künstlichen neuronalen Netzen verhalfen dem Phänomen des Maschinellen Lernens zu den jüngsten Durchbrüchen.

  2. 2.

    Im Gesundheitsbereich wird neben der wertneutralen Diskriminierung aber auch die negativ bewertete Diskriminierung immer wieder zum Gesprächsgegenstand, etwa im Kontext gesundheitlicher Ungleichheit (health care disparity oder health inequality), die durch die systematische Benachteiligung von Gruppen von Menschen zustande kommt (Gianfrancesco et al. 2018; Baumgartner 2021). Auch Diskriminierungserfahrungen von Patient:innen, etwa aufgrund von körperlicher oder psychischer Verfasstheit, sozialer Position, geschlechtlicher Identität, sexueller Orientierung, chronischen Erkrankungen, Behinderungen oder auch intersektionale Kombinationen hiervon (Puddifoot 2019; Baumgartner 2021), thematisieren die negativ bewertete Form der Diskriminierung. Im medizinischen Jargon sind also sowohl die wertneutrale Diskriminierung i. S. einer Differenzierung als auch die negativ bewertete Diskriminierung zumeist i. S. einer Benachteiligung gebräuchlich.

  3. 3.

    Irritationen können hierbei die manchmal genutzten Formen „positive Diskriminierung“ und „negative Diskriminierung“ hervorrufen, die jedoch nicht auf die negative Bewertung der Diskriminierung abheben. Sie stehen vielmehr für die konkrete Ausgestaltung der Ungleichbehandlung: einerseits als eine Bevorteilung bzw. Bevorzugung (positive Diskriminierung), andererseits als eine Benachteiligung (negative Diskriminierung) (vgl. hierzu etwa Lindner 2018).

  4. 4.

    Damit ist eine konkret die Ungleichbehandlung betreffende Sache gemeint.

  5. 5.

    Art. 3 Abs. 3 GG: „Niemand darf wegen seines Geschlechtes, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden. Niemand darf wegen seiner Behinderung benachteiligt werden.“

  6. 6.

    Art. 21 Charta der Grundrechte der EU: „(1) Diskriminierungen insbesondere wegen des Geschlechts, der Rasse, der Hautfarbe, der ethnischen oder sozialen Herkunft, der genetischen Merkmale, der Sprache, der Religion oder der Weltanschauung, der politischen oder sonstigen Anschauung, der Zugehörigkeit zu einer nationalen Minderheit, des Vermögens, der Geburt, einer Behinderung, des Alters oder der sexuellen Ausrichtung sind verboten. (2) Unbeschadet besonderer Bestimmungen der Verträge ist in ihrem Anwendungsbereich jede Diskriminierung aus Gründen der Staatsangehörigkeit verboten.“

  7. 7.

    Heiner Koch (2020) unterscheidet bei Ungleichbehandlungen in ähnlicher Weise die „sachliche (Un-)Angemessenheit“ von „normativen Aspekten“. Er nutzt dabei den Begriff der „sachlichen (Un-)Angemessenheit“, um in der sachlichen Differenz begründete bzw. unbegründete Ungleichbehandlungen auszudrücken. Auch wenn ich mit seinen Ausführungen dahingehend übereinstimme, dass sachlich vorliegende Differenzen zwar Gründe für eine Ungleichbehandlung darstellen können, scheint mir, dass das Urteil über die sachliche Angemessenheit der Ungleichbehandlung immer schon normative Erwägungen voraussetzt und es sich daher um eine konstruierte oder zumindest begrifflich irreführende Unterscheidung handelt. Aus der alleinigen Tatsache der sachlichen Unterscheidbarkeit (Sein) folgt, so meine Einschätzung, nie eine unmittelbare (keiner normativen Rechtfertigung bedürfende) Angemessenheit der Ungleichbehandlung (Sollen). Vielmehr bedarf es immer normativer Erwägungen, welche Evidenz und welcher Grad der Unterscheidbarkeit gegeben sein müssen, um eine bestimmte Art von Ungleichbehandlung zu rechtfertigen. Aus diesem Grund wähle ich hier die Begriffe „sachbezogen normative“ bzw. „nicht-sachbezogen normative Gründe“.

  8. 8.

    Lippert-Rasmussen (2011, 2014) unterscheidet bei der Beurteilung der Legitimität von Ungleichbehandlungen zwei Bezugsrahmen: Ihm zufolge könnten bei einer Ungleichbehandlung entweder allein die Person bzw. Personengruppe, die ungleich behandelt wird und der daraus Nachteile entstehen bzw. entstehen könnten (pro tanto), oder aber alle aus der Ungleichbehandlung resultierenden Folgen und auch mittelbar davon betroffenen Personen (all things considered) berücksichtigt werden. Pro tanto scheint sich mir daher weitgehend mit der Berücksichtigung von mir als sachbezogen normativ bezeichneten Gründen zu decken, während all things considered darüber hinausgehend eben auch nicht-sachbezogen normative Gründe, wie Gerechtigkeitserwägungen, miteinschließt.

  9. 9.

    So läuft die Nutzung von Stellvertretermerkmalen, die die Realität vereinfachen sollen, auch unweigerlich Gefahr, die Bildung und Anwendung von Stereotypen und Vorurteilen zu begünstigen, wodurch sich ungerechtfertigte Zuschreibungen von Stellvertretermerkmalen häufen können. Vgl. hierzu vertiefend etwa den von Petersen und Six (2020) herausgegebenen Band Stereotype, Vorurteile und soziale Diskriminierung, auf den mich dankenswerter Weise die Herausgeber:innen aufmerksam gemacht haben.

  10. 10.

    Während statistische Verallgemeinerungen dazu führen könnten, dass einige Personen behandelt werden, wie sie vielleicht aus sachbezogenen normativen Gründen nicht behandelt werden sollten, könnten andere nicht-sachbezogene normative Erwägungen (z. B. wirtschaftlich-epistemische Kosten-Nutzen-Abwägungen, Priorisierungen etc.) zu dem Urteil führen, dass die resultierende Ungleichbehandlung als alles in allem ausreichend gerechtfertigt eingeschätzt wird.

  11. 11.

    Zwar können auch Formen absichtlicher Diskriminierung durch Algorithmen umgesetzt und sogar zu Teilen verschleiert werden („Maskierung“, vgl. dazu Barocas und Selbst 2016). Da diese in der Regel jedoch nicht in der Funktionsweise von algorithmengestützten CDSS begründet sind, werden sie hier nicht weiter berücksichtigt. Nichtsdestotrotz haben regulatorische Maßnahmen auch solche Formen von Diskriminierung im Blick zu behalten.

  12. 12.

    Auch können Ungleichbehandlungen durch die Interaktion mit dem algorithmengestützten CDSS zustande kommen. Da dies jedoch vorrangig psychologische Verzerrungseffekte durch die mit diesem interagierenden Akteur:innen sind, bleiben diese hier unberücksichtigt (vgl. in Mehrabi et al. 2021).

  13. 13.

    Die meisten solcher Verzerrungen stellen dabei aber nicht etwa eine Eigenheit von Algorithmen bzw. algorithmengestützten CDSS dar, sondern gelten vielmehr für gesundheitliche Datensätze und den medizinischen Umgang mit ihnen im Allgemeinen.

  14. 14.

    Mithilfe randomisierter Stichproben sollen durchschnittliche Behandlungseffekte für eine Population geschätzt werden. Teilnehmende Personen klinischer Studien sind häufig jedoch in Bezug auf zahlreiche Faktoren nicht repräsentativ für die reale Population von Patient:innen, die die Behandlung letztlich erhalten. Das kann etwa für Minderheitengruppen nachweisbar schlechtere Behandlungsoutcomes bedeuten.

  15. 15.

    Entscheidend ist hierbei vor allem das Design des Algorithmus und wie dieser mit bestehenden Häufigkeitsunterschieden rechnerisch umgeht (vgl. Abschn. 3.2).

  16. 16.

    Ein Beispiel für die Historizität von Gesundheitsproxies wäre etwa die bis 2017 in den USA ab einem Blutdruck von über 140/90 mmHG vergebene Diagnose der arteriellen Hypertonie, deren Schwellenwert sich mit Veröffentlichung einer neuen Leitlinie des American College of Cardiology und der American Heart Association auf einen Schwellenwert auf 130/80 mmHg gesenkt hat (Messerli und Bangalore 2018). Hätte also eine Person mit einem arteriellen Blutdruck von 126/80 mmHg noch vor 2017 voraussichtlich kein Label „arterielle Hypertonie“ erhalten, hat sich dies plötzlich verändert. Diese historische Veränderbarkeit von Daten ist einem Algorithmus nicht offenkundig, vielmehr muss sie bewusst berücksichtigt werden.

  17. 17.

    Dieser Umstand ist insbesondere zu bedenken angesichts der potenziell internationalen Vermarktung von ML-basierten CDSS und der anschließenden Anwendung auf unterschiedliche Populationen.

  18. 18.

    Ernüchternd ist, dass nicht-regelbasierte Algorithmen aufgrund der großen Datenfülle häufig in der Lage sind, auch explizit ausgeschlossene Merkmale über andere Proxies zu rekonstruieren (vgl. Redlining). All jene Proxies auszuschließen, über die unerwünschte Merkmale vom Algorithmus rekonstruiert werden können, kann jedoch mit deutlichen qualitativen Einbußen der Ergebnisse einhergehen (Kamiran und Žliobaitė 2013; Barocas und Selbst 2016).

  19. 19.

    Als Scheinkorrelation werden statistische Zusammenhänge zwischen zwei Variablen (x und y) bezeichnet, die nur deshalb zustande kommen, weil beide Variablen von einer dritten (unbekannten), ursächlichen Variable (z) beeinflusst werden. Nähert sich das Ausmaß der vermuteten Korrelation zwischen x und y gegen 0, sobald die zusätzliche dritte Variable (z) in das statistische Modell aufgenommen wurde, wird man meistens davon ausgehen, dass die Beziehung zwischen x und y nicht kausal, sondern falsch gewesen sein muss (Gandy 2010).

  20. 20.

    Diesem Umstand verdankt sich auch, dass etwa statistische Lösungsvorschläge, denen zufolge negative Effekte bzw. Fehlerquoten für alle unterschiedlichen Personengruppen nur möglichst gleich ausfallen müssten, im Bereich der Medizin deutlich an ihre Grenzen stoßen. Zur Beurteilung, ob es sich tatsächlich um mehr negative Effekte bzw. höhere Fehlerquoten aufgrund eines bestimmten (Stellvertreter-)Merkmals handelt, müssen die zunächst lediglich unterschiedlichen Effekte mit medizinischem Hintergrundwissen interpretiert und validiert werden; erst dadurch erhalten sie ihre normative Aussagekraft. Da in der Medizin viele der üblicherweise diskriminierungsanfälligen (Stellvertreter-)Merkmale durchaus von Relevanz sein können, lässt sich aus der schlichten Tatsache unterschiedlicher Effekte mit bzw. ohne ein bestimmtes (Stellvertreter-)Merkmal noch keine Aussage über deren normative Rechtfertigung treffen. Anders stellt sich dies für solche Entscheidungen dar (z. B. in der Rechtsprechung), in denen kausale Zusammenhänge zu einem bestimmten (Stellvertreter-)Merkmal kategorisch ausgeschlossen werden können; Effektunterschiede aufgrund dieses (Stellvertreter-)Merkmals sind dann immer ungerechtfertigt.

  21. 21.

    Beispielsweise konnte dies immer wieder für das Stellvertretermerkmal „race“ nachgewiesen werden, das nach wie vor in Studien basierend auf der Annahme potenziell genetisch-biologischer Differenzen berücksichtigt wird. Werden solche Studien im Rahmen klinischer Handlungsleitlinien dann interpretiert, kann es zu fragwürdigen oder falschen Schlussfolgerungen kommen, wie im Falle des sogenannten Correcting for Race (vgl. hierzu Juni-Ausgabe des New England Journal of Medicine 2020). Die anschließenden Diskussionen zeigen deutlich, wie statistische Korrelationen sowohl hinsichtlich der Richtung ihres Zusammenhangs als auch hinsichtlich zahlreicher Confounder störanfällig sind (vgl. Kahn 2014).

  22. 22.

    Denn selbst wenn ein Zusammenhang als kausal identifiziert werden kann, bedeutet dies noch nicht, dass dieser kausale Zusammenhang jede Form der Ungleichbehandlung rechtfertigt.

  23. 23.

    Insofern kann die Generierung und Identifikation von Proxies im Rahmen algorithmenbasierter Auswertungen großer Datenmengen auch das Potential bieten, etablierte (Stellvertreter-)Merkmale hinsichtlich ihrer Relevanz kritisch zu befragen und gegebenenfalls um bisher unbekannte (Stellvertreter-)Merkmale zu erweitern. Derartige Anwendungen können insofern auch einen großen Beitrag zur medizinischen Theoriebildung leisten.

Literatur

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Florian Funer .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2023 Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Funer, F. (2023). An den Grenzen (il)legitimer Diskriminierung durch algorithmische Entscheidungsunterstützungssysteme in der Medizin. In: Loh, J., Grote, T. (eds) Medizin – Technik – Ethik. Techno:Phil – Aktuelle Herausforderungen der Technikphilosophie , vol 5. J.B. Metzler, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-65868-0_4

Download citation

  • DOI: https://doi.org/10.1007/978-3-662-65868-0_4

  • Published:

  • Publisher Name: J.B. Metzler, Berlin, Heidelberg

  • Print ISBN: 978-3-662-65867-3

  • Online ISBN: 978-3-662-65868-0

  • eBook Packages: J.B. Metzler Humanities (German Language)

Publish with us

Policies and ethics