Zusammenfassung
Der Einsatz von Systemen zur klinischen Entscheidungsunterstützung eröffnet der Medizin und dem Gesundheitsbereich vielversprechende Möglichkeiten. Vor allem nicht-regelbasierte Algorithmen wecken zunehmend das Interesse unterschiedlicher Fachdisziplinen, um Erkenntnisse aus großen Datenmengen für (individualisierte) klinische Entscheidungen nutzbar zu machen. Erhoffte man sich anfangs von Algorithmen nüchtern-objektive Empfehlungen, wurden diese Hoffnungen zumindest teilweise für unterschiedliche Lebensbereiche – darunter auch die Medizin – nachweislich enttäuscht. In diesem Beitrag wird ein zweifaches Ziel verfolgt: Zum einen soll das Phänomen algorithmenbedingter Diskriminierung im Gesundheitsbereich näher beleuchtet werden. Dabei wird zu klären sein, unter welchen normativen Voraussetzungen Ungleichbehandlungen überhaupt als Diskriminierung qualifiziert werden und wie Ungleichbehandlungen durch den Einsatz von Algorithmen zustande kommen. Zum anderen soll gezeigt werden, warum sich im Gesundheitsbereich die Qualifizierung von Ungleichbehandlungen als moralisch illegitime Diskriminierung und damit auch ihre Vermeidung besonders schwierig gestalten.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Similar content being viewed by others
Notes
- 1.
Während der Begriff „Künstliche Intelligenz“ seit den 1970er-Jahren als Oberbegriff für ganz unterschiedliche informationstechnologische Methoden genutzt wurde, mithilfe derer das Ziel verfolgt werden sollte, Fähigkeiten der menschlichen Intelligenz möglichst umfassend zu simulieren oder gar zu übertreffen, etablierte sich in den letzten Jahrzehnten ein engerer Begriff von Künstlicher Intelligenz, der im Fachdiskurs weitgehend durch den Begriff „Maschinelles Lernen“ ersetzt wurde. Maschinelles Lernen bezeichnet dabei den Prozess, mithilfe von Algorithmen aus Daten Muster zu erkennen, und verhindert mit dieser differenzierenden Engführung der Begriffsnutzung missverständliche Vergleiche zur menschlichen Intelligenz (vgl. dazu auch Berendt 2020; Liedtke und Langanke 2021). Es ließen sich hierbei weitere Differenzierungen vornehmen, die für mein Anliegen jedoch nicht unmittelbar von Bedeutung sind. Insbesondere die Entwicklungen im Bereich des Deep Learning bzw. die Modellierung von künstlichen neuronalen Netzen verhalfen dem Phänomen des Maschinellen Lernens zu den jüngsten Durchbrüchen.
- 2.
Im Gesundheitsbereich wird neben der wertneutralen Diskriminierung aber auch die negativ bewertete Diskriminierung immer wieder zum Gesprächsgegenstand, etwa im Kontext gesundheitlicher Ungleichheit (health care disparity oder health inequality), die durch die systematische Benachteiligung von Gruppen von Menschen zustande kommt (Gianfrancesco et al. 2018; Baumgartner 2021). Auch Diskriminierungserfahrungen von Patient:innen, etwa aufgrund von körperlicher oder psychischer Verfasstheit, sozialer Position, geschlechtlicher Identität, sexueller Orientierung, chronischen Erkrankungen, Behinderungen oder auch intersektionale Kombinationen hiervon (Puddifoot 2019; Baumgartner 2021), thematisieren die negativ bewertete Form der Diskriminierung. Im medizinischen Jargon sind also sowohl die wertneutrale Diskriminierung i. S. einer Differenzierung als auch die negativ bewertete Diskriminierung zumeist i. S. einer Benachteiligung gebräuchlich.
- 3.
Irritationen können hierbei die manchmal genutzten Formen „positive Diskriminierung“ und „negative Diskriminierung“ hervorrufen, die jedoch nicht auf die negative Bewertung der Diskriminierung abheben. Sie stehen vielmehr für die konkrete Ausgestaltung der Ungleichbehandlung: einerseits als eine Bevorteilung bzw. Bevorzugung (positive Diskriminierung), andererseits als eine Benachteiligung (negative Diskriminierung) (vgl. hierzu etwa Lindner 2018).
- 4.
Damit ist eine konkret die Ungleichbehandlung betreffende Sache gemeint.
- 5.
Art. 3 Abs. 3 GG: „Niemand darf wegen seines Geschlechtes, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden. Niemand darf wegen seiner Behinderung benachteiligt werden.“
- 6.
Art. 21 Charta der Grundrechte der EU: „(1) Diskriminierungen insbesondere wegen des Geschlechts, der Rasse, der Hautfarbe, der ethnischen oder sozialen Herkunft, der genetischen Merkmale, der Sprache, der Religion oder der Weltanschauung, der politischen oder sonstigen Anschauung, der Zugehörigkeit zu einer nationalen Minderheit, des Vermögens, der Geburt, einer Behinderung, des Alters oder der sexuellen Ausrichtung sind verboten. (2) Unbeschadet besonderer Bestimmungen der Verträge ist in ihrem Anwendungsbereich jede Diskriminierung aus Gründen der Staatsangehörigkeit verboten.“
- 7.
Heiner Koch (2020) unterscheidet bei Ungleichbehandlungen in ähnlicher Weise die „sachliche (Un-)Angemessenheit“ von „normativen Aspekten“. Er nutzt dabei den Begriff der „sachlichen (Un-)Angemessenheit“, um in der sachlichen Differenz begründete bzw. unbegründete Ungleichbehandlungen auszudrücken. Auch wenn ich mit seinen Ausführungen dahingehend übereinstimme, dass sachlich vorliegende Differenzen zwar Gründe für eine Ungleichbehandlung darstellen können, scheint mir, dass das Urteil über die sachliche Angemessenheit der Ungleichbehandlung immer schon normative Erwägungen voraussetzt und es sich daher um eine konstruierte oder zumindest begrifflich irreführende Unterscheidung handelt. Aus der alleinigen Tatsache der sachlichen Unterscheidbarkeit (Sein) folgt, so meine Einschätzung, nie eine unmittelbare (keiner normativen Rechtfertigung bedürfende) Angemessenheit der Ungleichbehandlung (Sollen). Vielmehr bedarf es immer normativer Erwägungen, welche Evidenz und welcher Grad der Unterscheidbarkeit gegeben sein müssen, um eine bestimmte Art von Ungleichbehandlung zu rechtfertigen. Aus diesem Grund wähle ich hier die Begriffe „sachbezogen normative“ bzw. „nicht-sachbezogen normative Gründe“.
- 8.
Lippert-Rasmussen (2011, 2014) unterscheidet bei der Beurteilung der Legitimität von Ungleichbehandlungen zwei Bezugsrahmen: Ihm zufolge könnten bei einer Ungleichbehandlung entweder allein die Person bzw. Personengruppe, die ungleich behandelt wird und der daraus Nachteile entstehen bzw. entstehen könnten (pro tanto), oder aber alle aus der Ungleichbehandlung resultierenden Folgen und auch mittelbar davon betroffenen Personen (all things considered) berücksichtigt werden. Pro tanto scheint sich mir daher weitgehend mit der Berücksichtigung von mir als sachbezogen normativ bezeichneten Gründen zu decken, während all things considered darüber hinausgehend eben auch nicht-sachbezogen normative Gründe, wie Gerechtigkeitserwägungen, miteinschließt.
- 9.
So läuft die Nutzung von Stellvertretermerkmalen, die die Realität vereinfachen sollen, auch unweigerlich Gefahr, die Bildung und Anwendung von Stereotypen und Vorurteilen zu begünstigen, wodurch sich ungerechtfertigte Zuschreibungen von Stellvertretermerkmalen häufen können. Vgl. hierzu vertiefend etwa den von Petersen und Six (2020) herausgegebenen Band Stereotype, Vorurteile und soziale Diskriminierung, auf den mich dankenswerter Weise die Herausgeber:innen aufmerksam gemacht haben.
- 10.
Während statistische Verallgemeinerungen dazu führen könnten, dass einige Personen behandelt werden, wie sie vielleicht aus sachbezogenen normativen Gründen nicht behandelt werden sollten, könnten andere nicht-sachbezogene normative Erwägungen (z. B. wirtschaftlich-epistemische Kosten-Nutzen-Abwägungen, Priorisierungen etc.) zu dem Urteil führen, dass die resultierende Ungleichbehandlung als alles in allem ausreichend gerechtfertigt eingeschätzt wird.
- 11.
Zwar können auch Formen absichtlicher Diskriminierung durch Algorithmen umgesetzt und sogar zu Teilen verschleiert werden („Maskierung“, vgl. dazu Barocas und Selbst 2016). Da diese in der Regel jedoch nicht in der Funktionsweise von algorithmengestützten CDSS begründet sind, werden sie hier nicht weiter berücksichtigt. Nichtsdestotrotz haben regulatorische Maßnahmen auch solche Formen von Diskriminierung im Blick zu behalten.
- 12.
Auch können Ungleichbehandlungen durch die Interaktion mit dem algorithmengestützten CDSS zustande kommen. Da dies jedoch vorrangig psychologische Verzerrungseffekte durch die mit diesem interagierenden Akteur:innen sind, bleiben diese hier unberücksichtigt (vgl. in Mehrabi et al. 2021).
- 13.
Die meisten solcher Verzerrungen stellen dabei aber nicht etwa eine Eigenheit von Algorithmen bzw. algorithmengestützten CDSS dar, sondern gelten vielmehr für gesundheitliche Datensätze und den medizinischen Umgang mit ihnen im Allgemeinen.
- 14.
Mithilfe randomisierter Stichproben sollen durchschnittliche Behandlungseffekte für eine Population geschätzt werden. Teilnehmende Personen klinischer Studien sind häufig jedoch in Bezug auf zahlreiche Faktoren nicht repräsentativ für die reale Population von Patient:innen, die die Behandlung letztlich erhalten. Das kann etwa für Minderheitengruppen nachweisbar schlechtere Behandlungsoutcomes bedeuten.
- 15.
Entscheidend ist hierbei vor allem das Design des Algorithmus und wie dieser mit bestehenden Häufigkeitsunterschieden rechnerisch umgeht (vgl. Abschn. 3.2).
- 16.
Ein Beispiel für die Historizität von Gesundheitsproxies wäre etwa die bis 2017 in den USA ab einem Blutdruck von über 140/90 mmHG vergebene Diagnose der arteriellen Hypertonie, deren Schwellenwert sich mit Veröffentlichung einer neuen Leitlinie des American College of Cardiology und der American Heart Association auf einen Schwellenwert auf 130/80 mmHg gesenkt hat (Messerli und Bangalore 2018). Hätte also eine Person mit einem arteriellen Blutdruck von 126/80 mmHg noch vor 2017 voraussichtlich kein Label „arterielle Hypertonie“ erhalten, hat sich dies plötzlich verändert. Diese historische Veränderbarkeit von Daten ist einem Algorithmus nicht offenkundig, vielmehr muss sie bewusst berücksichtigt werden.
- 17.
Dieser Umstand ist insbesondere zu bedenken angesichts der potenziell internationalen Vermarktung von ML-basierten CDSS und der anschließenden Anwendung auf unterschiedliche Populationen.
- 18.
Ernüchternd ist, dass nicht-regelbasierte Algorithmen aufgrund der großen Datenfülle häufig in der Lage sind, auch explizit ausgeschlossene Merkmale über andere Proxies zu rekonstruieren (vgl. Redlining). All jene Proxies auszuschließen, über die unerwünschte Merkmale vom Algorithmus rekonstruiert werden können, kann jedoch mit deutlichen qualitativen Einbußen der Ergebnisse einhergehen (Kamiran und Žliobaitė 2013; Barocas und Selbst 2016).
- 19.
Als Scheinkorrelation werden statistische Zusammenhänge zwischen zwei Variablen (x und y) bezeichnet, die nur deshalb zustande kommen, weil beide Variablen von einer dritten (unbekannten), ursächlichen Variable (z) beeinflusst werden. Nähert sich das Ausmaß der vermuteten Korrelation zwischen x und y gegen 0, sobald die zusätzliche dritte Variable (z) in das statistische Modell aufgenommen wurde, wird man meistens davon ausgehen, dass die Beziehung zwischen x und y nicht kausal, sondern falsch gewesen sein muss (Gandy 2010).
- 20.
Diesem Umstand verdankt sich auch, dass etwa statistische Lösungsvorschläge, denen zufolge negative Effekte bzw. Fehlerquoten für alle unterschiedlichen Personengruppen nur möglichst gleich ausfallen müssten, im Bereich der Medizin deutlich an ihre Grenzen stoßen. Zur Beurteilung, ob es sich tatsächlich um mehr negative Effekte bzw. höhere Fehlerquoten aufgrund eines bestimmten (Stellvertreter-)Merkmals handelt, müssen die zunächst lediglich unterschiedlichen Effekte mit medizinischem Hintergrundwissen interpretiert und validiert werden; erst dadurch erhalten sie ihre normative Aussagekraft. Da in der Medizin viele der üblicherweise diskriminierungsanfälligen (Stellvertreter-)Merkmale durchaus von Relevanz sein können, lässt sich aus der schlichten Tatsache unterschiedlicher Effekte mit bzw. ohne ein bestimmtes (Stellvertreter-)Merkmal noch keine Aussage über deren normative Rechtfertigung treffen. Anders stellt sich dies für solche Entscheidungen dar (z. B. in der Rechtsprechung), in denen kausale Zusammenhänge zu einem bestimmten (Stellvertreter-)Merkmal kategorisch ausgeschlossen werden können; Effektunterschiede aufgrund dieses (Stellvertreter-)Merkmals sind dann immer ungerechtfertigt.
- 21.
Beispielsweise konnte dies immer wieder für das Stellvertretermerkmal „race“ nachgewiesen werden, das nach wie vor in Studien basierend auf der Annahme potenziell genetisch-biologischer Differenzen berücksichtigt wird. Werden solche Studien im Rahmen klinischer Handlungsleitlinien dann interpretiert, kann es zu fragwürdigen oder falschen Schlussfolgerungen kommen, wie im Falle des sogenannten Correcting for Race (vgl. hierzu Juni-Ausgabe des New England Journal of Medicine 2020). Die anschließenden Diskussionen zeigen deutlich, wie statistische Korrelationen sowohl hinsichtlich der Richtung ihres Zusammenhangs als auch hinsichtlich zahlreicher Confounder störanfällig sind (vgl. Kahn 2014).
- 22.
Denn selbst wenn ein Zusammenhang als kausal identifiziert werden kann, bedeutet dies noch nicht, dass dieser kausale Zusammenhang jede Form der Ungleichbehandlung rechtfertigt.
- 23.
Insofern kann die Generierung und Identifikation von Proxies im Rahmen algorithmenbasierter Auswertungen großer Datenmengen auch das Potential bieten, etablierte (Stellvertreter-)Merkmale hinsichtlich ihrer Relevanz kritisch zu befragen und gegebenenfalls um bisher unbekannte (Stellvertreter-)Merkmale zu erweitern. Derartige Anwendungen können insofern auch einen großen Beitrag zur medizinischen Theoriebildung leisten.
Literatur
Avraham, Ronen. 2018. Discrimination and insurance. In The Routledge Handbook of the Ethics of Discrimination, Hrsg. Kasper Lippert-Rasmussen, 335–347. London: Routledge Taylor & Francis Group.
Balsa, Ana I., und Thomas G. McGuire. 2001. Statistical discrimination in health care. Journal of Health Economics 20:881–907.
Barocas, Solon, und Andrew D. Selbst. 2016. Big Data’s disparate impact. California Law Review 104(3): 671–732. https://doi.org/10.15779/Z38BG31.
Baumgartner, Renate. 2021. Künstliche Intelligenz in der Medizin: Diskriminierung oder Fairness? In Diskriminierung und Antidiskriminierung. Beiträge aus Wissenschaft und Praxis, Hrsg. Gero Bauer, Maria Kechaja, Sebastian Engelmann, und Lean Haug, 149–164. Bielefeld: Transcript.
Beam, Andrew L., und Isaac S. Kohane. 2018. Big data and machine learning in health care. Journal oft he American Medical Association 319(19):1317–1318. https://doi.org/10.1001/jama.2017.18391.
Beck, Susanne, Armin Grunwald, Kai Jacob, und Tobias Matzner. 2019. Künstliche Intelligenz und Diskriminierung: Herausforderungen und Lösungsansätze. Whitepaper. Lernende Systeme – Die Plattform für Künstliche Intelligenz, München. https://www.plattform-lernende-systeme.de/publikationen-details/kuenstliche-intelligenz-und-diskriminierung-herausforderungen-und-loesungsansaetze.html?file=files/Downloads/Publikationen/AG3_Whitepaper_250619.pdf. Zugegriffen: 14. Mai 2022.
Berendt, Bettina. 2020. Algorithmic discrimination. In Elgar Encyclopedia of law and data science, Hrsg. Giovanni Comandé, 17–31. Chettenham: Elgar.
Britz, Gabriele. 2008. Einzelfallgerechtigkeit versus Generalisierung. Tübingen: Mohr Siebeck.
Char, Danton S., Nigam H. Shah, und David Magnus. 2018. Implementing machine learning in health care. New England Journal of Medicine 378(11):981–983. https://doi.org/10.1056/NEJMp1714229.
Chen, Irene Y., Emma Pierson, Sherri Rose, Shalmai Joshi, Kadija Ferryman, und Marzyeh Ghassemi. 2020. Ethical machine learning in health. arXiv:2009.10576. https://doi.org/10.48550/arXiv.2009.10576.
Datenethikkommission der Bundesregierung. 2019. Gutachten der Datenethikkommission. Berlin. https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.pdf. Zugegriffen: 12. Mai 2022.
Dworkin, Ronald. 1978. Reverse discrimination. In Taking rights seriously, Hrsg. Ronald Dworkin, 223–239. Cambridge: Harvard University Press.
Friedman, Batya, und Helen Nissenbaum. 1996. Bias in computer systems. ACM Transactions on Information Systems 14(3): 330–347. https://doi.org/10.1145/230538.230561.
Friedmann, Batya, und Helen Nissenbaum. 1997. Bias in computer systems. In Human values and the design of computer technology, Hrsg. Batya Friedmann, 21–40. Cambridge: Cambridge University Press.
Fröhlich, Holger, Rudi Balling, Niko Beerenwinkel, et al. 2018. From hype to reality: Data science enabling personalized medicine. BMC Medicine 16:150. https://doi.org/10.1186/s12916-018-1122-7.
Funer, Florian. 2021. Patient – Arzt – Algorithmus: Ethische und kommunikative Erwägungen zu einer KI-gestützten Beziehung. Zeitschrift für medizinische Ethik 67(3): 367–379. https://doi.org/10.14623/zfme.2021.3.367-379.
Funer, Florian. 2022. The deception of certainty: How non-interpretable machine learning outcomes challenge the epistemic authority of physicians. A deliberative-relational approach. Medicine, Health Care and Philosophy 25:167–178. https://doi.org/10.1007/s11019-022-10076-1.
Gandy Jr., Oscar H. 2010. Engaging rational discrimination: Exploring reasons for placing regulatory constraints on decision support systems. Ethics and Information Technology 12:29–42. https://doi.org/10.1007/s10676-009-9198-6.
Gianfrancesco, Milena A., Suzanne Tamang, Jinoos Yazdany, und Gabriela Schmajuk. 2018. Potential biases in machine learning algorithms using electronic health record data. JAMA Internal Medicine 178(11):1544–1547. https://doi.org/10.1001/jamainternmed.2018.3763.
Gundersen, Torbjørn, und Kristine Bærøe. 2022. The future ethics of artificial intelligence in medicine: Making sense of collaborative models. Science and Engineering Ethics 28:17. https://doi.org/10.1007/s11948-022-00369-2.
Hagendorff, Thilo. 2019a. Maschinelles Lernen und Diskriminierung: Probleme und Lösungsansätze. Österreichische Zeitschrift für Soziologie 44(Suppl. 1):53–66. https://doi.org/10.1007/s11614-019-00347-2.
Hagendorff, Thilo. 2019b. Rassistische Maschinen? Übertragungsprozesse von Wertorientierungen zwischen Gesellschaft und Technik. In Maschinenethik. Normative Grenzen autonomer Systeme, Hrsg. Matthias Rath, Friedrich Krotz, und Matthias Karmasin Karmasin, 121–134. Wiesbaden: Springer VS.
Harcourt, Bernard E. 2007. Against prediction: Profiling, policing, and punishing in an actuarial age. Chicago: University of Chicago Press.
High-Level Expert Group on Artificial Intelligence (HLEG). 2019. Ethics guidelines for trustworthy AI. https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Zugegriffen: 6. Mai 2022.
Holzinger, Andreas. 2016. Interactive machine learning for health informatics: When do we need the human-in-the-loop? Brain Informatics 3:119–131. https://doi.org/10.1007/s40708-016-0042-6.
Jannes, Marc, Minou Friele, Christiane Janner, und Christiane Woopen. 2018. Algorithmen in der digitalen Gesundheitsversorgung. Eine interdisziplinäre Analyse. Gütersloh: Bertelsmann Stiftung.
Kahn, Jonathan. 2014. Race in a bottle. The story of BiDil and racialized medicine in a post-genomic age. Columbia: Columbia University Press.
Kamiran, Faisal, und Indrė Žliobaitė. 2013. Explainable and non-explainable discrimination in classification. In Discrimination & privacy in the information society (Studies in Applied Philosophy, Epistemology and Rational Ethics 3), Hrsg. Bart Custers, et al., 155–170. Berlin: Springer. https://doi.org/10.1007/978-3-642-30487-3_8.
Kautkzy-Willer, Alexandra. 2012. Gendermedizin. Böhlau: Utb.
Koch, Heiner. 2020. Intransparente Diskriminierung durch maschinelles Lernen. Zeitschrift für Praktische Philosophie 7(1): 265–300. https://doi.org/10.22613/zfpp/7.1.9.
Kolleck, Alma, und Carsten Orwat. 2020. Mögliche Diskriminierung durch algorithmische Entscheidungssysteme und maschinelles Lernen – Ein Überblick (TAB-Hintergrundpapier, Nr. 24). Berlin: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag.
Lashbrook, Angela. 2018. AI-driven dermatology could leave dark-skinned patients behind. The Atlantic, 16 August 2018. https://www.theatlantic.com/health/archive/2018/08/machine-learning-dermatology-skin-color/567619/. Zugegriffen: 26. Mai 2022.
Lerman, Jonas. 2013. Big data and its exclusions. Stanford Law Review Online 66:55–63.
Li, Shanshan, Greg C. Fonarow, Kenneth J. Mukamal, et al. 2016. Sex and race/ethnicity-related disparities in care and outcomes after hospitalization for coronary artery disease among older adults. Circulation – Cardiovascular Quality and Outcomes 9(2):36–44. https://doi.org/10.1161/CIRCOUTCOMES.115.002621.
Liedtke, Wenke, und Martin Langanke. 2021. Der Einsatz von IT-basierten Decision-Support-Systemen in der medizinischen Versorgung aus verantwortungsethischer Sicht. Zeitschrift für medizinische Ethik 67(3):279–296. https://doi.org/10.14623/zfme.2021.3.279-296.
Lindner, Urs. 2018. Von der Chancengleichheit zur gleichen Teilhabe. Zur Rechtfertigung von Gleichstellungspolitik. Zeitschrift für politische Theorie 9(2):269–290. https://doi.org/10.3224/zpth.v9i2.09.
Lippert-Rasmussen, Kasper. 2011. “We are all different”: Statistical discrimination and the right to be treated as an individual. The Journal of Ethics 15:47–59. https://doi.org/10.1007/s10892-010-9095-6.
Lippert-Rasmussen, Kasper. 2014. Born free and equal? Oxford: Oxford University Press.
McCradden, Melissa D., James A. Anderson, Elizabeth A. Stephenson, Erik Drysdale, Lauren Erdman, Anna Goldenberg, und Randi Zlotnik Shaul. 2022. A research ethics framework for the clinical translation of healthcare machine learning. The American Journal of Bioethics 22(5):8–22. https://doi.org/10.1080/15265161.2021.2013977.
Mehrabi, Ninareh, Fred Morstatter, Nripsuta Saxena, Kristina Lerman, und Aram Galstyan. 2021. A survey on bias and fairness in machine learning. ACM Computing Surveys 54(6):115. https://doi.org/10.1145/3457607.
Messerli, Franz H., und Sripal Bangalore. 2018. Lowering the thresholds of diseases. Journal of the American College of Cardiology 71(2):119–121. https://doi.org/10.1016/j.jacc.2017.11.029.
Obermeyer, Ziad, Brian Powers, Christine Vogeli, und Sendhil Mullainathan. 2019. Dissecting racial bias in an algorithm used to manage the health of populations. Science 366(6464):447–453. https://doi.org/10.1126/science.aax234.
O’Neil, Cathy. 2016. Weapons of math destruction. How big data increases inequality and threatens democracy. New York: Crown.
Pedreschi, Dino, Salvatore Ruggieri, und Franco Turini. 2008. Discrimination-aware data mining. In Proceedings of the 14th ACM SIGKDD International Conference on knowledge discovery and data mining, Hrsg. Association for Computing Machinery, 560–568. https://doi.org/10.1145/1401890.1401959.
Petersen, Lars-Eric, und Bernd Six, Hrsg. 2020. Stereotype, Vorurteile und soziale Diskriminierung. Theorien, Befunde und Interventionen. Weinheim: Beltz.
Puddifoot, Katherine. 2019. Stereotyping Patients. Journal of Social Philosophy 50(1):69–90. https://doi.org/10.1111/josp.12269.
Ramoni, Marco, und Paola Sebastiani. 2001. Robust learning with missing data. Machine Learning 45(2):147–170. https://doi.org/10.1023/A:1010968702992.
Rudschies, Catharina, Ingrid Schneider, und Judith Simon. 2021. Value pluralism in the AI ethics debate – Different actors, different priorities. The International Review of Information Ethics 29(3). https://doi.org/10.29173/irie419.
Sachverständigenrat zur Begutachtung der Entwicklung im Gesundheitswesen (SVR). 2021. Digitalisierung für Gesundheit: Ziele und Rahmenbedingungen eines dynamisch lernenden Gesundheitssystems. Gutachten 2021. https://www.svr-gesundheit.de/fileadmin/Gutachten/Gutachten_2021/SVR_Gutachten_2021.pdf. Zugegriffen: 6. Mai 2022.
Schauer, Frederick. 2003. Profiles, probabilities and stereotypes. Cambridge: Harvard University Press.
Schauer, Frederick. 2018. Statistical (and non-statistical) discrimination. In The Routledge handbook of the ethics of discrimination, Hrsg. Kasper Lippert-Rasmussen, 42–53. London: Routledge Taylor & Francis Group.
Solomon, Miriam. 2015. Making medical knowledge. Oxford: Oxford University Press.
Statistisches Bundesamt. 2022. Krankheitskosten: Deutschland, Jahre, Geschlecht, Altersgruppen. https://www-genesis.destatis.de/genesis/online?sequenz=tabelleErgebnis&selectionname=23631-0002#abreadcrumb. Zugegriffen: 12. Mai 2022.
Topol, Eric J. 2019. High-performance medicine: the convergence of human and artificial intelligence. Nature Medicine 25: 44–56. https://doi.org/10.1038/s41591-018-0300-7.
Vickers, Selwyn M., und Mona N. Fouad. 2014. An overview of EMPaCT and fundamental issues affecting minority participation in cancer clinical trials: Enhancing minority participation in clinical trials (EMPaCT): Laying the groundwork for improving minority clinical trial accrual. Cancer 120(Suppl 7):1087–1090. https://doi.org/10.1002/cncr.28569.
Vollmer, Sebastian, Bilal A. Mateen, Gergo Bohner, et al. 2020. Machine learning and artificial intelligence research for patient benefit: 20 critical questions on transparency, replicability, ethics, and effectiveness. BMJ 368:16927. https://doi.org/10.1136/bmj.l6927.
Waltl, Bernhard. 2019. Erklärbarkeit und Transparenz im Machine Learning. In Philosophisches Handbuch Künstliche Intelligenz, Hrsg. Klaus Mainzer. Wiesbaden: Springer Reference Geisteswissenschaften. https://doi.org/10.1007/978-3-658-23715-8_31-1.
World Health Organisation (WHO). 2021. Ethics & governance of artificial intelligence for health: WHO guidance. Genf: World Health Organization. https://apps.who.int/iris/rest/bitstreams/1352854/retrieve. Zugegriffen: 14. Apr. 2022.
Zentrale Ethikkommission der Bundesärztekammer (ZEKO). 2021. Entscheidungsunterstützung ärztlicher Tätigkeit durch Künstliche Intelligenz. Deutsches Ärzteblatt 118(33/34):A1-13. https://doi.org/10.3238/arztebl.zeko_sn_cdss_2021.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2023 Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature
About this chapter
Cite this chapter
Funer, F. (2023). An den Grenzen (il)legitimer Diskriminierung durch algorithmische Entscheidungsunterstützungssysteme in der Medizin. In: Loh, J., Grote, T. (eds) Medizin – Technik – Ethik. Techno:Phil – Aktuelle Herausforderungen der Technikphilosophie , vol 5. J.B. Metzler, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-65868-0_4
Download citation
DOI: https://doi.org/10.1007/978-3-662-65868-0_4
Published:
Publisher Name: J.B. Metzler, Berlin, Heidelberg
Print ISBN: 978-3-662-65867-3
Online ISBN: 978-3-662-65868-0
eBook Packages: J.B. Metzler Humanities (German Language)