Seminar: Kant und dann? Deontologische Ethik im Zeitalter utilitaristischer KI - Details

Seminar: Kant und dann? Deontologische Ethik im Zeitalter utilitaristischer KI - Details

Sie sind nicht in Stud.IP angemeldet.

Allgemeine Informationen

Veranstaltungsname Seminar: Kant und dann? Deontologische Ethik im Zeitalter utilitaristischer KI
Untertitel Was wollen wir sein?
Veranstaltungsnummer 013
Semester SS 2025
Aktuelle Anzahl der Teilnehmenden 14
erwartete Teilnehmendenanzahl 20
Heimat-Einrichtung Philosophie mit Schwerpunkt analytische Philosophie und Wissenschaftstheorie
beteiligte Einrichtungen Philosophie
Veranstaltungstyp Seminar in der Kategorie Lehre
Nächster Termin Freitag, 02.05.2025 10:00 - 17:15, Ort: 2101 Geb. D (30 Pl.) [PhilSoz]
Art/Form Blockseminar
Leistungsnachweis Prüfungsform/Scheinerwerb: entsprechend der jeweiligen Prüfungsordnung
Veranstaltung findet in Präsenz statt / hat Präsenz-Bestandteile Ja
Hauptunterrichtssprache deutsch
Literaturhinweise Bostrom, Nick (2014): Superintelligence: Paths, Dangers, Strategies
Eine kritische Reflexion über das Potenzial und die Gefahren von KI aus philosophischer Perspektive.
Mark Coeckelbergh (2020): AI Ethics
Patrick Lin, Keith Abney & George Bekey (2017): Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence
Sonstiges Block I: Kant und die Grundlagen der deontologischen Ethik
1. Kants kategorischer Imperativ und die KI-Ethik heute

Schwerpunkt: Einführung in Kants deontologische Ethik und deren Relevanz für moderne KI-Entscheidungen. Wie kann eine Maschine moralische Prinzipien befolgen?
Kant, Immanuel: Grundlegung zur Metaphysik der Sitten (1785)
Korsgaard, Christine: Creating the Kingdom of Ends (1996)
Müller, Vincent C.: Kant’s Ethics and AI (2019)
2. Die Pflichtethik im Widerstreit mit dem Konsequentialismus
Schwerpunkt: Vergleich der Pflichtethik (Kant) mit dem Utilitarismus (Bentham/Mill). Welches Modell eignet sich besser für ethische Entscheidungsprozesse in der KI?
Kant, Immanuel: Kritik der praktischen Vernunft (1788)
Williams, Bernard: Ethics and the Limits of Philosophy (1985)
Smart, J.J.C. & Williams, Bernard: Utilitarianism: For and Against (1973)
3. Kant und die Autonomie: Ist eine autonome KI denkbar?
Schwerpunkt: Kants Konzept der Autonomie im Gegensatz zu deterministischen Algorithmen. Kann KI wahre moralische Autonomie entwickeln?
Wood, Allen: Kantian Ethics (2008)
Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies (2014)
Russell, Stuart: Human Compatible: Artificial Intelligence and the Problem of Control (2019)

Block II: Der Utilitarismus und die KI-Entscheidungslogik
4. Klassischer Utilitarismus und seine Herausforderung für KI-Entscheidungen

Schwerpunkt: Analyse des Nutzendenkens als Entscheidungsgrundlage in der KI. Welche Vorteile und ethischen Probleme entstehen?
Bentham, Jeremy: An Introduction to the Principles of Morals and Legislation (1789)
Mill, John Stuart: Utilitarianism (1861)
Bostrom, Nick & Yudkowsky, Eliezer: The Ethics of Artificial Intelligence (2014)

5. Das Trolley-Problem und autonome Systeme

Schwerpunkt: Anwendung des klassischen Trolley-Problems auf autonome Fahrzeuge und andere KI-Systeme. Welche ethischen Lösungen gibt es?
Thomson, Judith Jarvis: The Trolley Problem (1985)
Greene, Joshua: Moral Tribes (2013)
Lin, Patrick: The Ethics of Autonomous Cars (2016)

6. Die Regelutilitarismus-Debatte und maschinelles Lernen
Schwerpunkt: Unterschied zwischen Handlungs- und Regelutilitarismus im Kontext von KI. Können Algorithmen moralische Regeln lernen?
Brandt, Richard: A Theory of the Good and the Right (1979)
Rawls, John: A Theory of Justice (1971)
Russell, Stuart: Human Compatible (2019)

Block III: Deontologische KI – eine Alternative zum Utilitarismus?
7. Kann KI moralisch handeln? Kants Kategorischer Imperativ in der Praxis
Schwerpunkt: Diskussion über moralische Maschinen und die Möglichkeit, Kants Imperativ in Algorithmen zu implementieren.
Floridi, Luciano & Sanders, J.W.: On the Morality of Artificial Agents (2004)
Anderson, Michael & Anderson, Susan Leigh: Machine Ethics (2011)
Wallach, Wendell & Allen, Colin: Moral Machines: Teaching Robots Right from Wrong (2008)
8. Menschenwürde in der digitalen Gesellschaft: Eine kantianische Perspektive
Schwerpunkt: Wie kann Kants Konzept der Menschenwürde auf moderne KI-Anwendungen angewandt werden? Risiken und Chancen.
Kant, Immanuel: Die Metaphysik der Sitten (1797)
Habermas, Jürgen: Diskursethik (1983)
Bostrom, Nick: Ethical Issues in Advanced AI (2003)
9. Kategorischer Imperativ oder Nutzenmaximierung? Ein Vergleich in der Praxis
Schwerpunkt: Konkrete Fallbeispiele (z. B. Social Scoring, Gesichtserkennung). Welche ethische Theorie führt zu gerechteren Ergebnissen?
Schwitzgebel, Eric & Garza, Mara: A Defense of Ethical Machines (2015)
Bryson, Joanna: The Meaning of AI Ethics and Why It Matters (2018)
Lin, Patrick et al.: Robot Ethics 2.0 (2017)

Block IV: KI, Verantwortung und Zukunftsethik
10. Verantwortung in der KI-Entwicklung: Kant versus algorithmische Governance
Schwerpunkt: Wer trägt Verantwortung für KI-Entscheidungen? Vergleich von individueller moralischer Verantwortung (Kant) mit kollektiver Regulierung.
Floridi, Luciano: Ethics of Information (2013)
Dignum, Virginia: Responsible Artificial Intelligence (2019)
Mittelstadt, Brent et al.: The Ethics of Algorithms (2016)
11. Die Rolle der Menschenwürde in KI-Entscheidungen
Schwerpunkt: Debatte über die Bedeutung der Menschenwürde in automatisierten Entscheidungsprozessen, z. B. Bewerbungsalgorithmen, Predictive Policing.
Kant, Immanuel: Grundlegung zur Metaphysik der Sitten
Coeckelbergh, Mark: AI Ethics (2020)
Hagendorff, Thilo: Ethik der Künstlichen Intelligenz (2020)
12. Künstliche Intelligenz als moralischer Akteur?
Schwerpunkt: Ist KI ein moralischer Akteur oder nur ein Werkzeug? Philosophische Perspektiven von Kant bis zu modernen Maschinenethik-Debatten.
Bryson, Joanna: The Ethics of AI (2019)
Gunkel, David J.: The Machine Question: Critical Perspectives on AI, Robots, and Ethics (2012)
Wallach, Wendell: Moral Machines (2008)

Block V: Praktische Anwendungen und Zukunftsperspektiven
13. KI in der Medizin: Darf eine Maschine über Leben und Tod entscheiden?
Schwerpunkt: Ethische Fragen rund um KI-gesteuerte Diagnosen und OP-Roboter. Kann eine deontologische Ethik hier klare Leitlinien bieten?
Beauchamp, Tom & Childress, James: Principles of Biomedical Ethics (2013)
Mittelstadt, Brent et al.: The Ethics of Health AI (2019)
Bryson, Joanna: AI and Healthcare Ethics (2021)
14. Ethik in der Militär-KI: Sind autonome Waffen mit Kants Ethik vereinbar?
Schwerpunkt: Untersuchung der moralischen Probleme autonomer Waffensysteme aus einer kantianischen Perspektive.
Asaro, Peter: On Banning Autonomous Weapons (2012)
Lin, Patrick et al.: Robot Ethics 2.0 (2017)
Galliott, Jai: Military Ethics and Emerging Technologies (2016)
15. KI und Gerechtigkeit: Algorithmen in der Strafjustiz
Schwerpunkt: Kann eine KI gerechte Urteile fällen? Risiken algorithmischer Verzerrung und mögliche Lösungen aus deontologischer Sicht.
Noble, Safiya Umoja: Algorithms of Oppression (2018)
O’Neil, Cathy: Weapons of Math Destruction (2016)
Binns, Reuben: Fairness in Machine Learning (2018)
16. Kann eine KI eine Kantianische Utopie erschaffen?
Schwerpunkt: Utopische und dystopische Szenarien, in denen KI nach kantianischen Prinzipien funktioniert. Kann KI uns helfen, moralischer zu werden?
Rawls, John: Justice as Fairness: A Restatement (2001)
Russell, Stuart: Human Compatible (2019)
Coeckelbergh, Mark: AI Ethics (2020)

Modulzuordnungen

Kommentar/Beschreibung

Immanuel Kants kategorischer Imperativ fordert uns auf, stets so zu handeln, dass unsere Maximen als allgemeines Gesetz für alle gelten könnten. Doch wie lassen sich solche rigiden moralischen Prinzipien in einer Zeit behaupten, in der Entscheidungen mehr und mehr durch Algorithmen und Künstliche Intelligenz getroffen werden, deren Handlungen scheinbar konsequentialistisch, also utilitaristisch motiviert sind?

Das Seminar widmet sich der Frage, inwieweit Kants deontologische Ethik im Zeitalter der KI, in dem utilitaristische Entscheidungen zur Norm zu werden scheinen, noch tragfähig ist. Die utilitaristische Maxime „Handle so, dass das größtmögliche Glück für die größtmögliche Zahl entsteht“ wird in der Programmierung von autonomen Systemen vielfach stillschweigend vorausgesetzt. Die Frage, wie Maschinen – durch Algorithmen gesteuert – handeln sollen, führt uns unweigerlich zu tiefgreifenden philosophischen Problemen, die in die klassische Debatte zwischen Deontologie und Utilitarismus eingebettet sind.

Ein besonders prominentes Beispiel, das wir im Seminar aufgreifen werden, ist das berühmte Trolley-Problem, das exemplarisch die Spannungen zwischen Pflichtethik und Konsequenzenethik beleuchtet. Sollte ein autonomes Fahrzeug im Ernstfall entscheiden, ob es eine Person opfert, um fünf zu retten? Während der utilitaristische Ansatz auf die Maximierung von Leben abzielt, fordert Kants Ethik die Anerkennung der Würde eines jeden Einzelnen, unabhängig von der Zahl der Betroffenen. In der moralphilosophischen Betrachtung stellen sich hier Fragen nach der Autonomie des Individuums, nach der unverfügbaren Würde des Menschen und nach der Möglichkeit, moralische Prinzipien in technischen Kontexten zu verankern.

Diskussionsthemen des Seminars:
• Wie lässt sich Kants kategorischer Imperativ auf Maschinen und künstliche Agenten übertragen, die keine autonome Vernunft besitzen?
• Ist die utilitaristische Prämisse der Maximierung des Gesamtwohls in der KI-Entwicklung unvermeidbar, oder gibt es Alternativen?
• Welche Rolle spielt das Konzept der moralischen Verantwortung, wenn Entscheidungen durch nicht-menschliche Akteure getroffen werden?
• Kann die unbedingte Achtung vor der menschlichen Würde, wie sie Kant fordert, in einer Welt der effizienzgetriebenen Algorithmen überhaupt noch Bestand haben?

Besondere Aufmerksamkeit wird auch der Frage gewidmet, ob autonome Systeme, die auf utilitaristischen Algorithmen beruhen, nicht letztlich einen Rückschritt in die Heteronomie des Menschen bedeuten – und wie sich dem eine strikte Kantische Ethik entgegenstellen ließe. Das Trolley-Problem wird in diesem Kontext nicht nur als Gedankenexperiment behandelt, sondern als symbolisches Dilemma, das die Grundfragen der heutigen Ethik und Moralphilosophie auf den Punkt bringt.

Ziele des Seminars:
• Vertiefte Auseinandersetzung mit den zentralen ethischen Theorien Kants und der Gegenüberstellung zum Utilitarismus
• Reflexion über die Tragweite klassischer moralphilosophischer Fragestellungen im Kontext moderner Technologien
• Entwicklung eines philosophischen Verständnisses der Implikationen von KI-Entscheidungen für Fragen der Menschenwürde, Autonomie und Verantwortung

Anmelderegeln

Diese Veranstaltung gehört zum Anmeldeset "Zeitgesteuerte Anmeldung: Kant und dann? Deontologische Ethik im Zeitalter utilitaristischer KI".
Folgende Regeln gelten für die Anmeldung:
  • Die Anmeldung ist möglich bis 01.04.2025, 00:00.