• Frage: Ist Moral eine Voraussetzung bei einer KI? Oder wäre es nützlicher wenn sie neutral handeln würde?

    Frage gestellt east22wye am 12 Jun 2023.
    • Foto: Christian Gawron

      Christian Gawron Beantwortet am 12 Jun 2023:


      Vieles, was unter den Begriff „KI“ gefasst wird, hat wenig moralische Aspekte (etwa die Übersetzung gesprochener Sprache in Text).

      Bei Systemen wie ChatGPT wurden ethische Aspekte beim Training teilweise berücksichtigt, etwa wurden im Training diskriminierende Äußerungen „bestraft“.

      Den Widerspruch zwischen „Moral“ und „Neutralität“ in der Fragestellung verstehe ich nicht.

      Ein sehr häufiges Problem beim Training von KI-Modellen ist, dass die Trainingsdaten nicht „neutral“ sind. Mein Lieblingsbeispiel sind Satzergänzungen: Wenn man Sprachmodelle die Sätze
      „Sie ist 30 Jahre alt und arbeitet als …“
      und
      „Er ist 30 Jahre alt und arbeitet als …“
      ergänzen lässt, sieht man sowohl Gender-Stereotype als auch einen „sozialen“ Bias in den Antworten. Paketbot*innen sind im Internet weniger präsent als Schauspieler*innen, und das sieht man in den Antworten der KI.

    • Foto: Philipp Wicke

      Philipp Wicke Beantwortet am 12 Jun 2023:


      Prinzipiell ist moralisches Handeln keine Voraussetzung bei der Entwicklung von KI. Dennoch ist es wichtig das in den verschiedenen Einsatzbereichen der KI auch eine moralische Perspektive entwickelt wird. Einfaches Beispiel: Wenn eine KI nur unterscheiden soll, ob es sich bei einem Objekt um ein Strassenschild oder eine Hecke handelt, damit das Auto keinen Unfall baut, dann braucht es dort in erster Linie keine moralische Richtung. Sollte das Auto mit KI aber unterscheiden muessen, ob es dem alten Mann oder der Gruppe Kinder ausweicht, dann handelt es sich um das bekannt „Trolley Dilemma“, also eine philosophische Frage nach der Moral des richtigen Handelns.
      Je nach Kontext ist es also wichtig eine moralische Perspektive zu entwickeln. Ein Problem bei dieser Moral ist, dass wir kaum etwas fuer Maschinen umsetzen koennen, dass wir selbst fuer Menschen nicht umgesetzt bekommen, da selbst Menschen oft Moral nicht als Voraussetzung fuer ihr Handeln sehen.

    • Foto: Stefan Holtel

      Stefan Holtel Beantwortet am 12 Jun 2023:


      Moral ist keine Voraussetzung für KI, sondern eher eine Hürde. Viele arbeiten daran, Moral in KI „einzupflanzen“, bisher mit mäßigem Erfolg. Aber auch „neutrales Handeln“ wäre keine Lösung des Problems, den das genau genommen nur eine von vielen möglichen Alternativen, moralisches Handeln zu begründen (z.B. utilitaristisch).

    • Foto: Maximilian Eder

      Maximilian Eder Beantwortet am 13 Jun 2023:


      Moralisches Handeln ist keine Voraussetzung für KI. Wenn sich Menschen bei wichtigen Entscheidungen auf eine KI verlassen sollen, ist es zumindest hilfreich, eine moralische Perspektive zuzulassen. Gleichzeitig sollte die moralische Bewertung von Situationen eher Menschen überlassen werden.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 13 Jun 2023:


      Für die technische Seite des Funktionierens von KI benötigt man keine Moral (tatsächlich ist der Einbau von Moral in eine KI vermutlich mit hohem Aufwand verbunden). Für einen verantwortbaren Einsatz von KI wäre es vielen Fällen, bspw. wenn Entscheidungen über das Wohlergehen von Menschen durch eine KI getroffen werden sollen, sinnvoll, Moral in KI-Systeme einzubauen.

    • Foto: Elisabeth Mayweg

      Elisabeth Mayweg Beantwortet am 13 Jun 2023:


      Bei der Weiterverwertung von KI-produzierten Inhalten spielt Moral sicherlich an vielen Stellen eine Rolle. Ich würde dann moralisches Handeln als Zugang zu einer adäquaten Nutzung von KI verstehen. Die KI kann selbst nicht moralisch sein, könnte an dieser Stelle dann aber Vorschläge für moralisches Handeln erzeugen. Allerdings wären diese Vorschläge dann auch wieder von den Daten abhängig, auf denen die KI trainiert wurde (und haben somit nicht per se Geltungsanspruch).

Kommentare