• Frage: Kann eine KI moralisch handeln? Wenn ja nach welchen Kriterien?

    Frage gestellt east22wye am 12 Jun 2023.
    • Foto: Christian Gawron

      Christian Gawron Beantwortet am 12 Jun 2023:


      Moderne KI-Systeme beruhen auf Deep Learning und werden entweder mit Beispielen trainiert (supervised learning) oder erhalten während des Training ein indirektes Feedback (reinforcement learning).

      „Moral“ ist eine schwer fassbare Kategorie, die sich schwer ins Training integrieren lässt.

      Bei Systemen wie ChatGPT wurden im Training auch ethische Aspekte berücksichtigt, etwa wurden diskriminierende Äußerungen „bestraft“. Das klappt aber nur eingeschränkt und es gibt Menschen, die Wege suchen, diese „Hemmschwellen“ zu umgehen.

    • Foto: Stefan Holtel

      Stefan Holtel Beantwortet am 12 Jun 2023:


      KI handelt nicht moralisch in einem menschlichen Sinn. Denn moralisches Handeln ist im Extremfall widersprüchlich und lässt sich nicht in einfache Regeln gießen. Dennoch wird viel Zeit darauf verwendet, eine KI zu bauen, die so tun kann, als ob sie moralischen Erwartungen genügt.

    • Foto: Timo Baumann

      Timo Baumann Beantwortet am 12 Jun 2023:


      Ja:

      Es gibt Theorien und Modelle zu ethischem und moralisch korrekten Handeln. (Ich bin dafür kein Experte; aber google mal zum „Trolley-Experiment“.)

      Die Definition zur künstlichen Intelligenz in einem der Hauptlehrbücher (Artificial Intelligence: a Modern Approach) zur künstlichen Intelligenz beruht auf der Idee des rationalen Agenten, der versucht so zu handeln, dass das zu erwartende Ergebnis der Handlungen möglichst optimal ist (hinsichtlich einer gegebenen Gütefunktion).

      Es ist ohne weiteres möglich, Kriterien aus den Theorien und Modellen zum moralischen Handeln in die Gütefunktion eines rationalen Agenten zu übernehmen, sodass sie Teil seiner „Zielvorstellung“ wird; ggfs. sogar als so hartes Kriterium, dass ausschließlich moralisches Handeln möglich ist. (Wobei das schwierig ist: kann es moralisch korrekt sein, jemanden umzubringen? Möglicherweise wenn derjenige sonst zwei unschuldige Menschen umbringt?)

      Aber:

      Die allermeisten KI-Systeme, die derzeit „auf dem Markt“ sind, nutzen allerdings maschinelles Lernen anhand von Beispieldaten. Zum Beispiel bestehenden Bildern oder bestehenden Texten. Und damit führen dann jeder Text und jedes Bild, die amoralisches Handeln legitimieren („Was zieht sie auch so einen kurzen Rock an?“) dazu, dass darauf basierende Maschinen davon lernen.

      Merke: die Lerner werden höchstens so gut wie die Vorbilder von denen sie lernen.

    • Foto: Maximilian Eder

      Maximilian Eder Beantwortet am 13 Jun 2023:


      Eine KI kann moralische Entscheidungen treffen, allerdings nur, wenn in der Programmierung auch solche ethischen Aspekte berücksichtigt wurden. Die Kriterien sind entsprechend durch die Beispieldaten vorgegeben, zum Beispiel diskriminierenden Äußerungen als unmoralisch zu bewerten.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 13 Jun 2023:


      Diese zwei Fragen muss man in umgekehrter Reihenfolge beantworten. Die Kriterien, nach denen KI-Systeme entscheiden, stammen von Menschen — durch Lernen oder Programmierung. D.h., dass KI-Systeme anhand dieser Kriterien entscheiden. Das kann man aber noch nicht als moralisches Handeln bezeichnen (zumindest nicht aus philosophischer Sicht), weil zum moralischen Handeln die Fähigkeit gehört, über die moralischen Kriterien selbst nachzudenken. Das können KI-Systeme (derzeit) nicht.

Kommentare