• Frage: Kann es gefährlich werden KI zu verwenden?

    Frage gestellt asks22red am 16 Jun 2023. Diese Frage wurde auch von whew22red, 🐢, fete22kay, page22kay, fact22ran gestellt.
    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 16 Jun 2023:


      Grundsätzlich ist KI ein Werkzeug — und der Gebrauch von Werkzeugen kann sowohl für die nutzende Person als auch für andere Menschen gefährlich sein: Mit einer Kettensäge kann man Bäume fällen, aber auch sich oder andere Menschen absichtlich oder unabsichtlich verletzen. Hier macht KI keinen Unterschied.

      Das Problem von KI ist insbesondere darin zu sehen, dass wir Menschen manchmal nicht in der Lage sind, Aussagen, die wahr sind, von Aussagen, die falsch sind, zu unterscheiden. Dies ist eine Herausforderung bspw. bei Deep Fakes und anderen medialen Inhalten, die wietreichende Konsequenzen haben können. Von KI-Bildgeneratoren erzeugte Bilder oder Filme könnten potenziell einmal so überzeugend wirken, dass wir ihnen glauben, obwohl sie fabriziert sind.

      Auch das ist zwar kein neues Phänomen, weil es solche Fälschungen schon immer gab, seit es die Fotografie gibt. Aber bisher waren solche Fälschungen mit einem erheblichen Aufwand verbunden — jetzt kann fast jede*r mit den richtigen KI-Programmen so etwas herstellen.

      Das ist ein Beispiel für die Gefahren der KI, es gibt sicher noch mehr.

    • Foto: Timo Baumann

      Timo Baumann Beantwortet am 17 Jun 2023:


      ja. Zum Beispiel wird ChatGPT von manchen als Programmierhilfe genutzt. Das ist einerseits gut, weil man schneller zu Ergebnissen kommt. Andererseits kann es aber auch dazu führen, dass man Vorschläge von ChatGPT einfach „abnickt“, ohne genau den Vorschlag anzuschauen. Meistens sind die Vorschläge ja richtig. Dann die (seltenen) Fehler zu bemerken, ist schwierig und weil die Vorschläge immer komplexer werden und die Erwartung an die Arbeitsgeschwindigkeit zunimmt, ist der Druck höher. Dadurch passieren dann Fehler, die teils erst spät auffallen und dann umso kostspieliger sind.

      Nicht umsonst werden in Atomkraftwerken (und nicht nur dort) ständig Störfälle „geübt“, damit die Mitarbeiter sensibilisiert sind dafür, dass etwas schiefgehen *kann* (und wie dann zu handeln ist), obwohl meistens ja doch nichts passiert ist.

    • Foto: Theresa Ruwe

      Theresa Ruwe Beantwortet am 19 Jun 2023:


      Ja, ich denke, wenn wir unseren Umgang mit (Informationen der) KI nicht hinterfragen, könnte das gefährlich werden. Es ist also immer wichtig im Hinterkopf zu haben, wie die Informationen zustande gekommen sind und von wo sie kommen.

Kommentare