-
0
Frage: Kann man eine KI als Therapeut verwenden (persönliche Infos anvertrauen und gute Ratschläge erwarten)?
- Stichworte:
-
Stefan Edlich Beantwortet am 12 Jun 2023:
Das geht schon. Aber selbst die KI wie chatGPT verweisen darauf, das IMMER ein echter Arzt hinzugezogen werden sollte. Hier hat z.B. Dr. Hegedüs interessante Tests gemacht:
Aber auch ich mache das regelmäßig und bekommt fast immer gute und richtige Tipps. Z.B. ist meine Stimme gerade fast weg. Bei sowas nicht ganz so gefährlichem können die KI Tipps sehr gut sein.
-
Markus Gottschling Beantwortet am 12 Jun 2023:
Eher nein. Zwar mag ein Tool wie ChatGPT zum Teil „gute“ und passende Antworten auf therapeutische Fragen liefern. Eine wirkliche Therapie kann ein solches System aber nicht ersetzen. Das liegt daran, dass die KI nicht aus den persönlichen Symptomen schlussfolgert oder Probleme einschätzen kann (wie das ein:e Therapeut:in könnte), sondern aus Trainingsdaten Verbindungen zieht. Und die können auch total schief gehen und das System kann eine falsche oder sogar schädliche Antwort geben.
Für die Firmen, die KIs entwickeln, sind solche personalisierten Gesundheitstools aber ein lukrativer Markt, schließlich wäre es auf lange Sicht kostengünstiger, ein KI-System einzusetzen, als einen echten Mensch als Therapeut:in. Und wenn ihr heute eure Probleme in ChatGPT und Co. schreibt, werden diese Anfragen als Trainingsdaten genutzt, um solche medizinischen KI-Systeme zu entwickeln. Daher würde ich sagen: lieber nicht die KI fragen – oder zumindest wissen, dass es ein Problem mit den Antworten geben könnte.
-
Stefan Holtel Beantwortet am 12 Jun 2023:
Jein. Es gibt tatsächlich Hinweise darauf, dass der Dialog mit einer KI-Therapie Menschen nachweislich hilft, die sich gegenüber einem Therapeuten nicht anvertrauen würden. Andererseits ist es unmöglich für eine Maschine, zu erkennen, ob Ratschläge für eine Person gut oder schlecht sind. Wenn es also um ernsthafte gesundheitliche Themen geht, rate ich dazu, einen Therapeuten aufzusuchen.
-
Karsten Weber Beantwortet am 13 Jun 2023:
Historisch war das sogar eine der ersten Anwendungen von KI-Systemn. Das Programm Eliza wurde von Joseph Weizenbaum 1961 so programmiert, dass eine psychologische Gesprächsführung nach der Methode von Rogers simuliert. Ob das aber sinnvoll ist, steht auf einem anderen Blatt.
Verwandte Fragen
Woher nimmt AI all diese Informationen?
Wird AI eine Gefahr darstellen für unsere zukünftige Generation?
Wie kann AI so genau auf unsere Fragen antworten?
Kann KI sich selbst weiterentwickeln
Was hat eine KI gemacht was gruselig war? Oder hat eine KI schonmal Fragen beantworte, die er nicht wissen dürfte?
Kürzlich gestellte Fragen
-
Woher nimmt AI all diese Informationen?
-
Wird AI eine Gefahr darstellen für unsere zukünftige Generation?
-
Wie kann AI so genau auf unsere Fragen antworten?
-
Kann KI sich selbst weiterentwickeln
-
Was hat eine KI gemacht was gruselig war? Oder hat eine KI schonmal Fragen beantworte, die er nicht wissen dürfte?
Kommentare