-
0
Frage: Hat KI ein Limit, das nicht von der Programmierfähigkeit des Menschen bestimmt wird, also hat KI eine grundsätzliche Grenze die sie nicht überschreiten kann, egal wie gut der Mensch im erstellen von KI wird?
- Stichworte:
-
Timo Baumann Beantwortet am 16 Jun 2023:
Ein direkte Antwort auf die Frage habe ich nicht. Es gibt aber ein paar Sachen, die vielleicht zum Weiterdenken (oder recherchieren) anregen:
* es gibt in der Theoretischen Informatik den Bereich, der sich mit der Berechenbarkeit von Ergebnissen beschäftigt. Kurz gesagt: es gibt Probleme, für die bewiesen ist, dass man die Lösung nicht ausrechnen kann. Das setzt dann natürlich auch der KI gewisse Grenzen. (Wobei ich nicht glaube, dass diese besonders gravierend sind; man kann schon sehr viel berechnen.) Neben der Frage *ob* etwas berechenbar ist, gibt es auch noch die Frage, wie aufwändig die Berechnung ist. Da gibt es Problemklassen, die sehr schnell sehr aufwändig werden (mit exponentiellem Wachstum des Aufwands mit der Problemgröße). Für diese Frage ist aber nicht bewiesen, ob die nicht eigentlich dasselbe sind wie eine Problemklasse, die zumindest theoretisch einfacher zu berechnen sind. Das ist die Frage ob P ≟ NP ist. Wenn Du da die Antwort findest, dann bekommst Du mit Sicherheit Turing-Award (das ist der Nobel-Preis der Informatik).
* alle aktuell genutzten Verfahren „lernen“ aus Daten. ChatGPT zum Beispiel aus sehr vielen Texten. ChatGPT hat dabei mehr Texte „gelesen“ und daraus gelernt, als ein Mensch der 24h am Tag lesen würde im ganzen Leben lesen könnte. Genauso sind Spracherkennungssysteme auf mehr Sprachdaten trainiert als Du in deinem ganzen Leben hören könntest. Natürlich verbessern wir auch noch die KI-Verfahren, aber die größten Fortschritte liegen aktuell in der Nutzung von mehr Trainingsdaten. Und in nicht allzu ferner Zukunft können wir nicht noch mehr Trainingsdaten benutzen, weil wir schon *alle* Texte benutzen, die jemals von Menschen geschrieben worden und die online verfügbar sind. Ab da wird es interessant, denn dann können die einzigen Verbesserungen daher kommen, dass wir die Verfahren verbessern, nicht aber die Trainingsmengen.
-
Karsten Weber Beantwortet am 16 Jun 2023:
Gute Frage; ich bezweifle, dass es darauf schon eine endgültige Antwort gibt. Als gute Kandidaten für grundsätzliche Grenzen könnten Naturgesetze genannt werden, die bspw. Limitierungen in Hinsicht auf Rechengeschwindigkeiten o.Ä. implizieren.
Dann sind manche Fragestellungen (bspw. so etwas wie das Travelling-Salesman-Problem und Ähnliches) ab einer bestimmten Komplexität weder mit KI noch normalen Computern in vernünftiger Zeit exakt zu lösen — hier nutzt man dann Heuristiken, die aber nicht unbedingt die richtige Lösung, sondern nur eine Näherungslösung ausspucken (ob Quantencomputer hieran wirklich etwas ändern werden, ist umstritten). Außerdem, aber das ist jetzt pure Spekulation, könnte man sich vorstellen, dass es eine maximale Größe für neuronale Netze gibt, jenseits derer keine Performanzgewinne mehr erreicht werden können.
Schließlich, aber das ist eher eine relative Grenze, sind KI-Systeme teuer (sowohl in Hinsicht auf Geld als auch bzgl. anderer Ressourcen, bspw. Energie) — man muss sich also überlegen, ob man diese Kosten für einen Leistungsgewinn tragen möchte.
Verwandte Fragen
Woher nimmt AI all diese Informationen?
Wird AI eine Gefahr darstellen für unsere zukünftige Generation?
Wie kann AI so genau auf unsere Fragen antworten?
Kann KI sich selbst weiterentwickeln
Was hat eine KI gemacht was gruselig war? Oder hat eine KI schonmal Fragen beantworte, die er nicht wissen dürfte?
Kürzlich gestellte Fragen
-
Woher nimmt AI all diese Informationen?
-
Wird AI eine Gefahr darstellen für unsere zukünftige Generation?
-
Wie kann AI so genau auf unsere Fragen antworten?
-
Kann KI sich selbst weiterentwickeln
-
Was hat eine KI gemacht was gruselig war? Oder hat eine KI schonmal Fragen beantworte, die er nicht wissen dürfte?
Kommentare