-
0
Frage: Inwieweit sollte man der KI vertrauen?
- Stichworte:
-
Eva-Maria Weiss Beantwortet am 17 Jun 2025:
Das ist einer der wichtigsten Punkt beim Thema KI! Gerade ChatBots wie ChatGPT und Co haben es drauf uns sehr elegante und überzeugende Antworten zu geben. Und so überzeugend sie sind, sie sind nicht immer richtig. Es ist daher immer wichtig Antworten kritisch zu prüfen. Also mein Tipp, so mache ich das aktuell: meistens nutze ich die Bots um mir einen Text umformulieren zu lassen, ich gebe also die Infos selbst in das System. Wenn ich Informationen suche, nutze ich die „Internet“ Funktion in den Tools und lasse mir die Quellen anzeigen – die müssen geprüft werden.
-
Reinhard Kahle Beantwortet am 17 Jun 2025:
Gar nicht. Das liegt an mindestens zwei Dingen. Einmal arbeitet KI mit Statistik arbeiten. Das heißt, sie „würfelt“ an verschiedenen Stellen. Dadurch gibt es eine gewisse Flexibilität bei den Antworten (ChatGPT antwortet auf dieselbe Frage nicht immer dasselbe). Es gibt Berechnungen, daß 20% der Antworten im Durchschnitt Fehler enthalten (man muß vorsichtig mit solchen Zahlen sein, aber ganz sicher gibt es keine 100%ige Sicherheit) – das entspricht jeder fünften Antwort. (Es ist für die Arbeitsweise der KI wichtig, sich Fehler erlauben zu dürfen, sonst wäre sie viel zu langsam.) Also darf man der KI nicht vertrauen und muß die Antworten immer noch überprüfen (außer man weiß, daß ein Fehler keine besonderen Konsequenzen haben kann). Ein zweites Problem ist, daß uns die KI-Firmen nicht sagen, wie sie unter Umständen Ergebnisse noch „von Hand“ abändern, z.B. um – positive – Schimpfwörter herauszufiltern oder – negative – den Benutzer politisch zu beeinflussen. Also immer aufpassen und der KI kein naives Vertrauen schenken.
-
Tim Menzner Beantwortet am 18 Jun 2025:
Ein wichtiger Punkt bei modernen Sprachmodellen, also ChatGPT und Co., sind die sogenannten „Halluzinationen“. Bei Menschen bedeutet eine Halluzination, dass man sich Dinge einbildet und Sachen sieht, die gar nicht wirklich da sind. Bei diesen KIs kann etwas Ähnliches passieren, und sie können sich in Antworten Fakten ausdenken, die gar nicht wirklich existieren. Das liegt an der Art und Weise, wie diese KIs trainiert worden sind, nämlich eigentlich, um immer das nächstwahrscheinlichste Wort nach einer Reihe von anderen Wörtern auszugeben.
„Wissen“ im Sinne von, dass die KI weiß, was sie nicht weiß, haben sie gar nicht. Wenn eine KI etwas „weiß“, dann weil sie in ihren Daten eine Frage so oft gesehen hat, dass sie die wahrscheinliche Antwort darauf kennt.
Und wenn man der KI jetzt eine Frage stellt, bei der sie die Antwort noch nicht gesehen hat, aber so eine ähnliche Frage mit einer ähnlichen Antwort, dann wird sie einfach mit dem antworten, was sie für die wahrscheinlichste Antwort hält.Wenn ich zum Beispiel ChatGPT frage (und ihm dabei verbiete, das Internet zur Suche zu nutzen), wann das Pinguin-Gehege im Coburger Zoo eröffnet wurde, dann antwortet er folgendermaßen:
„Das Pinguin-Gehege im Tierpark Coburg wurde im Mai 2012 eröffnet. Es beherbergt Humboldt-Pinguine und wurde als Teil der Modernisierung des Zoos angelegt, um den Tieren artgerechtere Bedingungen zu bieten und gleichzeitig die Besucher besser an das Geschehen heranzuführen.
Wenn du mehr über die Gestaltung oder die Tierart wissen möchtest, sag einfach Bescheid!“Die Antwort klingt erst einmal vernünftig, es gibt nur einen Haken: Coburg hat gar keinen Tierpark. Aber die KI hat in ihren Trainingsdaten so viele Beispiele, wo über die Modernisierung von Pinguin-Gehegen in Zoos berichtet wurde, dass sie das für die wahrscheinlichste Antwort auf die Frage hielt.
Deswegen sollten wir keiner KI blind vertrauen (wie übrigens auch Menschen nicht) und immer kritisch mitdenken.
-
Jens-Bastian Eppler Beantwortet am 18 Jun 2025:
Im Prinzip bin ich bei Reinhard. Gar nicht.
Allerdings gibt es schon ein paar Dinge, für die es möglich ist. Man kann z.B. Emails o.ä. schreiben lassen. Da kann man danach schauen, ob alles passt und sie auch noch anpassen, kann aber eine Menge an Zeit sparen. Was auch sehr gut funktioniert sind Texte, die sehr „Standard“ sind, z.B. Formulare oder ähnliches. Diese haben LLMs typischerweise schon tausende Male gesehen. Und deswegen funktioniert das recht gut. Aber auch hier sollte man nochmal checken, ob alles passt, also für dich sinnvoll und richtig ist. -
Nils Köbis Beantwortet am 20 Jun 2025:
Das hängt von der KI und davon ab was du von ihr willst.
Es gibt Situationen, in denen man sich nicht auf KI verlassen sollte. Zum Beispiel spuckt ChatGPT manchmal Unwahrheiten aus und klingt dabei aber noch sehr selbstbewusst.
In anderen Situationen trifft KI schon jetzt bessere Entscheidungen, als Menschen. Zum Beispiel, wenn es darum geht eine Person auf einem Foto zu erkennen.Das Ziel unserer Forschung ist es, dass Menschen, das richtige Maß an Vertrauen gg. KI haben. Weder zu viel noch zu wenig.
Kommentare