• Frage: Kann die KI mit der DU arbeitest von Propaganda und unfairer Berichtsertattung beeinflusst werden?

    Frage gestellt von desk32dug an Tim am 26 Jun 2025.
    • Foto: Tim Menzner

      Tim Menzner Beantwortet am 26 Jun 2025:


      Das ist eine sehr gute Frage!

      Ganz ehrlich, ja. Die KI lernt ja von den Beispielen, mit denen man sie füttert.

      In der Regel läuft das so: Man sucht möglichst viele neutrale „Annotatoren“, erklärt ihnen die verschiedenen Typen von Propaganda und Bias, und zeigt ihnen dann sehr viele Sätze, die sie bestimmen sollen. Das Problem ist, Neutralität ist ein Mythos.

      Das liegt daran, dass wir Menschen im Grunde mit zwei Systemen denken. Ein schnelles, emotionales und unbewusstes, das meistens aktiv ist und den Großteil aller Eindrücke verarbeitet, und ein langsames, logisches, bewusstes, das unser Gehirn nicht so gerne anwirft, weil das doch anstrengend ist. Propaganda und allgemein ein voreingenommener Blick setzen bei dem ersten System an.

      Sie verlassen sich auf unsere Vorurteile und unsere Emotionen, die wir alle haben. Ich merke also selber, wie ich z. B. manchmal anfange, Dinge zu glauben, weil sie zu meinen Vorurteilen und Emotionen passen, und Dinge nicht zu glauben, weil sie im Widerspruch dazu stehen. Wenn das passiert und ich das merke, kann ich versuchen, kritisch zu reflektieren und System zwei anwerfen, aber es gibt keine Garantie, dass ich es immer bemerke und, noch viel wichtiger, dass ich durch Nachdenken nicht einfach versuche, eine logische Erklärung zu finden, wieso System eins doch recht hat. Selbst Daniel Kahneman, der „Erfinder“ der Theorie von den zwei Systemen, hat mal gesagt, dass, obwohl er sich sein ganzes Leben mit dem Thema beschäftigt hat, er immer noch nicht glaubt, wirklich gut gegen Vorurteile und Co. gewappnet zu sein.

      Deswegen finde ich es immer ein bisschen witzig, wenn z. B. manche Politikerinnen und Politiker (oder die, die sie wählen) meinen, sie hätten ja „gesunden Menschenverstand“, aber die andere Seite wären Ideologen oder Träumer. Niemand von uns hat einen komplett rationalen Blick auf die Welt, und die, die das glauben, wohl am allerwenigsten. Leider zeigen verschiedene Umfragen das Bild, dass die meisten Menschen zwar sagen, sie seien gegen Propaganda (wozu übrigens auch Werbung gehört – tatsächlich hieß eines der ersten wichtigen Bücher zum Thema „Public Relations“ von Edward Bernays auch einfach nur Propaganda) immun, aber gleichzeitig glauben, andere wären leicht zu manipulieren.

      Das bedeutet also, dass auch die Annotatoren, die die Beispiele für das Training der KI vorbereiten sollen, selbst ohne es zu wollen, ihre persönliche, von Propaganda und unfairer Berichterstattung beeinflusste Weltanschauung irgendwie miteinfließen lassen werden.

      Ich experimentiere auch damit, andere KI-Modelle einen Teil der Annotation übernehmen zu lassen, aber das ist leider ein Henne-Ei-Problem: Auch diese KIs wurden von Menschen mit einem Weltbild und mit Texten, die ein Weltbild zeigen, trainiert.

      Deswegen kann man durch eine möglichst breite Auswahl von Annotatoren (möglichst verschiedene Kulturen, Alter, Geschlechter, Erfahrungen, politische Ideen) und durch möglichst scharf ausgearbeitete Kriterien für die Markierung von Sätzen als Beispiele zwar versuchen, das abzuschwächen, letztendlich erhält man aber trotzdem eine KI, die immer zu einem gewissen Maße den „Bias“ derer, die an ihr gearbeitet haben, widerspiegelt.

Kommentare