• Frage: Wie weit sind sie in dem Verfahren zum komplizierten Verhalten von neuronalen Netzwerken?

    Frage gestellt ands32dug am 26 Jun 2025.
    • Foto: Eva-Maria Weiss

      Eva-Maria Weiss Beantwortet am 26 Jun 2025:


      Sehr guter Punkt. Das Verhalten von tiefen neuronalen Netzwerken ist oft eine Blackbox. Das heißt wir verstehen nicht, was genau da vor sich geht. Das kann problematisch werden: Es gibt ein klassisches Beispiel bei der Hautkrebserkennung. Die Bilderkennungssoftware hat, statt wirklich die Läsion zu erkennen, ein Markierung (ein Lineal oä, durch de n Arzt wenn ich mich recht erinnere) auf dem Bild erkannt: die KI lernte, dass nur Bilder mit Lineal – fast immer also positive Hautkrebsbefunde – als solche geflaggt werden. Also keine zuverlässige Klassifikation – denn das System erkennt das Lineal, nicht die Krankheit .

      Es gibt einen ganzen Forschungszweig, der sich damit befasst Licht ins Dunkel zu bringen: Erklärbare KI – dieser hat gerade in en letzten Jahren Fahrt aufgenommen.

    • Foto: Tim Menzner

      Tim Menzner Beantwortet am 26 Jun 2025:


      Ein kleines Beispiel aus meiner Forschung: Ich habe ja ein KI-Modell trainiert, das Propaganda und Techniken der unfairen Berichterstattung in Nachrichtenartikeln erkennen und erklären soll, und wir wollen herausfinden, worauf genau das Modell achtet, also welche Wörter besonders ausschlaggebend sind, wenn es einen Satz als Propaganda einstuft.

      Diese KI-Modelle sind heutzutage eigentlich alle sogenannte große Sprachmodelle, die auf dem sogenannten „Attention“ (zu Deutsch Aufmerksamkeit) Mechanismus basieren. Dieser Mechanismus war gewissermaßen der Durchbruch, der die aktuelle KI-Welle überhaupt erst ermöglicht hat. Vereinfacht gesagt beschreibt er einfach verschiedene mathematische Tricks, wie ein Modell ermitteln kann, welche Bedeutung ein Wort für andere Wörter in einem Text hat.

      Wir versuchen jetzt, wenn wir einen Satz, der ein Beispiel für Propaganda ist, durch das Modell durchschicken, uns anzuschauen, welche Wörter besonders für alle anderen Wörter in diesem Attention-Mechanismus wichtig sind. Das ist in der Praxis ein bisschen komplizierter, als es zunächst klingt, da wirklich Muster zu erkennen, kann echt knifflig sein, aber das ist zumindest eine Möglichkeit.

    • Foto: Jens-Bastian Eppler

      Jens-Bastian Eppler Beantwortet am 27 Jun 2025:


      Wir sind noch sehr am Anfang. Selbst wenn man Netze aus nur zwei Neuronen hat (die können KI-mäßig gar nichts), finden wir immer noch erstaunliche Verhaltensweisen. Da können wir noch viel lernen. 😀

Kommentare