• Frage: Wo sehen Sie Probleme der KI?

    Frage gestellt peak32tax am 24 Jun 2025. Diese Frage wurde auch von news32pea gestellt.
    • Foto: Jonas van Hagen

      Jonas van Hagen Beantwortet am 24 Jun 2025:


      Aktuell sehe ich zwei wesentliche Probleme mit künstlichen Intelligenzen:

      1) Viele Menschen hinterfragen die Informationen, die eine KI / ein LLM gibt nicht ausreichend genug und nehmen diese Informationen automatisch als „wahr“ an.

      2) Menschen fangen an einfache Denkprozesse an die KI auszulagern und bauen dadurch teilweise mental ab. Das „klassische“ Allgemeinwissen wird als überflüssig betrachtet, da ich ja jederzeit die KI fragen kann. Dies ist eine Entwicklung, die ich vor allem in jüngeren Generationen häufiger beobachte und welche in Zukunft definitiv im didaktischen Kontext weiter beachtet werden sollte.

    • Foto: Julia Poerting

      Julia Poerting Beantwortet am 24 Jun 2025:


      In meiner Forschung zeigt sich, dass die Nutzung von KI den Fokus verschiebt. Ich untersuche, wie KI hilft, Fotos aus Kamerafallen Naturschutzprojekten auszuwerten. Die Kamerafallen nehmen tausende Bilder pro Tag auf, sind günstig und können überall aufgestellt werden. Deswegen sind sie eine sehr beliebte Methode.
      Sie haben viele Vorteile, aber durch den Einsatz von KI und Kamerafallen entstehen auch neue blinde Flecken.
      Blinde Flecken sind zum Beispiel:
      – Bilder aus Kamerafallen sind gut zum Zählen von Tieren an bestimmten Orten, aber können nicht viel über Zusammenhänge aussagen
      – Kamerafallen lösen nur bei einer bestimmten Größe oder Körpertemperatur von Tieren aus, d.h., dass etwa kleinere Tiere seltener berücksichtigt werden
      – Der Einsatz von KI und Kamerafallen ist zwar verhältnismäßig günstig, setzt aber trotzdem finanzielle Ressourcen und eine gute IT-Infrastruktur voraus. Daher werden die Daten, die z.B. in der Serengeti in Tansania produziert werden, in den USA ausgewertet. Die Forscher*innen vor Ort in Tansania haben nur wenig davon
      – KI in der Ökologie kann also neues Wissen erzeugen, aber nur wenige entscheiden darüber, welche Fragen gestellt werden und wie die Ergebnisse genutzt werden

    • Foto: Eva-Maria Weiss

      Eva-Maria Weiss Beantwortet am 24 Jun 2025:


      Mit KI kann es durchaus Schwierigkeiten geben, zum Beispiel Fehler in der Funktionsweise, Sicherheitsprobleme – beispielsweise wenn Daten von dir abgefragt und gespeichert werden – oder ethische Bedenken – eine falsch trainierte KI, die helfen soll im Bewerbungsprozess KandidatInnen zu bewerten, könnte dann unfaire Entscheidungen treffen.

      Es gibt Werkzeuge, sogenannte Benchmarks (Vergleichsmaßstäbe), mit denen solche Probleme bewertet werden: HELM Safety, AIR-Bench und FACTS. Damit werden KI-Modelle getestet – und zwar auf ihre Faktenrichtigkeit und Sicherheit.

      Firmen stehen in der Kritik, trotzdem nicht genug zu unternehmen, um Risiken zu minimieren.

      An dieser Stelle erwähnt: Es gibt auch europäische Modelle, die eine Alternative zu den amerikanischen darstellen und strenger mit Themen wie Datenschutz umgehen. Ein Beispiel ist Mistral aus Frankreich, mit dem Chatbot Le Chat.

      Außerdem setzen auch Regierungen und Organisationen Maßnahmen um, um die Nutzung von KI zu regulieren. In Europa haben wir zum Beispiel den EU AI Act.

      Grundsätzlich bin ich total bei Jonas: Key bleibt: kritisches Denken, ein Verständnis über die grundlegenden Funktionsweisen von KI Modellen, Reflexionsvermögen, nich denkfaul werden 😉

    • Foto: Tala Rajabi

      Tala Rajabi Beantwortet am 25 Jun 2025:


      Ich lehre an der Hochschule und meine Studierenden (nicht alle) benutzen KI, um ihre Aufgaben zu lösen, kommen jedoch immer mit falschen Ergebnissen zur Vorlesung. Das ist aktuell mein Problem mit KI und den Studierenden.
      Ich sage die, nutzt KI, um etwas besser zu verstehen.

Kommentare