• Frage: Würden sie Chatgpt für einen Aufsatz benutzen oder für Hausaufgaben?

    Frage gestellt case32ted am 16 Jun 2025.
    • Foto: Jens-Bastian Eppler

      Jens-Bastian Eppler Beantwortet am 16 Jun 2025:


      Ich denke, das kommt darauf an. Für mich hat diese Frage zwei Komponenten:
      – Kann ChatGPT die Aufgabe lösen? Wenn nein, macht es keinen Sinn. Und leider macht ChatGPT echt viele Fehler.
      – Was ist der Sinn der Aufgabe? Wenn es einfach nur darum geht schnell etwas zu erledigen, was keinen Spaß macht, ist ChatGPT durchaus sinnvoll. Wenn ihr dadurch aber nicht mehr lernt, wie man die Aufgabe löst, macht es ja keinen Sinn ChatGPT zu verwenden.
      Ich meine, man kann sich das Leben an der Schule auch einfach machen: Der Lehrer erstellt eine Aufgabe mit ChatGPT, die Schüler*innen lösen die Aufgabe mit ChatGPT. Und dann lässt der Lehrer die Aufgabe von ChatGPT korrigieren. Aber ist das wirklich der Sinn des Ganzen?

      Ich selbst verwende ChatGPT und Konsorten nicht, wenn mir die Aufgabe Spaß macht. Wenn es aber z.B. darum geht ein Formular auszufüllen oder eine Anfrage an ein Amt in einer anderen Sprache zu schreiben: Das können LLMs gut und dabei ind sie eine große Hilfe.

    • Foto: Kathrin Lutz

      Kathrin Lutz Beantwortet am 17 Jun 2025:


      Ich denke auch, das es drauf an kommt. Wichtig ist aber meiner Meinung nach, den Umgang in der Schule oder an Unis zu lernen, damit man eben den Unterschied versteht, wann die Verwendung hilft und wann nicht. Wenn es um Aufsätze geht, bleiben KIs oft sehr oberflächlich und schwammig, da muss man selbst zumindest nachhelfen und ergänzen. Daran wie der Output ergänzt und bearbeitet wurde, merkt man also auch mit KI schnell, ob jemand etwas grundlegend verstanden hat. Als Formulierungshilfe oder für einen ersten Vorschlag finde ich sie aber zB super.

    • Foto: Coşku Can Horuz

      Coşku Can Horuz Beantwortet am 17 Jun 2025:


      Super Frage! Ich wäre auch interessiert zu wissen, was eigentlich eure Schulleitung dazu sagt. 🙂

      Ich nutze die neuen Chatbots relativ viel. Besonders wenn ich eine Arbeit machen muss, die schon zigmal im Internet steht (z. B. Plots für die Ergebnisse erstellen, Einleitung für ein neues Paper etc.), sind sie sehr gut darin, mir persönliche Antworten zu geben. Ich finde, es ist eine neue Art, sich Wissen anzueignen, und wenn es hilft, sollten wir es auch nutzen dürfen.

      Man muss aber dabei beachten, dass diese KI-Modelle das sogenannte Halluzinationsproblem haben. Grob gesagt, sie funktionieren wie folgt:

      Prompt → gibt das wahrscheinlichste (am häufigsten vorkommende) Wort aus dem Internet anhand dieses Prompts (man nennt diese kleinen Wörter „Tokens“) → der gleiche Prozess, diesmal mit (Prompt + das neue Token) für das nächste Token → und so weiter.

      Sprich: ChatGPT gibt wieder, was im Internet steht, mit ein bisschen statistischem Rauschen. Wenn im Internet Quatsch steht, erzählt es auch Quatsch.

    • Foto: Kathrin Lammers

      Kathrin Lammers Beantwortet am 17 Jun 2025:


      In der Wissenschaft muss man tatsächlich auch als Erwachsener noch Aufsätze schreiben – und sehr viele von uns nutzen KI zumindest manchmal als Hilfsmittel. Etwa, weil man zwar alles inhaltliche aufgeschrieben hat, es aber noch nicht so schön klingt. Oder, weil manche Teile dieser Aufsätze ganz viel Routine sind – weil man zum dritten Mal die Grundbegriffe des eigenen Forschungsgebiets erklären muss. Dafür ist KI gut. Man sollte aber immer ganz genau nachlesen, was dir ein Chatbot als Antwort gibt – da können nämlich inhaltliche Fehler drin sein! Außerdem wird man selbst natürlich nicht besser im schreiben, wenn man immer nur die KI schreiben lässt. Es ist aber okay, die beste eigene Version nochmal überarbeiten zu lassen. Aus dem vergleich kann man dann ja auch lernen 🙂

      Übrigens: Anders als beim Abschreiben aus dem Internet kann niemand richtig beweisen, was von einem Mensch oder einer KI geschrieben wurde. Es ist aber wichtig, dass die KI keine Sprache verwendet oder Dinge erklärt, die du selbst nicht verstehst – sonst fragt die hinterher jemand ab, und du kannst es nicht erklären. Und das ist dann immer blöd. Du musst also den Aufsatz der KI immerhin 100% verstehen, bevor du irgendwas abgibst.

    • Foto: Reinhard Kahle

      Reinhard Kahle Beantwortet am 17 Jun 2025:


      Hausaufgaben sind dafür da, daß man als Schüler etwas lernt (der Lehrer weiß die Antwort schon vorher). ChatGPT hilft einem nicht, etwas zu lernen. Manchmal kann ChatGPT (genauso wie ein Schulbuch) einem an einer Stelle helfen, an der man selbst nicht weiterkommt. Aber das ist auch nur dann eine Hilfe, wenn man es selber nachvollziehen kann (und das nächste Mal alleine machen könnte). Zudem ist ChatGPT nicht verläßlich – man muß ohnehin in der Lage sein, jede „Antwort“ auch selbst noch überprüfen zu können. ChatGPT kann sicher einen Aufsatz schreiben, aber dann lernt man selber nicht, Aufsätze zu schreiben, und nur davon hat man selbst etwas.

    • Foto: Tim Menzner

      Tim Menzner Beantwortet am 18 Jun 2025: last edited 18 Jun 2025 1:01 pm


      Ich denke, es kommt vor allem auf die Art und Weise der Nutzung an:

      Lagere ich die Arbeit komplett aus, lerne nichts dabei, formuliere keinen einzigen Gedanken und kopiere die Ergebnisse einfach – eventuell, ohne sie sogar noch einmal zu überprüfen?

      Oder nutze ich ChatGPT und ähnliche Tools, um zu einem Thema zu recherchieren, mir Dinge, die mir noch unklar sind, noch einmal erklären zu lassen, erstmal ein paar Gedanken zu dem Thema zu ordnen und meinen eigenen Text am Ende auf Rechtschreib- und Grammatikfehler prüfen zu lassen – ohne dabei irgendetwas blind zu übernehmen?

      Das Erste ist in der Regel keine gute Idee, außer vielleicht bei wirklich ganz blöden, im Grunde bedeutungslosen Aufgaben (und selbst hier schadet es nicht, den Output zumindest noch mal zu kontrollieren). Sobald es aber darum geht, etwas zu lernen oder der Welt die eigenen Erkenntnisse oder Überlegungen mitzuteilen – also die Idee hinter Aufsätzen und Hausaufgaben – ergibt das wenig Sinn. Schließlich lernt man so weder etwas, noch sind es am Ende die eigenen Erkenntnisse und Überlegungen. In dem Fall kann man es auch gleich lassen. Wie Jens-Bastian es weiter oben in seiner Antwort schön beschreibt:
      „Der Lehrer erstellt eine Aufgabe mit ChatGPT, die Schüler*innen lösen die Aufgabe mit ChatGPT. Und dann lässt der Lehrer die Aufgabe von ChatGPT korrigieren. Aber ist das wirklich der Sinn des Ganzen?“

      Den zweiten Ansatz halte ich allerdings für sehr sinnvoll. ChatGPT soll nicht den Aufsatz für uns schreiben, sondern uns helfen, einen besseren Aufsatz zu schreiben.

      PS: Dieser Kommentar wurde auch noch einmal von einer KI auf Rechtschreibung geprüft. Wenn man hierfür ChatGPT und andere Chatbots nutzt, kann es hilfreich sein, das Modell explizit anzuweisen, wirklich nur die Rechtschreibung zu korrigieren, aber den Stil des Textes nicht anzufassen. Sonst kann es passieren, dass die KI anfängt, auch fehlerlose Wörter und Formulierungen auszutauschen, weil sie glaubt, eine bessere gefunden zu haben. Wenn nicht irgendwann alle Texte gleich klingen sollen, sollten wir das nach Möglichkeit vermeiden. 😉

Kommentare