TRENDBLOG
Aufmacher Hausaufgaben mit KI

Aufmacher Hausaufgaben mit KI

KI für Hausaufgaben? So schneiden ChatGPT und Gemini ab!

Hausaufgaben abkürzen mit KI? Eine gute Idee, leider sind die smarten Helfer nicht für jedes Fach zu gebrauchen.

Seit gut zwei Jahren bin ich Lehrer an weiterführenden Schulen. In der Oberstufe, so wurde mit bald klar, galt (und gilt) KI vielen Schülerinnen und Schülern als Allheilmittel für die lernintensiven „Nöte“ im Schulalltag. Aber was können sie wirklich leisten? Das wollen wir uns hier anschauen.

Inhalt:

Die Künstlichen Intelligenzen von ChatGPT einschließlich Copilot, Google Gemini oder Grok gelten innerhalb der Schulklassen als attraktive Abkürzungen, um sich nicht mit Hausaufgaben, Referaten oder Rechercheaufgaben plagen zu müssen.

Ein flotter Prompt, eine überzeugende Antwort – und schon sind die Schulaufgaben erledigt.

So die Vorstellung der Schülerinnen und Schüler.

Als ich aber neulich im Deutschunterricht eine „selbst erdachte“ Geschichte als KI-Text entlarvte und auch ein Referat als KI-generiert entzauberte, fuhr es einigen wie ein Schreck durch die Knochen: Ist KI vielleicht doch nicht das Allheilmittel?

KI ersetzt nicht die in der Schule erworbenen Skills

Natürlich lässt sich KI nicht wegdiskutieren. Die Technologie ist kinderleicht zu bedienen, kostenfrei verfügbar und liefert zumindest auf den ersten Blick überzeugende Antworten auf fast jede Anfrage.

Auch wenn der KI-Einsatz im Unterricht meiner Einschätzung sinnvoll sein kann, sehe ich das für Hausaufgaben und verschiedenste Rechercheaufgaben deutlich kritischer.

Während im Unterricht die Lehrkraft mit ihrem Fachwissen die fachspezifischen inhaltlichen Unschärfen von Künstlichen Intelligenzen sofort entlarven kann, ist das für Schülerinnen und Schüler deutlich schwieriger.

Schließlich drücken sie die Schulbank noch, um das Wesentliche zu lernen und die eigenen Fähigkeiten zu entdecken und anzuwenden. Was man in der Gegenwart nicht an Skills für einfache Aufgaben erwirbt, fehlt in der späteren Schullaufbahn, um komplexe Aufgabenstellungen bearbeiten zu können.

Welche Hausaufgaben KI meistert – und bei welchen sie versagt

Kommen wir nun endlich zur Frage, ob KI für Hausaufgaben, Referate und ähnliches brauchbar ist. Die Antwort: ja – aber mit Einschränkungen. Für den Praxistest habe ich Gemini und ChatGPT/ Copilot einige Monate immer mal wieder für Hausaufgaben meiner Kollegen herangezogen. Hier die Ergebnisse.

Mathe und Physik: richtig gute Ergebnisse

Insbesondere in mathematischen Fächern zeigen die KI-Modelle ihre Stärken. Gleichungen umstellen lassen, komplexe Aufgaben aus dem Mathe-Unterricht lösen – das funktioniert ohne Probleme. Selbiges gilt für die allermeisten Physikaufgaben aus dem Unterricht, wobei es keinen Unterschied macht, ob die Aufgabe für die fünfte Klasse oder den Abi-Abschlussjahrgang geschrieben ist.

Auch kleineren Mathe-Quatsch wie bestimmte Primzahlen spucken die KIs zuverlässig aus. (Eigener Screenshot)

Wichtig ist, dass die Formeln korrekt eingegeben sind – ansonsten kommt nur Mumpitz raus.

Informatik: gut, mit Abstrichen

Ebenfalls gut schneiden die KIs bei Programmieraufgaben für die Schule ab. Beispiel: ein einfaches Tetris-Spiel, das ChatGPT in Python schreibt.

Der Python-Code zu einem Tetris-Spiel funktioniert! (Eigener Screenshot)

Für unsere Testaufgaben sollten die KIs kleinere Projekte coden. Etwa ein Tetris-Spiel. Das war vor einem Jahr in ChatGPT noch ein Text-Adventure, (!) nunmehr aber ein echtes Spiel mit Blöcken und Gitter in grafischer Darstellung. Und ja, der Code ist lauffähig.

So sieht das fertige Spiel aus – klar, grafisch kein Leckerbissen, aber als Fundament durchaus brauchbar! (Eigener Screenshot)

Kompliziert wird es, wenn die Projekte umfangreicher sind und diverse Module miteinander zu verzahnen sind. Hier hilft KI vielleicht noch dabei, Code zu kürzen – einen echten Überblick über das Gesamtwerk hat der KI-Budenzauber aber nicht. Daher nur ein „gut“.

Chemie und Biologie: okay, aber nicht herausragend

Nicht mehr ganz so sattelfest ist die KI, wenn es um andere naturwissenschaftliche Fächer geht. Neben handfesten Infos fantasiert die Google-KI Gemini zum Biologie-Thema Capybaras zunächst unzählige Absätze, um dann mit einem kurzen Hinweis abzubrechen, dass sie als textbasierte KI leider keine weiteren Infos geben könne. Ähnlich passierte auch mit anderen KI-Modellen.

Die KI bricht auch gerne mal Konversationen ab. Nicht gut, um weitere Infos zu einem Thema zu bekommen. (Eigener Screenshot)

In Chemie fielen die KI-Modelle schon durch die Anfrage nach einer Strukturformel für Kochsalz auseinander. Die anderen Infos zu Natriumchlorid waren nicht falsch, das Erzählte würde aber so kaum zur 5 reichen.

Strukturformeln erstellen? Da weigert sich die KI. (Eigener Screenshot)

Geografie: ganz gute Ergebnisse

Erdkunde gehört zu den Do-or-Die-Fächern in der Schule. Entweder man hasst es oder man liebt es. Dazwischen gibt es scheinbar nix. Künstlichen Intelligenzen sind solche Neigungen natürlich fremd – aber so richtig Bock auf Erdkunde scheinen sie nicht zu haben.

Fakten geben sie in den allermeisten Fällen korrekt wieder und kann auch spannende Vergleiche liefern. Überprüfen ist dennoch wichtig, da teils veraltetes Datenmaterial als Grundlage dient. Ganz kritisch wird es jedoch, wenn die KI Kartenmaterial anfertigen soll – was aktuell unter ChatGPT funktioniert, mit Google Gemini aber nicht.

ChatGPT fantasiert übrigens, dass Europa um 1815 so ausgesehen habe:

Ja, das sind die Umrisse Europas – mit Bezeichnungen und Ländergrenzen, die es so nie gab. (Erstellt mit ChatGPT)

Das ist natürlich alles andere als korrekt und zerfällt regelrecht, wenn man das Fantasiewerk mit historischen Karten vergleicht. Daher ist KI für Erdkunde nur bedingt brauchbar.

Gemini kann keine Karten erstellen. (Eigener Screenshot)

Deutsch: passabel, mehr nicht

Eigentlich ein kleines Wunder – denn die KI-Modelle formulieren meistens korrekte Sätze. Jedoch sind sie weder für Korrekturen bestehender Texte noch für die Interpretation oder Analyse von Gedichten und ähnlichem in Deutsch geeignet.

In puncto Gedichtinterpretation für Deutsch sind KIs ein wenig Hit or Miss – entweder, die Analyse ist richtig gut oder totaler Mist. (Eigener Screenshot)

Als ich vor einem Jahr Alfred Wolfensteins „Großstädter“ durch ChatGPT jagte, fantasierte es eine komplett andere Zeilenanzahl herbei. Nunmehr können die KIs zumindest zählen, die inhaltliche Analyse fasert aber wie viele andere längere Texte komplett aus. So erwähnt Gemini als Zitate „graue Wände“ oder „tausend Fenster“, die im Gedicht aber gar nicht erwähnt sind. Im Unterricht wäre das der K.O.

Kreativaufgaben löst die KI ebenso unzuverlässig. Wer darauf hofft, ChatGPT und CO. könnten bestsellerreife Storys schreiben, irrt. Die Texte beginnen gut, fallen aber schnell ins Belanglose ab und kämpfen mit floskelhaften Formulierungen. KI ersetzt eben keine eigenen Ideen, die man sich erarbeitet.

Fremdsprachen: Google Translate ebenbürtig

Google Translate und Co. sind seit etlichen Jahren feste Werkzeuge im digitalen Alltag. Mal flugs etwas zu übersetzen – klappt schon. Wenn jedoch die schulischen Anforderungen dazukommen, sind KIs und andere Algorithmen nahezu machtlos. Etwas von einer Sprache in eine andere zu übersetzen, das geht schon irgendwie.

Hättest du es erkannt? Das hier ist ChatGPTs Angebot einer Englisch-Deutsch-Übersetzung von „In the End“ von Linkin Park. Etwas holprig. (Eigener Screenshot)

Einen eigenen Sound, die jeweils intendierte Wortbedeutung und dergleichen beherrschen die KIs nicht. Du musst dich also zwangsläufig mit den Original-Inhalten auseinandersetzen.

Gemeinschaftskunde und Geschichte: Totalausfall!

Vielleicht etwas unfair, da ich ein geisteswissenschaftliches Studium hinter mich brachte. Als Lehrkraft für Geschichte und Gemeinschaftskunde kenne ich die zu behandelnden Themen wie meine Westentasche. In beiden beiden Fächern kommt es nicht aufs Auswendiglernen an.

Gemeinschaftskunde setzt voraus, ein umfangreiches Fachvokabular zu erwerben und politische Prozesse verstehen. Geschichte wiederum ist keine Ansammlung von Jahreszahlen, sondern die Verstrickung vieler ineinander greifender Ereignisse unter Berücksichtigung der individuellen Biografien.

Nein, die Weiße Rose hat nichts über den Holocaust geschrieben. (Eigener Screenshot)

Und das kann KI noch gar nicht leisten. Hier und da sind sie brauchbar, um sich einen groben Überblick zu verschaffen. Analysen fallen jedoch entweder mager oder historisch komplett falsch aus. Hier ist KI also nur sinnvoll, um sich erste Impulse zu holen.

Für Gemeinschaftskunde gilt das übrigens auch, weil die KIs nicht mit tagesaktuellen Nachrichten trainierbar sind. Was in der Zeitung steht und demnach im Unterricht behandelt ist, kennt die KI in der Regel noch nicht.

Tipps und Tricks für Hausaufgabenhilfe durch die KI

Wie du siehst, liefern die KIs Stand September 2024 qualitativ extrem unterschiedliche Ergebnisse – in den MINT-Fächern ist der KI-Einsatz ein Zugewinn, in den Sprachen und vor allem geisteswissenschaftlichen Fächern fällt die KI auseinander. Die Faustregel: Je höher der kreative Eigenanteil ist, desto mehr kommt die KI ins Schlingern.

Aber es gibt einiges, was du tun kannst. Da wären zum einen die fünf Tipps für bessere KI-Ergebnisse – ein mächtiges Werkzeugset, um die KI auf das einzunorden, was du von ihr verlangst.

Und dann eine gesunde Portion Skepsis: Ja, die KIs liefern auf den ersten Blick nachvollziehbare Ergebnisse. Und klar, vielfach denkt man dann, es könne genügen. Aber ein weiterer Blick ins Lehrbuch oder den Hefter, vielleicht angereichert über eine weitere Quelle, bietet dann die Sicherheit, dass das von der KI zusammengetragene Material brauchbar ist oder nicht.

Insofern: Nicht nur blind auf die künstlichen Intelligenzen verlassen, sondern auch diese immer und immer hinterfragen!

Die mobile Version verlassen