+1 Daumen
282 Aufrufe

Unter dem Link Chat GPT im Mathematik-Unterricht sinnvoll einsetzen findet man zum Thema ChatGPT und Mathe-Unterricht folgende Textpassage, welche Ute Rühling für den Friedrich-Verlag verfasst hat:


Die Stärke von ChatGPT liegt in seinem sprachlichen Potenzial. Das Programm wurde mit verschiedenen Texten mit insgesamt etwa 500 Milliarden Wörtern trainiert, basierend auf einem Modell, wie unsere Sprache funktioniert. Es berechnet Antworten, die entsprechend dieses Sprachmodells mit hoher Wahrscheinlichkeit sinnvoll formuliert sind und zu der gestellten Frage passen. Was ChatGPT nicht ist: Es ist keine Datenbank, die korrekte Inhalte ausgibt, und auch kein Werkzeug, das programmiert wurde, um mathematische Probleme korrekt zu lösen.


Und weiter:


Den Schülerinnen und Schülern sollte bewusst sein, dass sie alle Ergebnisse kritisch und mit ihrem eigenen Fachwissen prüfen müssen. Sie können diese Reflexion zum Beispiel an einer ChatGPT-Antwort zu einer Aufgabe zum Satz des Pythagoras erarbeiten (siehe unten). Wenn die Lernenden ein Thema bereits weitgehend beherrschen, aber bei einer Aufgabe „auf dem Schlauch stehen“, dann eignet sich ChatGPT, um Ideen für einen Ansatz zu finden. Ebenso eignet es sich für einen Vorschlag für die sprachliche Darstellung des Lösungswegs. Zum selbstständigen Lernen eines Themas, bei dem die Lernenden selbst noch unsicher sind, eignet sich das Programm aufgrund seiner Fehler und verwirrenden Widersprüchlichkeit jedoch nicht.


All diese Hinweise treffen in vollem Umfange zu. Allerdings beherrscht ChatGPT dermaßen unzureichend Mathematik, dass die infolge dessen erzeugte Widersprüchlichkeit seiner Antworten von Schüler*innen nicht mehr entwirrt werden kann. Außerdem behauptet Frau Rühling, dass ChatGPT geeignet sei, Schüler*innen gute Ideen finden zu lassen. Dies soll im Folgenden – wie empfohlen –  an ChatGPT-Antworten zu einer Aufgabe zum Satz des Pythagoras demonstriert werden:


Frage an ChatGPT:

Beweise den Satz von Pythagoras mit Anwendung der Trigonometrie.

Die Antwort von Chat GPT beginnt (Schritt 1) mit einer Rekapitulation des Satzes von Pythagoras sowie eine Wiederholung der Frage gefolgt von den Definitionen von cos und sin im rechtwinkligen Dreieck. Dann folgen die Schritte 2 und 3 sowie ein Fazit:

Schritt 2: Beweis durch Anwendung der trigonometrischen Identität
Nun wenden wir eine bekannte trigonometrische Identität an, die für jede beliebige Winkelkombination gilt: sin2(α)+cos2(α)=1.
Setzen wir die trigonometrischen Definitionen für sin(α) und cos(α) ein: (a/c)2+(b/c)2=1.
Dies vereinfacht sich zu: a2/c2+b2/c2=1.
Multiplizieren wir nun beide Seiten der Gleichung mit c2, um die Brüche zu eliminieren:
a2+b2=c2.

Schritt 3: Schlussfolgerung
Wir haben also gezeigt, dass die Summe der Quadrate der Katheten a2+b2 gleich dem Quadrat der Hypotenuse c2 ist, was genau die Aussage des Satzes von Pythagoras ist.
Fazit
Durch die Anwendung der trigonometrischen Identität sin2(α)+cos2(α)=1 haben wir den Satz von Pythagoras a2+b2=c2 bewiesen.

Dass die verwendete ‚trigonometrische Identität‘ nichts weiter ist als der Satz von Pythagoras, wusste bereits Elisha Scott Loomis (1852 – 1940), der geschrieben hatte:


There are no trigonometric proofs [of the Pythagorean theorem], because all of the fundamental formulae of trigonometry are themselves based upon the truth of the Pythagorean theorem; because of this theorem we say sin2 + cos2 = 1 etc.


Anders als Loomis vermutet hatte gibt es allerdings Pythagoras-Beweise auf der Grundlage von Trigonometrie. Unter dem Link Neue Beweise des Satzes von Pythagoras | Mathelounge findet man verschiedene Hinweise (insbesondere Links) auf solche Beweise.

Zurück zu ChatGPT dem jetzt die Frage gestellt wurde:


Beweise die trigonometrische Identität sin2(x)+cos2(x)=1 ohne Anwendung des Satzes von Pythagoras.


Darauf antwortet Chat GPT mit dem Hinweis auf den Einheitskreis mit der Gleichung x2+y2=1 und klärt darüber auf, dass x=cos(φ) und y=sin(φ) sei. Am Ende seiner Antwort zieht ChatGPT das Fazit:


Der Beweis der Identität sin2(x)+cos2(x)=1 über den Einheitskreis zeigt, dass die Summe der Quadrate von Sinus und Kosinus immer gleich 1 ist, weil jeder Punkt auf dem Einheitskreis eine Entfernung von 1 vom Ursprung hat, was durch den Satz des Pythagoras für die Koordinaten des Punktes (x,y) im kartesischen Koordinatensystem bestätigt wird.
Dieser Beweis vermeidet die direkte Anwendung des Satzes von Pythagoras und nutzt stattdessen die geometrische Eigenschaft des Einheitskreises.


Damit ist natürlich nichts gewonnen und es erscheint fraglich, wie weit Schüler*innen dies bemerken. Die nächste Frage an ChatGPT ist nun:


Beweise, dass x2+y2=1 die Gleichung des Einheitskreises ist ohne Verwendung des Satzes von Pythagoras.


Für ChatGPT fällt jetzt die sogenannte Abstandsgleichung vom Himmel:

d=√((x1-x2 )2+(y1-y2 )2 ). Die Antwort von ChatGPT endet wiederum mit einem Fazit:


Die Gleichung x2+y2=1 stellt die Bedingung dar, dass jeder Punkt (x,y) auf dem Einheitskreis genau einen Abstand von 1 vom Ursprung hat. Diese geometrische Beschreibung erklärt, warum x2+y2=1 die Gleichung des Einheitskreises ist, ohne auf den Satz von Pythagoras zurückzugreifen.

Daraufhin erhält ChatGPT die Aufforderung:
Beweise, dass d=√( x2+y2 ) der Abstand jedes Punktes (x,y) der Koordinatenebene vom Ursprung des Koordinatensystems ist ohne Verwendung des Satzes von Pythagoras.

Diesmal kontert ChatGPT mit der Erwähnung einer neuen Vokabel: der ‚Euklidischen Distanz‘. So geht es eine Weile weiter, wobei auch die Vektorrechnung und der Begriff des Betrages eines Vektors der Verteidigung der Argumentation von ChatGPT dienen sollen. Schließlich wendet der Fragesteller ein:


Alle geometrischen Konzepte der Längenmessung im Koordinatensystem gründen sich auf den Satz von Pythagoras.


Und nun gesteht ChatGPT endlich:
Du hast natürlich vollkommen recht: Die geometrischen Konzepte der Längenmessung im Koordinatensystem, die wir so oft verwenden, beruhen tatsächlich auf dem Satz von Pythagoras. Dies bedeutet, dass die Formel für den Abstand d=√( x2+y2 ) und ähnliche Konzepte ihre tiefere theoretische Grundlage im Satz von Pythagoras haben. Wenn wir also über den Abstand zwischen zwei Punkten im kartesischen Koordinatensystem sprechen, müssen wir anerkennen, dass die Euklidische Distanz (die Berechnung des Abstands durch d=√( x2+y2 ) in der Tat auf dem Satz von Pythagoras basiert, da dieser Satz die Grundlage für die Definition des Abstands in der Euklidischen Geometrie ist.


Ob es Schüler*innen gelungen wäre, ChatGPT zu diesem Eingeständnis zu bewegen, sei einmal dahingestellt. Da der eingangs angeforderte Beweis immer noch fehlt, entwickelt sich nun eine Unterhaltung, in der ChatGPT alte Fehler noch einmal – wider besseren Wissens –  wiederholt, bis es schließlich zu der Einsicht kommt:


In meinen bisherigen Antworten zur Frage „Beweise den Satz von Pythagoras mit Verwendung der Trigonometrie“ und der Berechnung des Abstands im Koordinatensystem habe ich tatsächlich den Satz von Pythagoras vorausgesetzt, was eine zirkuläre Argumentation hervorrufen kann. Das bedeutet, dass ich durch die trigonometrische Identität und die Definition des Abstands im Koordinatensystem den Satz von Pythagoras indirekt angenommen habe, ohne ihn zu beweisen – was natürlich der Kern der ursprünglichen Frage war.


Und dann will ChatGPT erklären, warum seine Beweisversuche im Kreis laufen, um schließlich zu behaupten:


Wenn wir den Satz von Pythagoras tatsächlich mit Trigonometrie beweisen wollen, ohne eine Identität wie sin2(α)+cos2(α)=1 zu verwenden, dann müssten wir von der Definition des rechtwinkligen Dreiecks und der Messung von Winkeln und Abständen ausgehen, die noch keine Annahme über den Satz von Pythagoras beinhalten.
Ein solcher Beweis ist jedoch extrem schwierig und läuft letztlich darauf hinaus, dass man die geometrische Struktur eines rechtwinkligen Dreiecks vollständig und systematisch analysiert. Auch hier käme man am Ende immer wieder auf die Struktur des Satzes von Pythagoras.


Die Behauptung, ein solcher Beweis sei extrem schwierig, ist – wie unter Neue Beweise des Satzes von Pythagoras | Mathelounge gezeigt wurde – unwahr. Richtig ist allerdings, dass man die geometrische Struktur eines rechtwinkligen Dreiecks vollständig und systematisch analysieren muss und von der Definition des rechtwinkligen Dreiecks und der Messung von Winkeln und Abständen ausgehen muss. Dazu ist ChatGPT allerdings nicht in der Lage.

Die Hoffnung der Autorin des eingangs erwähnten Artikels, Ute Rühling, ChatGPT könne Schüler*innen auf gute Ideen bringen, sieht der Verfasser dieses Artikels nach den oben aufgeführten Erfahrungen nicht erfüllt. Den einzigen zutreffenden und nützlichen Hinweis liefert ChatGPT erst nach hartnäckiger Überzeugungsarbeit durch den Fragesteller. Dabei ist erfahrungsgemäß nicht davon auszugehen, dass diese Überzeugungsarbeit von Schüler*innen geleistet werden kann. Sowohl Lehrer*innen als auch Schüler*innen sollten mathematische Fragen an sich selbst stellen und nicht an ChatGPT.

Avatar von 123 k 🚀

Ich habe Folgendes erlebt:

Auf der Suche nach Zitaten kam es zu Falschzuschreibungen. Auf meine Nachfrage bekam ich die Antwort: Das Zitat passe zudem Autor. Nur wenn Zweifel geäußert werden("sicher?), wird es besser, aber nicht fehlerfrei.

Übersetzungen in moderne Fremdsprachen oder aus ihnen sind meist sehr gut. Bei alten Sprachen oft sehr problematisch.

Bei komplexeren Matheaufgaben treten oft erhebliche Probleme auf mit vielen Fehlern und unterschiedlichen, falschen Ergebnissen bei derselbe Aufgabe und verschiedenen KIs.

Es gäbe noch mehr zu erzählen, doch dazu ist hier nicht der richtige Ort.

simple mind schreibt:

Bei komplexeren Matheaufgaben treten oft erhebliche Probleme auf mit vielen Fehlern und unterschiedlichen, falschen Ergebnissen bei derselbe Aufgabe und verschiedenen KIs.

Genauer sollte es heißen:

Matheaufgaben, für die kein Standard-Lösungsverfahren existiert, werden falsch gelöst. Bei Hinweis auf den Fehler folgt eine Entschuldigung gefolgt von einer weiteren falschen Lösung.

Schade das der Link zur Quelle nicht richtig übernommen wurde.

https://www.friedrich-verlag.de/friedrich-plus/sekundarstufe/mathematik/digital-unterrichten/chatgpt-und-mathe-unterricht/

Matheaufgaben, für die kein Standard-Lösungsverfahren existiert, werden falsch gelöst. Bei Hinweis auf den Fehler folgt eine Entschuldigung gefolgt von einer weiteren falschen Lösung.

Richtig. Und auch auf teilweise sehr einfache Aufgaben bekommt man manchmal auch eine falsche Antwort.

Aber gerade dafür will Frau Rühling mit ihrem Artikel ja das Bewusstsein schärfen, dass man grundsätzlich alles von der KI hinterfragen sollte. Nach einer Antwort evtl. selbst recherchieren sollte, ob die Antwort so Sinn macht.

Wie die Autorin sagt, ist es nicht geeignet für Schüler, die in einer Materie absolut keine Ahnung haben.

Ich verstehe nicht, warum du der Autorin anlastest, dass ChatGPT noch nicht die neusten Errungenschaften "diesen Jahres" über trigonometrische Beweise kennt.

Auch ich wäre fast mal auf eine Antwort von ChatGPT hereingefallen. Als ich etwas recherchiert habe, hat mir ChatGPT eine Antwort gegeben, die ich so nicht glauben konnte. Ich habe dann selber recherchiert und habe tatsächlich eine Internetseite gefunden, auf der der beschriebene Fakt beschrieben wurde. Also ich die Seite aber genauer und vollständiger gelesen habe, war das eine Seite mit 5 Fakten von denen nur ein Fakt wahr ist. Wenn ChatGPT also mit solchen Seiten trainiert wird, wo tatsächlich falsche Fakten stehen, dann ist es kein Wunder, wenn man da leicht hereinfällt.

Wer also ChatGPT benutzt, sollte sich klar sein, dass diese Antwort falsch sein kann. Übrigens sollte man auch nicht jeder Person trauen, was die so den ganzen Tag von sich gibt.

Auch wenn auf dieser Seite eine Antwort steht, dann heißt es nicht das die zu 100% korrekt ist. Das weißt du selber. Ich erinnere mich, wie häufig du eine deiner Fragen korrigieren müsstest, weil man in der ersten Fassung noch nicht alles berücksichtigt hat. Und auch ich finde immer noch viele Antworten von mir oder bekomme sie gemeldet, die fehlerhaft sind.

Warum haben dann viele Person den Anspruch an eine KI, dass die Antwort zu 100% korrekt sein muss. Es ist kein Lexikon in der 1000. Auflage aus dem bei jeder Auflage viele Fehler behoben worden sind.

Mathecoach, was hast du gegen den subjektiven Eindruck, dass sich die Hoffnung der Autorin Ute Rühling, ChatGPT könne Schüler*innen auf gute Ideen bringen, nicht erfüllt hat?

Übrigens sollte man auch nicht jeder Person trauen, was die so den ganzen Tag von sich gibt.
Angeblich sagen Menschen 200-mal am Tag die Unwahrheit – das lesen wir seit vielen Jahren in verschiedenen Medien. "Diese Zahl basiert aber nicht auf empirischen Studien, sondern auf der persönlichen Meinung eines US-amerikanischen Sozialpsychologen“, sagt Matthias Gamer. Die tatsächliche Anzahl liege deutlich niedriger.

Das bestätigten Studien, in denen Menschen eine Art Lügentagebuch führten. Im Schnitt logen sie etwa zweimal am Tag. Allerdings gab es Teilnehmende, die tagelang nicht einmal flunkerten, während andere auf bis zu 25 Lügen pro Tag kamen. Und noch etwas fanden die Forschenden heraus: Neun von zehn Lügen waren kleine Notlügen.

https://www.quarks.de/gesellschaft/psychologie/krankhaftes-pathologisches-luegen-pseudologie-phantastica-muenchhausen-psychologie/

1 Antwort

0 Daumen

Sorry, aber meine Zustimmung hält sich hier eher in Grenzen.

Wenn Frau Rühling behauptet, dass sich mit ChatGPT Ideen finden lassen, wenn man "auf dem Schlauch steht", dann sollte man auch adäquate Aufgabenstellungen heranziehen und nicht mit irgendwelchen Problemstellungen kommen, die man so als Schüler nicht erleben wird.

Beweise den Satz von Pythagoras mit Anwendung der Trigonometrie.

Ist jedenfalls keine solche angemessene Aufgabe, womit die gesamte Widerlegung ihrer Aussage eigentlich ein Witz ist.

Hingegen liefert folgende Aufgabe ein brauchbares Ergebnis, wenn auch mit falscher Schlussfolgerung und unter Vernachlässigung einer Größe.

Ein Türrahmen hat eine Höhe von 2 Meter und eine Breite von 80 cm. Passt eine Holzplatte mit den Maßen 2,10 Meter Länge und 2,50 Meter Breite und 5 Millimeter Dicke hindurch?

Antwort ChatGPT:

Um zu prüfen, ob die Holzplatte durch den Türrahmen passt, müssen wir analysieren, ob sie diagonal durch den Türrahmen geschoben werden kann, da sie in ihren größeren Dimensionen länger und breiter ist als der Türrahmen.

### Gegeben:
- **Türrahmen**:
- Höhe: 2 Meter (200 cm)
- Breite: 80 cm
- **Holzplatte**:
- Länge: 2,10 Meter (210 cm)
- Breite: 2,50 Meter (250 cm)
- Dicke: 5 mm (0,5 cm, vernachlässigbar für die Durchgangsprüfung)

### Berechnung der Türdiagonale:
Um die Holzplatte diagonal durch den Türrahmen zu bewegen, muss die Länge der Diagonale des Türrahmens größer als eine der größeren Abmessungen der Platte sein (hier: 2,10 m oder 2,50 m).

Die Diagonale \(d\) des Türrahmens ergibt sich aus dem Satz des Pythagoras:

\(d = \sqrt{\text{Höhe}^2 + \text{Breite}^2} = \sqrt{200^2 + 80^2} \text{ cm}\).

Berechnen wir diese Diagonale:

\(d = \sqrt{200^2 + 80^2} = \sqrt{40000 + 6400} = \sqrt{46400} \approx 215.4 \text{ cm}\).

### Vergleich mit den Abmessungen der Holzplatte:
Die Diagonale des Türrahmens beträgt etwa 215,4 cm. Die Holzplatte hat eine Breite von 250 cm und eine Länge von 210 cm.

Da 250 cm (die größere Dimension der Platte) größer als 215,4 cm (die Türdiagonale) ist, passt die Platte nicht durch den Türrahmen, selbst wenn sie diagonal gedreht wird.

### Ergebnis:
Die Holzplatte passt **nicht** durch den Türrahmen.

Die Antwort vernachlässigt zwar die Dicke der Holzplatte und ChatGPT liefert am Ende auch eine falsche Schlussfolgerung, dennoch erfüllt die Antwort ihren Zweck, eine Idee für die Lösung zu bekommen, indem man die Diagonale der Türöffnung berücksichtigt und die Platte diagonal durch die Tür bekommen könnte, indem man sie neigt. Erfahrungsgemäß scheitern bereits viele Schüler an dieser Vorstellung, weshalb die KI mit dieser Antwort in jedem Fall eine gute Richtung vorgibt. Nichts anderes hat Frau Rühling behauptet.

Auch zu folgender Aufgabe liefert ChatGPT einen entsprechenden Ansatz, der dann weiterhilft.

Eine Leiter steht an einer Wand, die so hoch wie die Leiter ist. Wird nun die Leiter von der Wand weggezogen,
so dass oben 3 Ellen frei sind, steht die Leiter am Boden 9 Ellen von der Wand entfernt. Wie lang ist die Leiter?

Antwort von ChatGPT:

Um die Länge der Leiter zu bestimmen, nutzen wir den Satz des Pythagoras, da wir ein rechtwinkliges Dreieck zwischen der Wand, dem Boden und der Leiter bilden können.

### Gegeben:
- Die Leiter hat eine unbekannte Länge \(L\).
- Die Leiter ragt 3 Ellen über die Wand hinaus, sodass der Teil der Leiter, der die Wand berührt, eine Höhe von \(L - 3\) Ellen ist.
- Die Basis der Leiter ist 9 Ellen von der Wand entfernt.

### Problemaufbau und Gleichung:
Da die Leiter, die Wand und der Boden ein rechtwinkliges Dreieck bilden, können wir den Satz des Pythagoras anwenden:

\(\text{Hypotenuse}^2 = \text{Höhe}^2 + \text{Basis}^2\).

In diesem Fall ist die Hypotenuse die Länge der Leiter \(L\), die Höhe ist \(L - 3\), und die Basis ist 9 Ellen.

Somit erhalten wir:

\( L^2 = (L - 3)^2 + 9^2 \)

### Ergebnis:
Die Länge der Leiter beträgt **15 Ellen**.

Na, wenn das mal nicht die zündende Idee für Schüler ist. ChatGPT zeigt übrigens noch, wie man die Gleichung löst und kommt auch auf das korrekte Ergebnis von 15 Ellen. Da es hier jedoch nur um die Ideenfindung geht, reicht hier der Ansatz.

Man sieht, dass man mit geeigneten Aufgaben durchaus gute Ansätze und damit Ideen bekommen kann. Wenn man wirklich gar keine Vorstellung davon hat, wie man eine Aufgabe angehen könnte, kann das also durchaus sinnvoll sein.

Die Behauptung, ein solcher Beweis sei extrem schwierig, ist – wie unter Neue Beweise des Satzes von Pythagoras | Mathelounge gezeigt wurde – unwahr.

Auch diesem Punkt stimme ich nur bedingt zu. Wenn es so einfach ist, warum gab es dann neben den unzähligen Beweisen für den Satz bisher keine Beweise mit Hilfe der Trigonometrie und wieso werden dann diese beiden Damen, die 5 solcher Beweise gefunden haben, so bejubelt, wenn es doch ach so einfach ist? Es mag sein, dass ein solcher Beweis nicht zwangsläufig schwierig ist, aber möglicherweise schwierig zu finden.

Dazu ist ChatGPT allerdings nicht in der Lage.

Was auch nicht verwunderlich ist, da die KI auf einem Sprachmodell basiert.

Im Gegensatz zu dir teile ich die Hoffnung der Autorin. Wenn man Aufgaben wählt, die ein Schüler so nicht zu Gesicht bekommen wird, dann geht das an jeder Realität vorbei und hat auch mit der Hoffnung der Autorin gar nichts mehr zu tun. Als Deutschlehrer (Gott sei Dank bin ich keiner) gäbe es nun den Kommentar "Thema verfehlt". Die Kritik an ChatGPT ist angekommen und auch die Schwächen der KI lassen sich aktuell wohl kaum leugnen. Dennoch sollte man solche Tests eben auch in einem Rahmen durchführen, der realistisch ist. Die Frage nach einem trigonometrischen Beweis hättest wohl auch du kaum beantworten können.

Meine beiden Aufgaben zeigen jedenfalls, dass ChatGPT sehr wohl brauchbare Ansätze und damit auch Ideen für Schüler liefern kann, ohne sich in eine im kreislaufende Fragerunde zu begeben.


Übrigens fehlen in deinem Artikel sämtliche Verlinkungen!

Avatar von 19 k

Apfelmännchen, du schreibst:

"...dann sollte man auch adäquate Aufgabenstellungen heranziehen und nicht mit irgendwelchen Problemstellungen kommen, die man so als Schüler nicht erleben wird."

Dann stelle ChatGPT einmal diese Aufgabe: Nenne ein magisches Quadrat der Ordnung 10!

Ich glaube durchaus, dass ein Schüler mit einer solchen Aufgabe konfrontiert werden könnte.

Ich glaube durchaus, dass ein Schüler mit einer solchen Aufgabe konfrontiert werden könnte.

Ich nicht. Vielleicht im Rahmen eines Wettbewerbs, aber nicht als Standardaufgabe im Matheunterricht, weshalb auch diese Aufgabe nicht sinnvoll ist.

Außerdem behauptete niemand, dass ChatGPT dir die Aufgaben löst, sondern lediglich eine Idee für einen Ansatz liefert. Deine Aufgabe liefert als Antwort unter anderem:

Ein magisches Quadrat der Ordnung 10 ist eine 10x10-Matrix, in der jede Zeile, Spalte und beide Diagonalen die gleiche Summe ergeben. Diese Summe nennt man die „magische Konstante“. Für ein magisches Quadrat der Ordnung \( n \) wird die magische Konstante \( S \) wie folgt berechnet:

\(S = \frac{n \times (n^2 + 1)}{2}\)

Für \( n = 10 \) ergibt sich somit:

\(S = \frac{10 \times (10^2 + 1)}{2} = \frac{10 \times 101}{2} = 505\)

Um ein explizites magisches Quadrat der Ordnung 10 zu konstruieren, braucht man spezielle Verfahren oder Algorithmen. Solch ein Quadrat von Hand zu erstellen, ist sehr aufwendig. Falls du möchtest, kann ich dir ein Beispiel dafür programmieren!

Das liefert meiner Meinung nach für jeden Schüler erst einmal eine erste Idee, was zu tun ist, indem erklärt wird, was ein magisches Quadrat ist und - und darauf kommen viele Schüler vermutlich nicht - wie die magische Konstante aussehen muss. Damit erfüllt auch diese Antwort den Zweck, eine erste Idee zu liefern. Die Aufgabe ist aber dennoch ein mehr schlechtes als rechtes Beispiel, da es sich hier eben nicht um eine typische Aufgabe des Matheunterrichts handelt. Und selbst das beantwortet ChatGPT in seinem letzten Absatz: Wer diesen Algorithmus nicht kennt oder nicht weiß, wie man bei der Konstruktion eines solchen Quadrates vorgehen muss, wird vermutlich ewig brauchen, um von selbst darauf zu kommen. Vor allem dann, wenn man nicht einmal die magische Konstante kennt. Dieser Hinweis sollte die Konstruktion zumindest ein stückweit erweitern, weshalb ChatGPT hier die Aufgabe, eine Idee zu liefern, erfüllt.

Ich habe mir natürlich auch ein solches Quadrat berechnen lassen und es war auch wie zu erwarten nicht korrekt. Aber es geht hier ja auch gar nicht darum, dass die KI eine Aufgabe korrekt löst, sondern darum, zu Ideen und Ansätzen zu verhelfen. Und das sehe ich selbst bei dieser ungeeigneten Aufgabe erfüllt.

Ergänzung: Nachdem ich ChatGPT die Zeilen- und Spaltensummen habe prüfen lassen und es selbst feststellte, dass es kein magisches Quadrat ist, bat ich um eine Korrektur. Er verwendet einen Algorithmus, der allerdings nur für Ordnungen als Vielfache von 4 (doppelt gerade) funktioniert. Immerhin war dieser Algorithmus korrekt, so dass ich folgendes magische Quadrat der Ordnung 12 erstellen konnte:

array([[144, 143, 142, 4, 5, 6, 7, 8, 9, 135, 134, 133],
      [132, 131, 130, 16, 17, 18, 19, 20, 21, 123, 122, 121],
      [120, 119, 118, 28, 29, 30, 31, 32, 33, 111, 110, 109],
      [ 37, 38, 39, 105, 104, 103, 102, 101, 100, 46, 47, 48],
      [ 49, 50, 51, 93, 92, 91, 90, 89, 88, 58, 59, 60],
      [ 61, 62, 63, 81, 80, 79, 78, 77, 76, 70, 71, 72],
      [ 73, 74, 75, 69, 68, 67, 66, 65, 64, 82, 83, 84],
      [ 85, 86, 87, 57, 56, 55, 54, 53, 52, 94, 95, 96],
      [ 97, 98, 99, 45, 44, 43, 42, 41, 40, 106, 107, 108],
      [ 36, 35, 34, 112, 113, 114, 115, 116, 117, 27, 26, 25],
      [ 24, 23, 22, 124, 125, 126, 127, 128, 129, 15, 14, 13],
      [ 12, 11, 10, 136, 137, 138, 139, 140, 141, 3, 2, 1]])

Apfelmännchen, ich danke dir für deine sehr ausführliche Auseinandersetzung mit dem von mir angestoßenen Thema. Geh davon aus, dass etwas davon mich zum Grübeln veranlasst hat.

Das freut mich zu lesen, Roland. Wie in der Antwort schon erwähnt, ist deine Kritik durchaus nachvollziehbar, da die KI (basierend auf einem Sprachmodell) im mathematischen Bereich natürlich sehr große Schwächen zeigt. Daher ist die Verwendung immer mit großer Vorsicht zu genießen. Dennoch sehe ich, dass die KI durchaus gute Ansätze liefern kann, weshalb man die grundsätzliche Verwendung nicht verteufeln sollte. Schüler sollten daher auch den korrekten Umgang mit einer KI lernen, insbesondere dann, wenn es um mathematische Fragestellungen geht. Allerdings sind die heutigen "Unterrichtsmethoden" katastrophal genug, dass man davon wohl eher Abstand nimmt. Denn bereits jetzt und ohne KI wird von den Schülern kaum noch eigenständiges Denken gefordert und gefördert.

Genau so sehe ich das auch.

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community