Generative KI-Sprachmodelle wie ChatGPT eröffnen neue Möglichkeiten, aber bergen auch Risiken für die mathematikdidaktische Forschung und Lehre. Das zeigt eine neue Studie von Wissenschaftlerinnen und Wissenschaftlern der Universitäten Hamburg, Köln, Bielefeld, Gießen und Dresden sowie der TU Dresden.
Die Autorinnen und Autoren untersuchten systematisch die Vor- und Nachteile solcher Sprachmodelle und diskutieren Chancen und Grenzen für den Einsatz in der mathematikdidaktischen Forschung und Lehre sowie im Mathematikunterricht.
Funktionsweise und Leistungsfähigkeit von ChatGPT
ChatGPT basiert auf einem neuronalen Netzwerk, das große Mengen von Textdaten analysiert hat und dadurch in der Lage ist, menschliche Sprache zu verstehen und selbst zu generieren. Die Qualität der Antworten ist teilweise verblüffend hoch, dennoch sind Fehler und Falschinformationen möglich.
Besondere Stärken von ChatGPT liegen in der Erklärung von Zusammenhängen in verständlicher Sprache, der Ideensammlung und Diskussion von Fragestellungen sowie der Simulation von Dialogen. Allerdings fehlt die menschliche Kontrolle und Validierung der präsentierten Informationen.
Anwendungspotenziale in Forschung und Lehre
Die Studienautoren diskutieren mehrere mögliche Anwendungsbereiche von ChatGPT:
- Ideengenerierung und Erklärung fachlicher Fragestellungen
- Analyse von Schülerantworten und Simulation von Lehrmethoden
- Unterstützung beim wissenschaftlichen Schreiben
- Generierung mathematischer Aufgaben und Lösungswege
Â
In all diesen Bereichen könnten generative KI-Modelle die Arbeit von Forschenden und Lehrenden prinzipiell unterstützen und beschleunigen. Allerdings sind die Ergebnisse nicht verlässlich genug, um eigenständige Forschung oder tiefgreifendes Verständnis zu ersetzen.
Probleme und Grenzen
Als zentrale Probleme identifizieren die Autorinnen und Autoren die mangelnde Validität der KI-generierten Informationen sowie die Gefahr von “Datenhalluzinationen”. So können spezifische Literaturangaben produziert werden, die gar nicht existieren.
Weitere Grenzen liegen in den noch begrenzten mathematischen Fähigkeiten von ChatGPT und der Fehleranfälligkeit bei der Interpretation mathematischer Sachverhalte.
Auch besteht die Gefahr des “KI-Ghostwritings”, wenn Studierende KI-generierte Texte als Eigenleistung ausgeben. Prüfungsformate müssen daher angepasst werden, um solchen Täuschungsversuchen vorzubeugen.
Fazit: KI in der Mathematikdidaktik
Generative KI eröffnet faszinierende Möglichkeiten, birgt aber auch Risiken für die mathematikdidaktische Forschung und Lehre. Die Autorinnen und Autoren plädieren für einen reflektierten und kritischen Umgang mit diesen Technologien.
Weitere Forschung muss die konkreten Einsatzmöglichkeiten und Grenzen genauer analysieren. Wenn die spezifischen Defizite in Zukunft behoben werden können, halten die Studienautoren einen sinnvollen Einsatz von ChatGPT und verwandten Modellen in begrenzten Bereichen jedoch für vielversprechend.
Literatur:Â