Im Unterricht fordere ich die SuS oft auf, Begriffe mit Hilfe der KI so einfach wie möglich zu erklären. Sie dürfen KI beim Programmieren benutzen, aber dabei zeigt sich, dass das ohne Verständnis für das, was man da macht, nicht funktioniert.
Die SuS benutzen KI manchmal sinnvoll (Horizont erweitern), manchmal weniger sinnvoll (eigene Denkarbeit vermeiden) und manchmal betrügerisch bei Klassenarbeiten. Da sollten wir nicht naiv sein - die kriegen das alles schneller raus als wir.
Dass es immer noch ein beliebtes Spiel ist, der KI nachzuweisen, dass sie Fehler macht, wundert mich. Das ist inzwischen ein alter Hut, die KI wird besser, gibt Quellen an, korrigiert sich. Mich bringt Perplexity auf tolle Ideen und führt mich zu Quellen, die ich durch Googeln nicht gefunden hätte. Aber bei mir trifft das auf Vorwissen, auf ausgebildete Strukturen. Was macht das mit jungen Gehirnen?
Da kommen private Firmen, die Software auf den Markt wirft, die das Bildungssystem zwingt, ihr ganzes System über den Haufen zu werfen. Und das geht einfach so. KI im Unterricht einsetzen können ist das eine. Die eigentliche Herausforderung ist, das eigene Denken bei jungen Menschen nicht vollständig zu demontieren - gibt ja schon alles "in künstlich". Hausarbeiten stellen wird sinnlos - wir können nicht prüfen, wer da am Werk war, selbst wenn wir es wissen, wir können es nicht belegen. Es gibt Software extra zum Betrügen bei Prüfungen.
Wir brauchen andere Prüfungsformate oder Störsender, nicht den Wettlauf um das x-te KI-generierte Arbeitsblatt.