KI und die Auswirkung auf das Schulsystem

  • In der Softwareentwicklung ist KI alleine wertlos. Als Werkzeug, wie viele andere auch, sind KI Systeme hilfreich und werden auch eingesetzt. Selbst vibe coding setzt voraus, dass der Entwickler weiß, was er tut. In diesem Bereich sehen ich nicht, wie KI irgendwen ersetzen würde.

    Aktuell ja, jedoch gibt es auch hier Berichte, dass immer weniger junge Softwareentwicker eingestellt werden. Z.B. gibt es bundesweit einen Rückgang an Ausbildungsplätzen zum Fachinformatiker im Bereich Softwareentwicklung. Wenn die Modelle noch besser werden (z.B. wie es letzte Woche Gemini 3 gezeigt hat) werden wir bald nicht mehr viele Entwickler benötigen.

    Im Rechtswesen wäre eine Entlastung durch KI-Systeme möglich und hilfreich. Dass das allerdings bei uns Jobs kostet, sehe ich auch nicht.

    Eine befreundete Rechtsanwältin erzählte uns letztens, dass ChatGTP die Fälle ihrer Klienten weitaus besser aufbereitet als ihre Mitarbeiter.

    Wir haben in Deutschland insgesamt nicht gerade das Problem, zuviele Arbeitskräfte zu haben.

    Ja mal sehen wie lange noch bei der Entwicklungsgeschwindigkeit.

    An was für Modelle denkst du denn, die klüger als der durchschnittliche Mensch sein sollen?

    Ich kenne niemanden der sich über derart viele Fachdisziplinen so gut auskennen wie ChatGPT. Und die neue Version von Googles Gemini hat diesen Effekt jetzt nochmals maßgeblich verstärkt.

    Chat GPT ist ein Werkzeug. Nur wenn ich Inhalte verstanden und durchdrungen habe, dann kann ich ChatGPT gut als Werzeug nutzen und dann kann es auch arbeitserleichternd sein. Wenn ich kein eigenes Wissen habe, dann kann ich auch nicht überprüfen, ob die Inhalte, die Chat GPT generiert, richtig sind.

    Die Erfindung des Taschenrechners hat auch den Mathematikunterricht auch nicht ausgelöscht!

    Ich kann mich mit einem Taschenrechner nicht unterhalten und er kann mir auch kein Wissen aufbereiten und vermitteln.

  • Ich kenne niemanden der sich über derart viele Fachdisziplinen so gut auskennen wie ChatGPT. Und die neue Version von Googles Gemini hat diesen Effekt jetzt nochmals maßgeblich verstärkt.

    Die Modelle kennen sich mit überhaupt nichts aus. Die können dir richtige Ergebnisse liefern. Oder es kommt nur Blödsinn raus.

    Eine befreundete Rechtsanwältin erzählte uns letztens, dass ChatGTP die Fälle ihrer Klienten weitaus besser aufbereitet als ihre Mitarbeiter.

    Das kann auch schnell nach hinten losgehen, wenn das alles ungeprüft verwendet wird. Aber ist doch ein guter Einsatz von LLMs. Warum sollen Menschen solche langweiligen Tätigkeiten ausführen, wenn ein Werkzeug das schneller machen kann?

    Ich kann mich mit einem Taschenrechner nicht unterhalten und er kann mir auch kein Wissen aufbereiten und vermitteln.

    Ich sehe den Unterschied auch nur bedingt. Nimmst du absichtlich eine sehr negative Haltung ein um einen Diskurs zu erhalten oder was genau ist dein Ziel?

    Schon verrückt, dass LLMs eine solche Reaktion hervorrufen. Nur weil es sich so anfühlt, alsob man mit einer Person reden würde.

  • Aktuell ja, jedoch gibt es auch hier Berichte, dass immer weniger junge Softwareentwicker eingestellt werden. Z.B. gibt es bundesweit einen Rückgang an Ausbildungsplätzen zum Fachinformatiker im Bereich Softwareentwicklung. Wenn die Modelle noch besser werden (z.B. wie es letzte Woche Gemini 3 gezeigt hat) werden wir bald nicht mehr viele Entwickler benötigen.

    Sag mir, dass du keine Ahmung von Softwareentwicklung hast, ohne mir zu sagen, dass du keine Ahnung von Softwareentwicklung hast. ;)

    Zitat

    Eine befreundete Rechtsanwältin erzählte uns letztens, dass ChatGTP die Fälle ihrer Klienten weitaus besser aufbereitet als ihre Mitarbeiter.

    Das halte ich für ein Gerücht. Allerdings gibt es natürlich auch schlechte Anwälte.


    Mir ist nicht ganz klar, was du genau willst. Momentan sieht es nicht danach aus, als würde KI ernsthaft qualifizierte Arbeitsplätze gefährden.

  • Nimmst du absichtlich eine sehr negative Haltung ein um einen Diskurs zu erhalten oder was genau ist dein Ziel?

    Ich habe mich einfach in den letzten Monaten sehr viel mit dem Thema beschäftigt und ich bin aktuell wirklich besorgt, dass wir durch KI in den nächsten Jahren ein ernsthaftes gesellschaftliches und wirtschaftliches Problem bekommen werden. Bin da auch nicht alleine, viele Experten sind da ähnlicher Meinung.

  • Ich kenne niemanden der sich über derart viele Fachdisziplinen so gut auskennen wie ChatGPT. Und die neue Version von Googles Gemini hat diesen Effekt jetzt nochmals maßgeblich verstärkt.

    ChatGPT kennt sich nicht aus, sondern stellt auf Basis von Wahrscheinlichkeiten plausibel erscheinende Ergebnisse zu bestimmten Fragestellungen aus dem vorher eintrainierten Datensatz zusammen.


    PS: Man kann sich natürlich darüber streiten, ob das bei manchen Menschen nicht ähnlich verläuft. Klausuren von Schülern lesen sich jedenfalls manches Mal auch so, als wäre das das Vorgehen gewesen :teufel:

  • Ich habe mich einfach in den letzten Monaten sehr viel mit dem Thema beschäftigt und ich bin aktuell wirklich besorgt, dass wir durch KI in den nächsten Jahren ein ernsthaftes gesellschaftliches und wirtschaftliches Problem bekommen werden. Bin da auch nicht alleine, viele Experten sind da ähnlicher Meinung.

    Es wird sich sicherlich was verändern. So wie sich immer Dinge verändern. An manchen Stelle negativ, anderen positiv. Vielleicht auch überwiegend negativ. Wobei das auch immer eine Frage der Perspektive ist. Wird sich zeigen.

    Ich würde mich über eine KI-induzierte Deflation ehrlich gesagt freuen.

  • ChatGPT kennt sich nicht aus, sondern stellt auf Basis von Wahrscheinlichkeiten plausibel erscheinende Ergebnisse zu bestimmten Fragestellungen aus dem vorher eintrainierten Datensatz zusammen.

    Das ist eine sehr vereinfachte Beschreibung wie Neuronale Netze und auch teilweise unserer Gehirn funktioniert 😄

  • Wenn unser Gehirn so funktionierte, wären wir bei unbekannten Problemen völlig am A...

    Sind wir aber nicht, Intelligenz ist etwas völlig anders als Abrufen von erlerntem Wissen

    If you look for the light, you can often find it.
    But if you look for the dark that is all you will ever see.

  • Ich habe in Bezug auf unser Berufsbild eher Sorge, dass alles Fachliche zunehmend die KI übernimmt und Lehrkräfte primär zum Sozialarbeiter und Lernüberwacher mutieren werden. Das wäre dann mal so gar nicht mehr meine Welt.

    Ich denke, dass genau das passieren wird. Die KI wird für jedes Kind die nächst passenden Lernangebote bereitstellen können, verschiedene Übungen ausspucken, den Lernfortschritt dokumentieren können etc. Aber was die KI nicht hin bekommen wird ist, dass die Kinder die Angebote annehmen, dass sie sitzen bleiben und sich drauf einlassen.

    Und das allerwichtigste wird (und ist es eigentlich auch jetzt schon), dass die Lehrkräfte die Kinder sozial kompatibel machen. Die Kinder und Jugendlichen mssen den Umgang mit anderen Menschen üben, in Kontakt treten, Konflikte lösen, sich an Regeln halten..., eine Gemeinschaft werden bzw. lernen in einer Gemeinschaft zu leben und bereit sein, ihren Teil zum Gelingen beizutragen. Das wird eine große Aufgabe (noch größer als aktuell schon). Wenn das nicht gelingt können wir einpacken.

  • Ich denke, dass genau das passieren wird. Die KI wird für jedes Kind die nächst passenden Lernangebote bereitstellen können, verschiedene Übungen ausspucken, den Lernfortschritt dokumentieren können etc. Aber was die KI nicht hin bekommen wird ist, dass die Kinder die Angebote annehmen, dass sie sitzen bleiben und sich drauf einlassen.

    Das könnte man heute schon machen. Allerdings geht auch das nicht ohne die Lehrkraft. Denn es muss inhaltlich geprüft und korrigiert werden. Das kann die KI nicht, vielleicht irgendwann. Das wird aber noch ein paar Jahrzehnte dauern.

  • Wenn unser Gehirn so funktionierte, wären wir bei unbekannten Problemen völlig am A...

    Sind wir aber nicht, Intelligenz ist etwas völlig anders als Abrufen von erlerntem Wissen

    Wenn wir nicht durch Eltern, Schule und Ausbildung "trainiert" werden sind wir in dieser Gesellschaft völlig am A...

    Genau so wie KI für die verschiedenen Anwendungsfälle erst "trainiert" werden muss.

    PS: Soll nicht heißen, dass unser Gehirn in Sachen Bewustsein, Anpassungsfähig und Emotionalität aktuell noch einen Vorteil hat.

  • Ein Arzt, wo ich neulich einen Termin machen wollte, nutzt ein KI basiertes Programm beim Telefonieren. D.h., ich hatte zuerst eine Frage und wollte dann evtl. einen Termin machen.

    Beispiel in der Art:

    Sind Sie Bestandspatient oder Neupatient?

    Was ist ihr Anliegen? Ich wollte fragen, ob....... Ich habe Sie nicht verstanden, bitte wiederholen Sie Ihr Anliegen (Nachdem ich dem ein Stichwort hingehauen habe, hat er weitergemacht.)

    Nennen Sie ihr Geburtsdatum: 9.9.99 Ki fragt: Meinen Sie 1999?

    Nennen Sie Ihren Namen. Caro Mustermann. Buchstabieren Sie Ihren Nachnamen:

    Nachdem ich dann gefühlt 5 Minuten genervt war, habe ich aufgelegt und einfach online einen Termin festgelegt.

  • Ob das eine KI war, weiß ich nicht. So blöd sind eigentlich nur Telefonroboter, die niemals flexibel reagieren können.

  • In der letzten Stunde habe ich in Info den 5ern gezeigt, wie man bei einer Präsentation Bilder und Pfeile einfügt. Schrift, Farbe und Größe ändert und Animations hinzufügt.

    Nächste Stunde sollen sie das Gemini und Chat-gpt machen und die Lösung der KI bewerten.

    Also wieder ein "Erstelle mir ein Bild von einem Auto und beschrifte die 10 wichtigsten Teile".

    Das Bild von Gemini füge ich hier mal bei. Chat-gpt ist nicht ganz so schlecht, aber ich würde es trotzdem mit mangelhaft bewerten. Mal gucken wie diese Woche meine Schüler ihre KI bewerten.

  • Nächste Stunde sollen sie das Gemini und Chat-gpt machen und die Lösung der KI bewerten.

    Ihr dürfte das im Unterricht verwenden? Da wäre ich sehr vorsichtig, die sind nicht DSGVO-konform. Eigentlich geht nur telli im Unterricht.


    P.S.: Ich mag die Heckleuchten in der Frontschürze.

Werbung