Ist KI als Argumentationshilfe im LF "unschicklich"?

  • Das Zitat muss ja nicht zwingend vollständig sein, aber Zitate sollten schon so sein, dass sie den Sinn nicht verändern.

    Aber dann stelle ich meine Frage gerne ein drittes mal: Soll das in die Nutzungsbedingungen rein, oder schaffen wir das von alleine?

  • Aber in Summe betätige ich gerne noch einmal: Ellenlange KI Zitate möchte ich hier auch nicht unbedingt lesen. Daher noch einmal die Frage: Soll es eine Abstimmung geben, dass wir das in den Nutzungsvereinbarungen verbieten oder sind wir auch ohne Vorgabe schlau genung KI hier richtig zu nutzen?

    Das Forum hier ist keine Demokratie, die Regeln legt der Forenbetreiber fest. Letztlich ging es bei er Kritik auch ausschließlich um das Verhalten von Wolfgang, der hat deutlich gemacht, dass ihn diese Kritik nicht interessiert.

  • Ob eine Abstimmung dann umgesetzt wird ist ja eine ganz andere Frage. Aber der Forenbetreiber kann so deutlicher sehen, was seine "Bürger" wollen. Ansonsten wären ja z.B. auch Demonstrationen sinnlos, weil da auch nichts abgestimmt wird.

  • Was für komplexe Fragen mit Bewertungscharakter stellst du ihr denn, könntest du mal ein Beispiel machen?

    Das ist ja der Witz. Es geht zum Teil nicht mal um Bewertungsfragen, sondern um Sachfragen. Und gar nicht komplex.
    Neulich habe ich mal so aus Neugier gefragt, ob sich der Sternhimmel eigentlich um Uhrzeigersinn oder gegen den Uhrzeigersinn über uns (scheinbar) dreht. Die Antwort war gegen den Uhrzeigersinn, mit einer langen Erklärung. Ich habe daraufhin erwidert, dass ich das seltsam finde, da ja die Sonne auch im Uhrzeigersinn über den Himmel wandert. Daraufhin hat die KI (ChatGPT) reagiert, indem sie natürlich sofort ihren Fehler eingestanden hat und lange erklärt, warum natürlich im Uhrzeigersinn die richtige Antwort ist. Nur so als Test habe ich als nächtes geschrieben, dass ich glaube, dass das falsch ist und sie sich wirklich gegen den Uhrzeigersinn drehen. Die KI hat mir natürlich vollumfänglich zugestimmt.
    Ich vermute dahinter noch nicht mal politische Manipulation, dazu ist die Frage der Sternbewegung zu wenig brisant. Es zeigt aber, wie wenig man sich auf die Aussagen verlassen kann. Im Moment zumindest.

    Etwas komplexer habe ich neulich bei der Unterrichtsvorbereitung zur Lektürearbeit ein paar meiner eigenen Interpretationsansätze in die KI gegeben. Die waren natürlich alle super und perfekt - egal wie abstrus ich sie letztlich gestaltet habe.

    So bringt das alles natürlich nichts. Als reine Rechenmaschine oder Textproduktionsmaschine taugt sie schon, ja. Und ehrlicherweise ist das vermutlich auch eher ihre Bestimmung zum jetzigen Zeitpunkt. Umso mehr eignet sie sich eigentlich nicht, um Diskussionsbeiträge zu formulieren.

  • Ich weiß ja nicht, aber beide Teile sehen für mich sehr menschlich aus. Und du glaubst, dass die beiden kritisierten Punkte bei Menschen nicht vorkommen? Da habe ich irgendwie andere Erfahrungen gemacht.

    So extrem, also dass innerhalb von zwei Sätzen eine Sachaussage komplett umgedeutet wird, habe ich bisher nur bei mündlichen Abfragen von Schülern mitbekommen, die nicht vorbereitet waren. Die ziehe ich in der Regel aber nicht heran, um Informationen zu bekommen oder Theorien zu hinterfragen.

  • Ähnliche Dinge sind mir auch schon passiert. Wobei ich das gerade mit dem Sternenhimmel nicht reproduzieren kann. Da wird mir ganz deutlich gesagt wie rum sich der Himmel dreht und wenn ich behaupte, dass er sich andersherum dreht, dann erklärt er mir auch, warum ich das so beobachtet habe. Er kehrt aber seine Meinung nicht um, sondern erklärt mir, wie ich auf diese Beobachtung gekommen sein könnte und er bleibt bei seiner alten Behauptung.

  • Es kann sein, dass es nicht ChatGPT war, sondern Gemini. Ist sogar wahrscheinlich, weil ich GPT meistens am Rechner verwende, wenn ich mich "ernsthaft" mit etwas beschäftige, wärhend Gemini meine go-to KI für "mal eben auf der Couch einen Gedanken gehabt" ist.

    Jedenfalls war es tatsächlich genau so. Es war erschreckend. Dass es nicht reproduzierbar ist, macht es ja eigentlich noch schlimmer, da es zeigt, wie willkürlich die KI antwortet. Und wie viel Glückssache es ist, was man bekommt.

  • Um mal zur Ausgangsfrage zurückzukehren, ob man KI generierte Antworten im Forum in Ordnung findet oder nicht, möchte ich noch hinzufügen, dass ich es auch etwas nervig finde, wenn man statt einer selbst formulierten Antwort, eventuell noch mit mit einer verlinkten Quelle, als Antwort einfach wortlos ein Zitat einfügt, das aus einer Zeitung stammt, ohne selbst was zu schreiben. Es kommt für mein Empfinden besserwisserisch rüber, so wie "Ich mache mir jetzt nicht die Mühe, dir noch zu antworten, aber dass ich recht habe, siehst du hier schwarz auf weiß". Zumindest weiß man da, woher das Geschriebene kommt, also wessen Feder es entsprungen ist (Journalist betreffender Zeitung eben), wohingegen man das bei KI generierten Antworten nicht weiß.

    ich diskutiere lieber mit Personen

    Und in meiner Familie sehe ich, dass die Jugend der KI oft noch kritischer gegenübersteht als die Älteren, die dann doch öfter mal unbesehen etwas glauben oder die KI befragen, statt ordentlich nach Quellen zu suchen, oder die auf KI generierte Videos reinfallen.

  • Ein Kollege hat ChatGPT gebeten, ihm den Lebenslauf des bekannten französischen Philosophen XY (XY ist der Name des Kollegen) aus dem 18. Jhd zu schreiben. Diesen Philosophen gab es nicht, aber ChatGPT hat einen Lebenslauf geliefert. Ohne Hinweis darauf, dass das rein fiktional ist.

  • Das man etwas nicht reproduzieren kann, kann auch schlicht dafür sprechen, dass der Fehler mittlerweile behoben wurde.

    Das mit dem Lebenslauf habe ich bei chat-gpt gerade auch mal ausprobiert. Er sagt mir dann, dass er die Person nicht kennt und hat gefragt, ob ich eine andere Person meine (die so ähnlich heißt) und hat mir dessen Lebenslauf geschrieben. (Übrigens immer mit Quellenangabe, obwohl ich im Moment wieder nur die kostenlose Version benutze und nicht nach Quellen gefragt habe.)

  • Ich weiß ja nicht, aber beide Teile sehen für mich sehr menschlich aus. Und du glaubst, dass die beiden kritisierten Punkte bei Menschen nicht vorkommen? Da habe ich irgendwie andere Erfahrungen gemacht.

    Ich verstehe den Punkt nicht. Selbst wenn sich ein Mensch mal so verhalten sollte, dann kann man doch Rückfragen stellen. Es interessiert einen dann ggf., warum dieser Gesprächsteilnehmer seine Meinung plötzlich geändert hat.

    Bei der KI funktioniert das aber nicht, sie hat kein Bewusstsein und kann sich nicht hinterfragen. Sie wird als Informationsquelle völlig wertlos, wenn Aussagen beliebig gemischt werden.

    Ich klicke deswegen immer auf die angegebenen Links, wenn es um sachliche Informationen geht.

  • Nun, Rückfragen kannst du sehr wohl stellen. Dafür braucht sie kein Bewußtsein. Das eine Primärquelle oft besser ist, wenn man es genauer wissen will, ist unbestritten. Aber ich denke da z.B. an eine lange mathemathische Beweisführung, die ich nicht verstehe.

    Ich programmiere zwar seit Jahren in c++ und erkenne Lambda Funktionen wenn ich sie sehe (auch in anderen Sprachen). Trotzdem tue ich mich mit dem Lesen von komplexeren Lambda Funktionen und schreiben von komplexeren Lambda Funktionen schwer, weil ich sie viel zu selten nutze. Es ist aber schon einige male vorgekommen, dass ich solche Funktionen gelesen habe, aber nicht voll verstanden habe. Ich habe also schon die original Quelle und kopiere den Quellcode in chat-gpt rein und lasse es mir erklären. Allgemeine Erklärung zu Lambdafunktionen habe ich schon öfters gelesen, vergesse sie aber wieder viel zu schnell, weil ich es so selten nutze. Stattdessen kann ich chat-gpt gezielt fragen, warum das so geschrieben wurde, wie man es ohne Lambda Schreibweise schreiben könnte, ... Da muss ich sagen, hat mir chat-gpt schon ein paar mal sehr gut auf hohen Niveau geholfen.

  • Hier im Forum? Habe ich ja schon gesagt, da bevorzuge ich menschliche Antworten. Es ist aber eben oft (nicht immer) "nur smalltalk" und keine "Arbeit".

    Wenn ich die speziellen Beispiele nehme, wo ich mir die Lambda-Funktionen habe erklären lassen, dann definitiv von der KI, schlicht und ergreifend deshalb, weil ich a) die Antwort so schneller erhalte und nicht erst gegenenfalls mehrere Stunden darauf warten muss (ich kann dann ja selbst in dem Moment nicht weiterarbeiten. Hier im Forum ist es mir ja egal, eine spätere Antwort hält mich nicht von der Arbeit ab. Eher im Gegenteil, wenn hier zu schnell geantwortet wird, hält es mich von meiner Arbeit ab) und b) ich den anderen Entwickler nicht mit so einer "Anfängerfrage" nerve, die ihm nichts bringt. Du musst bedenken, dass das i.d.R. auch Open Source Programmierer sind, die ihren Quellcode "kostenfrei" ins Internet stellen, wenn man die dann noch immer mit solchen Fragen "nervt", dann können sie in ihrer Freizeit weniger an dem Open Source Projekt arbeiten. Da ich diese alternative Quelle habe, würde ich den Autor des Original Codes nur dann fragen, wenn chat-gpt nicht gut genug (schlau genug) war es mir zu erklären oder wenn ich eine evtl. Optimierung oder einen evtl. Fehler sehe. Das hat etwas mit Respekt gegenüber der (Arbeits)-zeit des anderen Menschen zu tun.

  • Schöne ARTE-Doku zum Thema...

    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Viele gute Punkte.

    Wobei ich den Titel des Videos nicht gut finde. Große Teile des Videos handeln eher um: "KI: Der Tod des Buchhandels" oder "KI: Das Ende der Musik im Radio" oder "Das Internet: Das Ende des Einzelhandels" oder "Die Arbeitsbedingungen in Dritte Welt Ländern"; aber dann würden sich wohl nicht so viele Leute das Video angucken.

    Stelle 21:45 finde ich unglücklich formuliert. Wenn man nicht genau aufpasst, werden vermutlich viele Leute aus der Textstelle heraushören, dass er wegen KI generierter Musik angeklagt wurde (und ich habe den Eindruck, dass sie das extra gemacht haben). Das stimmt so aber nicht. Er ist angeklagt worden, weil er mit Bots so getan hat, als wenn seine Lieder viel gehört werden. Oder anders formuliert: Hätte er die Musik selbstkomponiert, gespielt und gesungen, dann hätte man ihn genau so verklagt und genau so verurteilt. Das Nutzen der KI zur Erstellung der Musik war nicht der Punkt für die Verurteilung.

    Stelle 32:60 halte ich ebenso für übertrieben. Zum einen verstehen auch Menschen nicht immer Ironie oder andere Sprachmittel und zum anderen hat KI bei mir schon mal ab und zu geantwortet mit "Du willst mich wohl aufs Glatteis führen." oder mit "Meinst du das ironisch". Insofern wird KI schon besser und ich bin mir ebenfalls 100% sicher, das Google nich behauptet, dass es ihnen egal ist. Das halte ich für eine Unterstellung (selbst dann, wenn das so mal irgendein Google Mitarbeiter irgendwann einmal so gesagt haben sollte. Das ist definitiv Google nicht egal, ansonsten würden sie ja ihre Forschung und Entwicklungsabteilung dicht machen.)

    Auch Stelle 33:10 finde ich nicht besonders "fair". Ja, ich verstehe die Idee, aber die gleichen Kritikpunkte kann man dann auch dem Menschen vorwerfen, wenn er die "Gala" oder die "Bunte" liest und dort mal wieder Klatsch liest, der so nicht stimmt. Hat man bei den Zeitschriften gesagt: "Puhh.. Also wir müssen uns genau überlehen welchen Verlage das Wissen an uns verteilen. Wir geben die Macht in die Hände der großen Verlage."

    Stelle 38:10 hingegen finde ich sehr gut. Da sagen sie im Grunde, dass wir das "Problem" schon viel viel länger haben. Schon lange vor dem Internet.

    Ab Stelle 40:00: Die Argumentation dort ist sehr gegen KI. Aber beide Personen machen KI "schlecht"; und das mit einem "komischen" Argument. Beide sagen ja, dass sich damit kein Geld verdienen lässt. Nun, wenn sich damit kein Geld verdienen lässt, dann wird sich das Problem doch früher oder später von alleine lösen, weil sie pleite gehen werden. Warum sich dann darüber aufregen?

    Ab Stelle 43:15: Die beiden Frauen sind schon sehr "gewagt" ihn ihren Aussagen. Die KI Firmen sollen verheimlichen, das sie verstärkendes Lernen benutzen? Sorry, aber die großen KI Firmen erzählen das ständig und wenn man chat-gpt fragt "Wie hast du dein Wissen erworden. Erkläre mir den technischen Ablauf", dann sagt das KI auch ganz deutlich. Spätestens an dieser Stelle wird die Dokumentation sehr einseitig. Es werden immer nur "Gegner" von KI interviewed. Die "KI-Firmen" dürfen gar nicht gegen die Behauptungen argumentieren.

    KI wird dann im Fazit als absolut schlecht dargestellt. Der Energieverbrauch wird in überhaupt keinen Zusammenhang gebracht. Positive Anwendungen von KI werden komplett unterschlagen. Witzig auch "KI übernimmt vollständig das Internet". Ahh... Ich glaube den Leuten ist noch nicht so ganz klar, was das "Internet" überhaupt ist.

    In Summe würde ich sagen: Ja, da sind viele gute Punkte im Film, aber die Darstellung ist absolut einseitig und das gezeigt hat extrem wenig mit dem Filmtitel und dem Fazit der Dokumentation zu tun.

Werbung