Mein erstes Jahr...

  • Die Verfügbarkeit von KI ist eine Realität, an die wir uns gewöhnen müssen. Menschen, die Mühe damit haben, Texte zu verfassen, oder die einfach keinen Spaß daran haben, benutzen natürlich die KI. Daran ist auch gar nichts auszusetzen, das ist wie die Rechtschreibprüfung bei Word. Wir sind es nur noch nicht gewohnt.

    Der Unterschied besteht meiner Meinung nach auch nicht darin, ob die Verwendung einer KI angezeigt wird oder nicht. Das ist mir letztlich egal. Der qualitative Unterschied besteht darin, wie sehr die KI mit persönlichen, individuellen Infos gefüttert wurde.

    Einen Text auf Basis des Prompts "Verfasse einen Forumsbeitrag für ein Lehrerforum aus Sicht eines überforderten Berufseinsteigers, der um Rat bittet" braucht hier niemand. Ein Text auf Basis eines Prompts wie "Als Berufseinsteiger im Lehramt für XY habe ich folgende Probleme: Überforderung im Umgang mit der Klasse, Kollegium sind Einzelkämpfer, Schulleitung ist unfair, Schüler mögen mich nicht, Eltern machen mir Druck und mein Freund findet ich hab zu wenig Zeit. Verfasse einen Forumsbeitrag für ein Lehrerforum, der diese Probleme deutlich darstellt und um Rat bittet" ist da schon etwas anderes.

    Was meinst Du, welche Prompts ich eingegeben habe, um meinen Fake-Beitrag zu erstellen? :)

    Wenn wir Lehrkräfte Mühe hätten, eigene Texte zu formulieren oder das bei künftigen LehrerInnen-Generationen zu einem Problem werden sollte, dann können wir uns auch allesamt durch Maschinen ersetzen lassen - das ist ja eine der Ursuppen von Dystopien.

    Gruß
    #TheRealBolzbold

    Ceterum censeo factionem AfD non esse eligendam.

  • Das Angebot erzeugt auch die Nachfrage. Ich habe mal mit einer viel jüngeren Person gearbeitet (knapp 22 Jahre alt), und regelmäßig ihr ChatGPT-Account gesehen, wenn sie mir ihr Bildschirm freigab. Da waren allesamt Fragen wie "Bewerbungsschreiben", "Absage Bewerbungstermin", "Terminanfrage Bürgeramt", ...

    Und: es erleichtert tatsächlich sehr oft das Leben. Da muss man sich dessen bewusst werden.

  • Und: es erleichtert tatsächlich sehr oft das Leben. Da muss man sich dessen bewusst werden.

    Unbedingt. ich nutze das auch sehr häufig. Selbst schreiben ist nicht so mein Ding, aber was vorgefertigtes anpassen fällt mir leichter.

  • Wenn wir Lehrkräfte Mühe hätten, eigene Texte zu formulieren oder das bei künftigen LehrerInnen-Generationen zu einem Problem werden sollte, dann können wir uns auch allesamt durch Maschinen ersetzen lassen - das ist ja eine der Ursuppen von Dystopien.

    Ach, das sagst du aus Perspektive deines philologischen Hintergrunds. Ich habe viele MINT-Lehrer erlebt, die kaum oder nur mit Mühe in der Lage sind, einen kohärenten Text zu verfassen. Wir hatten das doch neulich in der Diskussion, welches Studium schwieriger ist. Letztlich geht es immer um persönliche Vorlieben und Begabungen.

    Es würde mir im Traum nicht einfallen, für einen Forumsbeitrag oder einen Email die KI zu öffnen und einen Prompt zu formulieren. Da bin ich schneller, wenn ich den Text selbst formuliere und dann bin ich auch zufriedener damit. Aber ich habe durchaus für einfache Berechnungen schon die KI genutzt, für die ich einfach zu faul war. Da hätten vielleicht die Mathekollegen den niedergang des deutschen Abendlandes ausgerufen.

  • Ich verwende auch KI, für Behördenbriefe, Elternbriefe, manchmal auch für Arbeitsblätter und warum soll ich sie nicht auch für Berechnungen verwenden? (Ich habe letzteres einmal gemacht, um einen Betrugsversuch einer Schülerin nachzuweisen. ChatGPT antwortete auf die Chemieaufgabe absolut identisch, ich war selbst überrascht. Seitdem jage ich manchmal eine Aufgabe durch, wenn ich mein Lösungsbuch nicht zur Hand habe oder einen ausführlichen Rechenweg möchte.)

    Aber ein Liebesbrief oder ein persönliches Entschuldigungsschreiben von ChatGPT? Ich nehme mal Extrembeispiele, ich würde weder Liebe noch eine Entschuldigung anerkennen, sondern das Gegenteil annehmen (mich "veräppelt fühlen"), wenn nicht sogar angelogen.

    Zum Thema, ich weiß nicht, was die TE persönlich betrifft und was ChatGPT meint, dass sie betrifft. Außerdem weiß ich, dass sie zweimal einen Thread mit denselben Worten eröffnet hat, leider wird mir am Tablet ihr 1. Kommentar nicht angezeigt (ich habe auf ihren Namen geklickt und auch gesucht). Ich habe daher falsch gedeutet, dass sie den 1. gelöscht hat und unter einem anderen Namen geschrieben hat, weil zwei Bescheid wussten. Sie hat weder geschrieben, dass sie Hilfe verwendet noch dass sie bereits einmal dasselbe geschrieben hat. Anscheinend hält sie uns für dumm, dass wir verschiedene Sachen auf dasselbe Problem antworten. Sie hätte ja den ersten Thread weiterführen und um genauere Antworten bitten können, weil das Problem immer noch besteht.

    Ich bin da ehrlich, wer von mir persönliche Ratschläge will, soll persönlich fragen, es muss nicht perfekt sein. Zum Gegenteil, man kann eher helfen, wenn man wirklich die persönlichen Probleme erkennt und nicht feine Worte sie verschleiern.

    WillG, ich habe in der Schule gelernt, dass ich nicht seitenweise aus anderen Büchern zitieren darf, selbst wenn ich die Quelle angebe, was hier nicht gemacht wurde. Politiker haben später wegen Plagiat ihren Doktortitel verloren. Manchen hat man den Vorwurf gemacht, dass sie nur Zitate aus anderen Werken aneinander gehängt haben. Diese Regeln galten bereits vor ChatGPT und gelten meiner Meinung nach noch immer. Ich verstehe daher deinen Einwand nicht. Ich bin übrigens überzeugte MINTlerin. Vielleicht sind meine Texte hier im Forum nicht perfekt, aber sie sind von mir. Ich muss hier nichts beweisen und mich mit fremden Federn schmücken.

    Bolzbold hat bewiesen, dass mit ein paar Prompts dasselbe herauskommt. Ich frage mich, wie lange die TE dafür benötigt hat und ob es wirklich 100 % ihre Probleme beschreibt und unsere Antworten ihr wichtig sind. Es geht mir gar nicht so um die TE, sie ist für sich selbst verantwortlich, sondern um das Forum. Ich fände es schade, wenn diese Mode hier um sich greift, ich stelle bei mir fest, dass ich auf lange wohlformulierte Erstbeiträge nicht mehr antworten möchte, sondern lieber abwarte.)

    Meine Beiträge werden auf einer winzigen Tastatur eines Tablets mit Autokorrektur geschrieben. Bitte entschuldigt Tippfehler. :mad:

  • Zu Plattenspielers Beitrag, ich dachte beim Lesen, dass sind nicht seine Worte, war kurz irritiert (und dachte auch an ChatGPT, musste kurz grinsen, du hast es ja erst später ergänzt, als ich bereits geschlafen habe).

    Wenn jemand Inhalte aus ChatGPT oder anderen Tools nutzt und diese als eigene Gedanken ausgibt, ohne das kenntlich zu machen, ist das tatsächlich nicht fair und kann sich wie eine Täuschung anfühlen

    Es ist Täuschung, was sollen Gefühle hier?
    Vielleicht regt mich diese Beliebigkeit auf? Alles wird schwammig ausgedrückt. "Kann sich wie eine Täuschung anfühlen" ist typisch für eine "Maschine" nicht für einen Menschen.

    Das Problem, Sprache verändert unsere Gedanken, alles wird beliebig, austauschbar. Ich habe heute eine Chemie-Klausur korrigiert, die Schüler schreiben nicht mehr klar, es ist so oder so, sondern man kann es vielleicht so ausdrücken... (selbst bei Fakten).

    Meine Beiträge werden auf einer winzigen Tastatur eines Tablets mit Autokorrektur geschrieben. Bitte entschuldigt Tippfehler. :mad:

  • Aber ein Liebesbrief oder ein persönliches Entschuldigungsschreiben von ChatGPT? Ich nehme mal Extrembeispiele, ich würde weder Liebe noch eine Entschuldigung anerkennen, sondern das Gegenteil annehmen (mich "veräppelt fühlen"), wenn nicht sogar angelogen.

    Ich fände es schade, wenn diese Mode hier um sich greift, ich stelle bei mir fest, dass ich auf lange wohlformulierte Erstbeiträge nicht mehr antworten möchte, sondern lieber abwarte.)

    Du beschreibst viele persönliche Sichtweisen. Das ist natürlich okay. Das hier ist ein Forum, in dem wir uns alle freiwillig und während unserer Freizeit aufhalten. Selbstverständlich darfst du eine Meinung dazu haben, auf welche Weise sich User hier äußern. Einen Liebesbrief von ChatGPT bräuchte ich jetzt auch nicht. Ob ich mich veräppelt oder angelogen fühlen würde? Keine Ahnung, ich glaube, das hängt stark davon ab, was ich von der Person weiß. Wenn ich weiß, dass die Person angemessen schreiben und formulieren könnte, dann wäre ich vielleicht auch wenig begeistert. Wenn ich wüsste, dass sie damit halt echt Probleme hat und bei aller Mühe nichts Ordentliches herauskommt, wäre das vielleicht anders.
    Aber das ist auch eine sehr persönliche Form der Interkation. Das ist so ein Forum ja nun gerade nicht. Ich würde sagen, die Kommunikation hier ist eher vergleichbar mit einem Behördenschreiben - man schreibt an jemanden, von dem man etwas möchte (hier: Hilfe, Rat, Unterstützung) und den man nicht kennt. Und in solchen Situationen setzt du ja auch KI ein.

    , ich habe in der Schule gelernt, dass ich nicht seitenweise aus anderen Büchern zitieren darf, selbst wenn ich die Quelle angebe, was hier nicht gemacht wurde. Politiker haben später wegen Plagiat ihren Doktortitel verloren.

    Absolut, aber das hier ist weder eine wissenschaftliche Arbeit noch eine Doktorarbeit. Stell dir vor, der Mitarbeitet im Finanzamt liest den Schreiben, das du mit Hilfe der KI erstellt hast, und verweigert es, dir zu helfen, weil dein Schreiben ein Plagiat darstellt.


    Ich verstehe schon, was du meinst. Auf dich wirkt es nicht seriös und du befürchtest, dass ein reines Troll-Posting sein könnte. Das kann auch sein, ich will mich für die TE gar nicht zu sehr aus dem Fenster lehnen. Ich meine nur, die Tatsache alleine, dass sie vermutlich mit KI gearbeitet hat, reicht aus meiner Sicht für den Verdacht nicht aus, weil viele halt Schwiergkeiten mit dem Schreiben von Texten haben - oder einfach keine Freude daran. Auch diese Art des Doppelpostings ist nicht unbedingt ein Hinweis, da oft die Verzweiflung so groß ist, dass es zu solchen wirren Threads kommt. Schau nur in den Nachbarthread, wo auch lange nicht so ganz klar wurde, was eigentlich das Problem der TE genau ist (- hätte sie mal mit KI gearbeitet :pfeifen:)
    Aber ja, zusammen genommen entsteht vielleicht schon ein Beigeschmack.

    Und ich wollte nicht sagen, dass alle MINTler Analphabeten sind. Eher in Bezug auf Bolzbolds Hinweis, dass man von Lehrkräften erwarten kann, dass sie gut formulieren. Das ist halt meiner Erfahrung nach gar nicht unbedingt immer der Fall. Und bei den Fällen, die das nicht können, sind nach meiner anekdotischen Erfahrung mehr MINTler als Sprachler, was ja auch irgendwo logisch ist.

  • Der Finanzbeamte antwortet auf mein Schreiben auch mit einem vorgefertigten Brief. Soll ich in Zukunft bei entsprechenden Fragen diese einfach in ChatGPT kopieren und die Antwort hier hinein kopieren? Und warum macht es dann die FragerIn nicht selbst? Schneller geht es auf jeden Fall.

    Ja, ich denke manchmal zu weit voraus. Für mich sind Foren persönlicher Austausch. Es muss nicht perfekt formuliert sein, bin auch nicht perfekt. Für mich wäre es das Ende des Forums. ChatGPT übernimmt alles, nicht nur sachliche Aufgaben. (Und wenn es ein Eigenleben führt oder von Staaten oder Milliardären manipuliert wird, dann merken wir es noch nicht einmal.)

    Meine Beiträge werden auf einer winzigen Tastatur eines Tablets mit Autokorrektur geschrieben. Bitte entschuldigt Tippfehler. :mad:

  • Und ich meine eben, wenn der Prompt die persönlichen Probleme der TE hier, oder des Steuerzahlers, der ein Anliegen beim Finanzamt hat, oder des Schülervaters, der um ein Gespräch bittet, konkret enthält, dann ist es immer noch persönlicher Austausch, auch wenn die KI den Brief verfasst hat.

    Letztlich ist es vielleicht auch wieder eine Frage der Grenzziehung. Nehmen wir mal verschiedene Szenarien bei einer Email von Eltern:

    • Der Akademiker, der aus Bequemlichkeit KI nutzt, statt selbst zu schreiben.
    • Der Akademiker, der nach einem harten Tag einfach platt ist und heute nicht mehr selbst schreiben möchte.
    • Der Fließbandarbeiter, der nach einem harten Tag einfach platt ist und heute nicht mehr selbst schreiben möchte, weil es ihm auch einfach schwer fällt, solche Briefe zu schreiben.
    • Der Fließbandarbeitet, der zwar heute frei hat und Zeit hätte, de es aber einfach schwer fällt, solche Briefe zu schreiben.
    • Der alleinerziehende Vater von drei Kindern, der überhaupt nicht weiß, wo ihm der Kopf steht, und deswegen dankbar zur KI greift.
    • Der Vater mit Migrationshintergrund, der kaum Deutsch spricht, aber gerne eine ordentlichen Brief formulieren möchte.
    • Der Vater mit Migrationshintergrund, der zwar recht gut Deutsch spricht, dem aber die Schriftsprache noch Mühe bereitet.

    Ist es bei irgendwem in dieser Liste okay, die KI zu verwenden? Und wo zieht man die Grenze?

  • Und ich meine eben, wenn der Prompt die persönlichen Probleme der TE hier, oder des Steuerzahlers, der ein Anliegen beim Finanzamt hat, oder des Schülervaters, der um ein Gespräch bittet, konkret enthält, dann ist es immer noch persönlicher Austausch, auch wenn die KI den Brief verfasst hat.

    Letztlich ist es vielleicht auch wieder eine Frage der Grenzziehung. Nehmen wir mal verschiedene Szenarien bei einer Email von Eltern:

    • Der Akademiker, der aus Bequemlichkeit KI nutzt, statt selbst zu schreiben.
    • Der Akademiker, der nach einem harten Tag einfach platt ist und heute nicht mehr selbst schreiben möchte.
    • Der Fließbandarbeiter, der nach einem harten Tag einfach platt ist und heute nicht mehr selbst schreiben möchte, weil es ihm auch einfach schwer fällt, solche Briefe zu schreiben.
    • Der Fließbandarbeitet, der zwar heute frei hat und Zeit hätte, de es aber einfach schwer fällt, solche Briefe zu schreiben.
    • Der alleinerziehende Vater von drei Kindern, der überhaupt nicht weiß, wo ihm der Kopf steht, und deswegen dankbar zur KI greift.
    • Der Vater mit Migrationshintergrund, der kaum Deutsch spricht, aber gerne eine ordentlichen Brief formulieren möchte.
    • Der Vater mit Migrationshintergrund, der zwar recht gut Deutsch spricht, dem aber die Schriftsprache noch Mühe bereitet.

    Ist es bei irgendwem in dieser Liste okay, die KI zu verwenden? Und wo zieht man die Grenze?

    Es sind alles berufliche Punkte, nicht persönliche Gefühle. Das wollte ich mit meinen Beispielen oben anführen. Wenn ich beruflich ChatGPT verwende, stehe ich dazu. Wenn es mir peinlich ist, lasse ich es.

    Aber ich habe überhaupt kein Problem, wenn jemand mir nur Prompts nennt ohne Geschwafel zum Gegenteil. (Ich erhalte manchmal auch schlecht "übersetzte" Briefe von Eltern, die schlecht Deutsch schreiben, absolut in Ordnung für mich).

    (Ich hatte im letzten Jahr einen Brief erhalten, 3 Seiten "schönste" Worte lang über ein Problem, dass man auch in 3 Zeilen hätte formulieren können. Ich ertappte mich beim Gedanken, was für ein Geschwafel und dass mir die Zeit zu schade ist, jetzt auch lange und breit darauf zu antworten. Also kurz, wenn der Vater einverstanden ist, dass auch ich ChatGPT bemühe ...

    Sinnvoller finde ich aber kurze Fragen und kurze Antworten. Da bin ich eindeutig Naturwissenschaftlerin. ;)

    Meine Beiträge werden auf einer winzigen Tastatur eines Tablets mit Autokorrektur geschrieben. Bitte entschuldigt Tippfehler. :mad:

  • ...

    Es würde mir im Traum nicht einfallen, für einen Forumsbeitrag oder einen Email die KI zu öffnen und einen Prompt zu formulieren. Da bin ich schneller, wenn ich den Text selbst formuliere und dann bin ich auch zufriedener damit.

    ... Selbst wenn es schneller ginge, dann kann ich doch auch gleich die KI zu Lösungen befragen. Sie formuliert bestimmt viele famose Ideen zu Problemen im ersten Jahr einer Lehrkraft. Der Witz ist doch aber der Austausch in einem Forum.

    Ich formuliere doch auch nicht meinen Tagebucheintrag per KI und speichere ihn ungelesen ab. Oder beim Therapeuten einen vorformulierten Text mitbringen zu "meine Ängste, Kindheit, Kellertreppe, Zusammenhänge" und der Therapeut dann so, Moment *tipp* "was sagt Freud zu Kellertreppe, Angst, Kindheit..." Und dann schickt man sich die Informationen zu ^^

  • Ja, okay, aber das hier ist doch auch ein berufliches Forum?

    Teilweise, ich würde dann viel weniger schreiben (Frage-Antwort oder gleich ohne Forum Chat-GPT).

    Und die TE ist zufrieden, wenn wir mit ChatGPT antworten? (Genau das habe ich soeben auch geschrieben, wenn der Vater einverstanden ist, von mir aus. Ich kann mich anpassen.) Oder will sie eine persönliche Antwort von uns? Ich erwarte keine von meinem Finanzbeamten.

    (Und noch einmal, ich mag weder Beliebigkeit noch Geschwafel von ChatGPT.)

    Meine Beiträge werden auf einer winzigen Tastatur eines Tablets mit Autokorrektur geschrieben. Bitte entschuldigt Tippfehler. :mad:

  • Na ja, ich unterstelle ja, dass die TE den Prompt sehr spezifisch auf ihre Probleme hin formuliert haben könnte:

    Einen Text auf Basis des Prompts "Verfasse einen Forumsbeitrag für ein Lehrerforum aus Sicht eines überforderten Berufseinsteigers, der um Rat bittet" braucht hier niemand. Ein Text auf Basis eines Prompts wie "Als Berufseinsteiger im Lehramt für XY habe ich folgende Probleme: Überforderung im Umgang mit der Klasse, Kollegium sind Einzelkämpfer, Schulleitung ist unfair, Schüler mögen mich nicht, Eltern machen mir Druck und mein Freund findet ich hab zu wenig Zeit. Verfasse einen Forumsbeitrag für ein Lehrerforum, der diese Probleme deutlich darstellt und um Rat bittet" ist da schon etwas anderes.

    Wenn du jetzt ihren (vielleicht) von ChatGPT produzierten Text bei ChatGPT reinkopierst und als Prompt nur schreibst: "Verfasse eine Antwort", dann ist natürlich keinem geholfen.

    Wenn du aber ein paar Ideen hast, aber keine Zeit oder Lust hast, diese auszuformulieren, und deswegen ihren Post reinkopierst und als Prompt sowas ergänzt wie: "Schreibe eine tröstende Antwort. Berücksichtige folgende Aspekte: typische Anfängerfehler; professionelle Distanz, keine Beliebtheitswettbewerb; Kooperation mit Kollegen; klare Abgrenzung von Forderungen der Eltern; konkrete Tipps fürs Zeitmanagement, v.a. Pareto, Pomodoro, Eisenhower" - dann hat das schon eine andere Qualität. Und ja, warum nicht?

  • Ist es bei irgendwem in dieser Liste okay, die KI zu verwenden? Und wo zieht man die Grenze?

    In Fällen, in denen die Schreibskompetenz schwach ist (Fall 3/4/6/7), wäre für den Lernfortschritt eine selbst formulierte, vermeintlich fehlerhafte Nachricht dennoch besser als das perfekte Schreiben, das der Betroffene im schlechtesten Fall kognitiv nicht überblicken kann. Wir bringen Kindern und Jugendlichen die Grundkompetenzen auch bei, um mündig und autonom handeln zu können. Dasselbe Recht haben im Sinne des lebenslangen Lernens natürlich auch Erwachsene, die aus welchem Grund auch immer diese Kompetenzen noch nicht oder nur teilweise erworben haben.

    Hilfsmittel wie ein Taschenrechner oder eine KI können zur Erleichterung eingesetzt werden, vorausgesetzt, ich bin mit der Thematik insoweit vertraut, dass ich nachvollziehen kann, ob das Ergebnis sinnig erscheint, es erklären und im Zweifelsfall auch ohne Hilfsmittel produzieren könnte. Häufiger Gebrauch kann auch dazu führen, dass vermeintlich verinnerlichtes Wissen aufgrund fehlender Übung verloren geht. Dann wäre es eher problematisch, wenn man dem Ergebnis vom Taschenrechner oder der KI blind vertraut. Mit Abstrichen könnte ich mir daher im Rahmen deiner Beispiele noch am ehesten bei Fall 1 vorstellen, dass der Einsatz mehr Vor- als Nachteile bringt.

  • Ich hab das eben mal gemacht:

  • In Fällen, in denen die Schreibskompetenz schwach ist (Fall 3/4/6/7), wäre für den Lernfortschritt eine selbst formulierte, vermeintlich fehlerhafte Nachricht dennoch besser als das perfekte Schreiben, das der Betroffene im schlechtesten Fall kognitiv nicht überblicken kann.

    Die Frage war aber ja nicht, was pädagogisch sinnvoller ist, sondern was man akzeptabler finden würde.
    Ich würde es mir als erwachsener Schülervater übrigens verbitten, wenn mir der Lehrer meines Kindes sagen würde, dass ich doch zur Verbesserung meines Schriftdeutschs bitte auf Hilfsmittel verzichten soll. Das wäre schon ziemlich übergriffig.

  • Na ja, ich unterstelle ja, dass die TE den Prompt sehr spezifisch auf ihre Probleme hin formuliert haben könnte:

    Wenn du jetzt ihren (vielleicht) von ChatGPT produzierten Text bei ChatGPT reinkopierst und als Prompt nur schreibst: "Verfasse eine Antwort", dann ist natürlich keinem geholfen.

    Wenn du aber ein paar Ideen hast, aber keine Zeit oder Lust hast, diese auszuformulieren, und deswegen ihren Post reinkopierst und als Prompt sowas ergänzt wie: "Schreibe eine tröstende Antwort. Berücksichtige folgende Aspekte: typische Anfängerfehler; professionelle Distanz, keine Beliebtheitswettbewerb; Kooperation mit Kollegen; klare Abgrenzung von Forderungen der Eltern; konkrete Tipps fürs Zeitmanagement, v.a. Pareto, Pomodoro, Eisenhower" - dann hat das schon eine andere Qualität. Und ja, warum nicht?

    Jetzt müsste die TE antworten, was sie erwartet hat.

    Ich persönlich werde ich Zukunft nicht mehr antworten.

    (Übrigens, ein Drittel aller ChatGPT-Antworten und die der Konkurrenz soll russische Fakes enthalten. Angeblich flutet Russland mit Fake-Nachrichten das Internet, um genau das zu erreichen. Künstliche Intelligenz: Russland manipuliert westliche Chatbots für seine Propaganda - DER SPIEGEL)

    Meine Beiträge werden auf einer winzigen Tastatur eines Tablets mit Autokorrektur geschrieben. Bitte entschuldigt Tippfehler. :mad:

  • Ich hab das eben mal gemacht:

    Was für ein Geschwafel. Findest du die Antwort gut? Hier werden sämtliche "Vorurteile" von mir bestätigt.

    Ich wollte sie nicht erhalten.

    (Und du warst sehr schnell. Ich gehe davon aus, dass auch die TE nicht länger benötigt hat. Für mich bedeutet es, ist nicht wichtig genug, um Zeit hinein zu stecken.)

    Meine Beiträge werden auf einer winzigen Tastatur eines Tablets mit Autokorrektur geschrieben. Bitte entschuldigt Tippfehler. :mad:

Werbung