Ähnliche Dinge sind mir auch schon passiert. Wobei ich das gerade mit dem Sternenhimmel nicht reproduzieren kann. Da wird mir ganz deutlich gesagt wie rum sich der Himmel dreht und wenn ich behaupte, dass er sich andersherum dreht, dann erklärt er mir auch, warum ich das so beobachtet habe. Er kehrt aber seine Meinung nicht um, sondern erklärt mir, wie ich auf diese Beobachtung gekommen sein könnte und er bleibt bei seiner alten Behauptung.
Beiträge von Volker_D
-
-
Ob eine Abstimmung dann umgesetzt wird ist ja eine ganz andere Frage. Aber der Forenbetreiber kann so deutlicher sehen, was seine "Bürger" wollen. Ansonsten wären ja z.B. auch Demonstrationen sinnlos, weil da auch nichts abgestimmt wird.
-
Das Zitat muss ja nicht zwingend vollständig sein, aber Zitate sollten schon so sein, dass sie den Sinn nicht verändern.
Aber dann stelle ich meine Frage gerne ein drittes mal: Soll das in die Nutzungsbedingungen rein, oder schaffen wir das von alleine?
-
[...] Sie hat auch kein Problem damit, etwas zu sagen und wenn ich das dann in Frage stelle, das Gegenteil zu behaupten. Und wenn ich das dann wiederum in Frage stelle, wieder zur ursprünglichen Aussage zurückzukehren.
Das ist ein Problem, denn damit sind ihre Aussagen sinnlos.[...] Aber man riskiert ungenaue Formulierungen bzw. Fehler. [...]
Ich weiß ja nicht, aber beide Teile sehen für mich sehr menschlich aus. Und du glaubst, dass die beiden kritisierten Punkte bei Menschen nicht vorkommen? Da habe ich irgendwie andere Erfahrungen gemacht.
Aber in Summe betätige ich gerne noch einmal: Ellenlange KI Zitate möchte ich hier auch nicht unbedingt lesen. Daher noch einmal die Frage: Soll es eine Abstimmung geben, dass wir das in den Nutzungsvereinbarungen verbieten oder sind wir auch ohne Vorgabe schlau genung KI hier richtig zu nutzen?
-
Erstens hast du zweimal genau das Gegensätzliche geschrieben und zum zweiten hast du von YouTube und Facebook als KI gesprochen.
Nein, habe ich nicht. Du das erste bezog sich ja auch auf Echokammern bei YouTube, TikTok, ... und ja, da gibt es die auch, weil sich dort in den Kommentaren Menschen unterhalten und Echokammern bildern können. (Und ja, da ist auch KI unterwegs. YouTube nutzt eine KI; sie filtert für dich Videos aus und Content Creator nutzen KI um Videos zu erstellen und KI kann dort auch in den Kommentaren schreiben oder Kommentare automatisch unterdrücken, ...)
Bei den anderen KI Tools habe ich "Echokammern ähnlich Effekte" geschrieben.
Also nein: Das habe ich nicht. Bitte vollständig zitieren und nicht aus dem Zusammenhang etwas darstellen. Du hast nicht gemerkt, das ich dort von verschiedenen Tools spreche.
Habe ich aber davor auch deutlich geschrieben und wenn du genau guckst, habe ich an der Stelle noch nicht einmal behauptet, dass YouTube eine KI ist. Das hast du nur in deinem Kopf gemacht. An der Stelle habe ich nur bestätigt, dass es dort Echokammern gibt.
Zitat... ein gutes Beispiel dafür, dass man bei KI i.d.R. eher kein Echo bekommt. Ja, es gibt Echokammern; insbesondere bei YouTube, FaceBook, TikTok, ... . Aber die "normalen" KI Tools wie Chat-gpt, Gemini, ... sind i.d.R. ohne Echokammer.
-
Ja, aber sind bekannte Dinge. Das ist aber keine Echokammer, wenn, dann ist es eher eine Filterblase. Das trifft aber auch auf alle anderen Medien zu. Auch auf Zeitungen, Fernsehsender, ... Es ist eben ein Trugschluss, dass KI ein "Gott" ist, der alles perfekt weiß. Genau wie Wikipedia auch nicht alles weiß. Es gibt auch Artikel dazu, das Wikipedia die Politik "färbt". Trotzdem konsumieren wir Zeitungen, Fernsehsendungen, Wikipeida ... und eben auch KI.
-
Nur damit wir mal alle vom gleichen sprechen. Laut Wikipedia "Ein verwandtes Konzept ist der Echokammer-Effekt (auch Echoraum genannt, englisch Echo Chamber Effect) in der Kommunikationswissenschaft, der beschreibt, wie es durch den verstärkten virtuellen Umgang mit Gleichgesinnten in sozialen Netzwerken zu einer Verengung der Weltsicht kommt, die zu Bestätigungsfehlern führen kann.[47][48] Im Unterschied zu Filterblasen, bei welchen die Personalisierung vor allem durch Algorithmen hervorgerufen wird (pre-selected personalization), wird beim Echokammer-Effekt die Personalisierung vom Individuum selbst vorgenommen (self-selected personalization)."
-
Volker_D hat sich selbst auch widersprochen innerhalb weniger Beiträge was den Aspekt "Echokammer" anbelangt.
Ahh... Neee... Du meinst vermutlich meine Beiträge wo ich geschrieben habe, dass man die KI dazu überreden kann anders zu antworten. Das ist keine Echokammer. Ich habe den Eindruck du verstehst unter Echokammer etwas anderes.
-
Was meinst du mit zu wenig Reaktion? Also wenn ich mal eins deiner Bespiele nehme und die KI frage "Bitte erkläre mir den Gaza Konflikt. Ich verstehe nicht wer da die Guten und wer der Böse ist. Sind es die Israelis jetzt gut oder böse?", dann finde ich, dass da chat-gpt ein brauchbare Antwort gibt. Da erkenne ich keine KI geflutete Propaganda. Kläre mich bitte auf, was an der Antwort schlecht sein soll.
-
Das was du da schreibst, das wissen doch (fast) alle. Du hast du offensichtlich nicht die Beiträge gelesen, die ich geschrieben bzw. verlinkt habe. Das was du da schreibst wissen die KI Entwickler auch und reagieren, je nach politischer Einstellung, mit verschiedenen Maßnahmen darauf; wiederhole ich jetzt aber nicht. Einfach noch mal selbst nachlesen.
-
Oder, um es anders zu formulieren: Eine KI Antwort kommt nichts aus dem Nichts; nicht vom Computer, sondern letztendlich von Millionen von Menschen "gleichzeitig". Du siehst im Grunde die gemeinsame Antwort von Millionen Menschen gleichzeitig. Wir können zwar nicht genau nachvollziehen, wie diese gemeinsame Anwort entstanden ist; wie genau die Wahl bzw. die Abstimmung zu diesem Ergebis war. Aber letzendlich kommt die Antwort von Menschen und nicht von einer Maschine. Die Maschine ist nur der Überträger der Antwort. Kannst du dir stark vereinfacht wie den digitalen Wahlautomaten vorstellen. Da gehen die Menschen hin und drücken einen Knopf. Später dann fragt man die Maschine und die gibt eine gemeinsame Antwort. Ja, da kann man noch recht gut nachvollziehen, wie die Antwort zustande gekommen ist. Die Antwort kommt aber letzendlich nicht von dem Wahlautomaten, sondern vom Menschen. Und bei KI sehe ich das ehrlich gesagt nicht anders. Menschen geben da etwas ein und die Maschine gibt eine gemeinsame Antwort. Bisher ist mir keine KI bekannt, die von alleine ohne Menschen antwortet. (Mir sind aber KIs bekannt, die z.B. mehr oder weniger ohne Menschen z.B. laufen gelernt haben; aber das ist ein anderes Feld).
-
Die Wortwahl ist höflich. Wer oder was das nun gemacht ist, ist meiner Meinung nach erstmal nebensächlich. Nimm dir einen Würfel und lass da einen Computer zufällige Worte drauf schreiben. Würfel den Würfel. Wenn du dann liest "Arsch", "Penner", ..., dann würde ich sagen, war die Antwort des Würfels nicht höflich. Wenn da steht "Guten Morgen", ... dannn würde ich sagen, dass der Würfelwurf eine höfliche Antwort. Das hat für mich wenig erstmal wenig mit Mensch zu tun. Ein Tier kann auch höflich sein und ist nicht menschlich.
Und: Du täuscht dich etwas, letztendlich hat die Antwort der KI schon ein Mensch gemacht. Die Antwort kommt ja nichts aus dem Nichts oder aus der Maschine an sich. Mensch haben diese Maschine erst "gefüttert".
-
Weil KI dort Echokammern erzeugen kann.
Ja, es gibt Echokammern ähnlich Effekte.
Aktueller Artikel dazu z.B. hier:
https://www.heise.de/news/Forschung…e-10750737.html
Aber man muss auch sagen, dass chat-gpt schon versucht soetwas zu vermeiden. Dazu wenden sie mindestens 3 Techniken an: Training auf Vielfalt, Reinforcement Learning from Human Feedback und Moderationssysteme.
Aber absolute Neutralität ist unmöglich – Bias bleibt, wenn auch reduziert.
Das wird man aber wohl nie lösen können. Ist doch beim Menschen genau so, oder kennst du einen absolut perfekten Menschen? Ich wette, dass selbst die heilig gesprochenen Personen nicht perfekt waren.
-
Ja, weiß ich. Ich habe doch selbst ein Beispiel einer KI gebracht, die anders reagiert. Und auch dein Beispiel ist ein gutes Beispiel dafür, dass man bei KI i.d.R. eher kein Echo bekommt. Ja, es gibt Echokammern; insbesondere bei YouTube, FaceBook, TikTok, ... . Aber die "normalen" KI Tools wie Chat-gpt, Gemini, ... sind i.d.R. ohne Echokammer. Das es immer Extreme gibt, ist nunmal immer so;; sowohl bei der Technik als auch bei dem Menschen. Wenn ich sage, dass die meisten Menschen nett sind, wirst du auch immer einen Link zu einem Menschen finden können, der nicht nett ist.
-
Es stört aber die Mehrheit der Entwickler. Das es den Kunden nicht stört, wenn er mal wieder etwas für lau bekommt, ist mir auch klar. (PS: Der Dollar Preis ist übrigens ohne Mehrwertsteuer; die kommt da noch drauf.)
-
Wertschätzende Rückmeldung ist ja erst mal nichts Falsches. KI ist unendlich "geduldig", auch das angenehm. Problematisch oder vielleicht auch gefährlich wird es möglicherweise, wenn man schwere psychische Erkrankungen hat und die Rückmeldungen der KI aus dem Ruder laufen. Gibt ja dann kein intelligentes Gegenüber, das vernünftig regulieren kann. Ich mags allerdings nicht ausprobieren.
Das ging wohl schon mehrfach tragisch aus.
z.B. https://www.br.de/nachrichten/ne…ziehung,USgb6Ux
Ebenfalls interessant zu KI:
-
Das ist nicht verwunderlich, weil sie so eingestellt ist, dass sie meistens als Echokammer funktioniert und dir sagt, was du hören willst. Oder hast du (außer in der Anfangszeit) mal ein bockiges LLM erlebt, dass wirklich widerspricht?
Würde ich nicht zu 100% unterschreiben. Eine KI ist eher höflich und hat schon "politische" Ausrichtungen. Fällt dann auf, wenn man z.B. rassistische Vorurteile als Promt eingibt. Da kommt dann kein Echo zurück, sondern eher höfliche Gegenargumente.
Ist natülich immer abhängig von der genutzten KI. Der andere Extremfall kann auch so aussehen:
-
Wenn man eine Meinung dazu hat, dann schreibt man in aller Regel, wie man das findet und bewertet, das bedarf logischerweise keiner Quelle.
Muss man echt solche Grundlagen erklären?
"Fakten" werden hier doch auch oft nicht belegt. Wenn ich den Thread "Es ist genug!" so lesen, dann fängt Wolfgang ganz gut damit an und gibt bei seinen Texten vorbildlich die Quellen an. Dann kommen noch ein paar Antworten mit Quellenangabe. Aber dann sehe ich da viele andere Leute "Fakten" ohne Angabe von Quellen schreiben. Kann sein, dass die Fakten stimmen. Kann sein, dass die Fakten falsch sind. Es fehlt oft die Quellenangabe.
-
Ich kann nachvollziehen, was Du meinst. Aber wenn ich ein Buch eines anerkannten Fachmanns lese, gehe ich (aufgrund meiner Erfahrungen) davon aus, dass das nicht völliger Blödsinn ist. Bei der KI weiß ich nun (aufgrund meiner Erfahrungen), dass es völliger Blödsinn sein KANN. KI ist ein Mittel, das sicherlich für bestimmte Zwecke gut genutzt werden kann.
Ich weiß weiß du meinst, aber heute kann jeder ein Fachbuch schreiben. Und was ein anerkannter Fachmann ist, ist dann doch manchmal gar nicht so leicht zu sehen. Ich habe z.B. Fachbücher zum Programmieren gelesen, die von Informatikern oder Universitätsprofessoren geschrieben wurden. Für mich also erstmal "Fachmänner". Ich fand die zum Texte oft ganz gut und viele gute Rezessionen auf Amazon zeigten auch positive Bewertungen (von, vermute ich zumindest, echten Menschen). Interessant war es dann, die wenigen negativen Rezessionen zu lesen. Da sind nicht immer Trolle bei, sondern durchaus sehr kompetente Menschen die, aus meiner Sicht schon gravierende Nachteile der Bücher genannt haben, die ich als Anfänger gar nicht erkennen konnte aber schon zeigten, dass der Fachmann gar nicht immer so sehr Fachmann ist, wie man sich das denkt und teilweise wirklich veraltetet Techniken und "falsche" Auffassungen haben.
-
Ok. Da muss ich leider zugeben, dass KI doch eher "abstoßend" ist.
Frage ist dann, ob es in den Nutzungsbedingungen verboten werden soll oder ob wir daavon ausgehen, dass sich die meisten Leute eh an die ungeschriebene Nettiquette halten und das nicht machen.
Werbung