Zu Inhalt springen

ChatGPT / KI abseits des RPG

Hervorgehobene Antworten

7 Stunden her, LarsB schrieb:

Ich zu meinem Teil will es mal so ausdrücken: Jede KI ist nur so klug, wie es der KI-Benutzer ist. Punkt. Daher hilft es, ein "Querdenker" zu sein.

Im "alten" Sinn von "Querdenker" - als jemand, der hinterfragt und kritisch denkt - ja.

Leider gibt es seit Covid sozusagen "neue" sogenannte "Querdenker", die unhinterfragt und ohne kritisches Denken Behauptungen vertreten, die einer sachlichen Überprüfung nicht standhalten. Ein solcher selbsternannter "Querdenker" zu sein, hilft niemand - außer vielleicht denjenigen, die die genannten Behauptungen lancieren, um damit unsere Gesellschaftsordnung zu destabilisieren.

Ja, du kannst es mittlerweile etwas feintunen, insgesamt ist die Sprache aber fast immer wenig individuell und neigt dazu, bestimmte Wörter untypisch häufig zu verwenden.

Gerade, wenn man den typischen Schreibstil von jemanden kennt, fällt ein GenAI- Text auf. (Außer in dem Spezialfall, dass das Modell nur an eigenen Texten trainiert wurde, dann kriegst du einen sehr durchschnittlichen Text in deinen sehr typischen Stil.)

Der Musiker Angela Aux hat kürzlich erzählt, dass er Musik-KI mit seiner eigenen Musik füttert und dann als Sparringspartner und Herausforderung nutzt: das Ergebnis der KI ist der Durchschnitts-Angela Aux und damit das, was er nicht neu schaffen will. Solche Sachen verwirft er dann früh. Auch ein interessanter und m.E. sinnvoller Einsatz.

10 Stunden her, Francesco di Lardo schrieb:

Ich glaube, es gab kürzlich eine Umfrage vom Branchenverband Bitkom (kann mich nicht mehr genau erinnern), nachdem schon um die 50% der Schüler in der 7. Klasse (!) sich von KI bei den Hausaufgaben "helfen" lassen.

Meine Tochter und ich müssten das auch mit "ja" beantworten, wenn es um Sachen geht wie "wir war noch gleich die Formel für den Rauminhalt einer Kugel". Diese Frage hätten wir auch einfach googeln können, aber es gab ein paar solche Nachschlagepunkte, die wir mit Chatti einfach am schnellsten erledigt hatten.

Bei manchen Schulaufgaben, die man 1:1 in ChatGPT eingeben und eine gute Lösung heraus bekommen kann, darf man schon die Sinnfrage stellen. Ich hätte es mir z.B. gewünscht, dass meine Kinder in Latein viel mehr an Strukturen und dem Sinn von Sätzen und Texten geknobelt hätten, und viel weniger Vokabeln auswendig gelernt hätten - einschließlich Formen. Warum müssen die alle Endungen auswendig lernen, wenn man die einfach nachschlagen kann (wer zu viel nachschlagen muss, dem reicht eh' die Zeit nicht)? Warum kann man die Zeit nicht stattdessen damit verbringen, die Struktur eines Satzes zu erfassen und daraus eine sinnvolle Übersetzung abzuleiten?
Natürlich kann man die üblichen Matheaufgaben "ich gebe Dir eine Seite und die Höhe einer Pyramide, rechne mir das Volumen aus" tatsächlich 1:1 in ChatGPT eingeben und eine richtige Antwort heraus bekommen - und wahrscheinlich stellt einem das Ding auf Nachfrage auch noch den Rechenweg dar. Der Lerneffekt ist da ja, dass man heraus arbeitet, welche gegebenen Werte man in welche Formeln einträgt, um welche anderen Werte zu erhalten, mit denen man am Ende die gestellte Frage beantworten kann. Da kommt hinzu, dass die richtige Antwort via ChatGPT von der erarbeiteten richtigen Antwort praktisch nicht zu unterscheiden ist, so dass man das suboptimale "lösen" nicht einmal bemerkt.

Ich verbiete ihnen nicht, ChatGPT zu benutzen, aber ich betone immer wieder, dass sie verstehen müssen, was sie fragen, was herauskommt, und warum das heraus gekommen ist.

Ich selbst habe für das Abenteuer, das ich gerade schreibe, ziemlich viel zu den Auswirkungen von Unterkühlung usw. und zu Reisegeschwindigkeiten bei ChatGPT erfragt. An sich müsste ich das wohl mit nochmal so viel Zeit für Plausibilitätsprüfungen begleiten. Ehrliche Antwort: habe ich bisher nicht gemacht. Was ChatGPT ausgespuckt hat, klang für mein bruchstückhaftes Laienwissen plausibel. Ich habe es aber auch - sozusagen probeweise - nach Midgard-Sachen gefragt, und bekam im Brustton der Überzeugung kompletten Quark serviert. Nun ja...

Aber nochmal: wir sollten KI nicht pauschal ablehnen, nur weil sie massive Schwächen hat. Wir müssen unsere Kinder dazu ausbilden, damit fertigzuwerden.

4 Stunden her, Widukind schrieb:

Diese Meinung teile ich nicht. Gerade zu geschichtlichen Ereignissen gibt Rees eigentlich immer ein Kapitel über die Vorgeschichte und Ausgangslage, meist sogar mir den entsprechenden Querverweisen.

Rees?

Ich wundere mich - nun, da ich die Vorgehensweise von ChatGPT als so-ne-Art-Silben-aneinander-reiher erfasst habe - in wie vielen Fällen das Ding eben gerade keinen kompletten Blödsinn liefert.

Nachdem das Ding keine Frage verstehen kann, sondern nur danach geht, was nach einer Frage am häufigsten weiter geschrieben wird, finde ich es erstaunlich, dass trotzdem fast immer auf eine Frage nicht irgendeine Diskussion oder irgendetwas ganz anderes, sondern eine Antwort auf genau diese Frage kommt.

Von Bildern ganz zu schweigen. Wenn auf "ein Glücksritter" ein Bild folgt, das einen Glücksritter darstellen könnte, dann heißt das ja, dass auf diese Worte zumindest als Bild - wenn man annimmt, dass er Bilder als solche erkennt und dann bei der Bildgenerierung nur auf diese Bezug nimmt - wirklich überwiegend solche Bilder folgen. Und das gilt auch für "blickt nach unten" oder "verdreht die Augen" oder "steht aufrecht" oder oder oder. Um das alles so heraus zu bekommen, muss das ja mit Abermillionen Bildern trainiert worden sein, die auch noch sehr ausführlich beschrieben sind. Klar, das Internet ist riesig, aber ich finde das trotzdem bemerkenswert, dass die Trefferquote an sich durchaus hoch ist.

Vor 12 Minuten, Kazzirah schrieb:

Gerade, wenn man den typischen Schreibstil von jemanden kennt, fällt ein GenAI- Text auf. (Außer in dem Spezialfall, dass das Modell nur an eigenen Texten trainiert wurde, dann kriegst du einen sehr durchschnittlichen Text in deinen sehr typischen Stil.)

Ich denke nicht. Schau Dir die Ausgabe des Pro-Modells an. Das könnte genauso ein lektorierter Text sein. Die Ausgabe des kleinen Modells ist da auf einem viel niedrigerem Niveau.

Vor 24 Minuten, Abd al Rahman schrieb:

Ich denke nicht. Schau Dir die Ausgabe des Pro-Modells an. Das könnte genauso ein lektorierter Text sein. Die Ausgabe des kleinen Modells ist da auf einem viel niedrigerem Niveau.

Ich nutze beide Versionen. Ich habe Texte aus beiden Versionen gesehen. Ja, die Pro-Version ist da weniger enervierend. Ja, es wird schwerer zu erkennen, es bleibt aber weiter eine Durchschnittserzeugungsmaschine, das ist im Kern der Modelle angelegt. Das ist nichts genuin schlechtes, für die meisten Gebrauchstexte ist das völlig in Ordnung.

Vor 7 Minuten, Kazzirah schrieb:

Ich nutze beide Versionen. Ich habe Texte aus beiden Versionen gesehen. Ja, die Pro-Version ist da weniger enervierend. Ja, es wird schwerer zu erkennen, es bleibt aber weiter eine Durchschnittserzeugungsmaschine, das ist im Kern der Modelle angelegt. Das ist nichts genuin schlechtes, für die meisten Gebrauchstexte ist das völlig in Ordnung.

Das Thema war, ob man erkennt wenn was KI-generiert ist oder nicht. Das Pro-Modell mit den ganzen Einstellungen (ich bin nichtmal wirklich in die Tiefe gegangen) macht es so gut wie unmöglich.

7 Stunden her, Irwisch schrieb:

Okay. Nachfrage: Wie erkennst du ob etwas KI generiert ist? Weil potentiell sehe ich schon das KI rasant besser wird und damit ggf auch die Möglichkeit einen KI-Text(oder anderes) als solchen zu erkennen. Ich mein schon in meinem Studium hat ein Dozent alles nur noch handschriftlich verlangt weil "Dann haben sie sich wenigstens einmal mit dem text beschäftigt, und wenn es nur das abschreiben von jemand anderem war"

Handschriftlich ist auch eine oft von mir gewählte Option.

Ich erkenne es bei den ganz schlauen an der ersten Zeile: Gerne mache ich das für dich wird stehengelassen.

Ansonsten wenn es plötzlich keine Rechtschreibfehler gibt und Stil und Diktion doppelt so gut sind: Hallo KI.

Wenn ich einen Text genau kenne, und weiß, was Schüler daraus machen und ich bei einer Arbeit sehe, dass prominent angebrachte Dinge als Argument nicht vorkommen, während ein Argument, dass schwer zu finden ist, von allen genannt wird, dann war KI im Spiel.

MaKai:

Ich selbst habe für das Abenteuer, das ich gerade schreibe, ziemlich viel zu den Auswirkungen von Unterkühlung usw. und zu Reisegeschwindigkeiten bei ChatGPT erfragt. An sich müsste ich das wohl mit nochmal so viel Zeit für Plausibilitätsprüfungen begleiten. Ehrliche Antwort: habe ich bisher nicht gemacht. Was ChatGPT ausgespuckt hat, klang für mein bruchstückhaftes Laienwissen plausibel. Ich habe es aber auch - sozusagen probeweise - nach Midgard-Sachen gefragt, und bekam im Brustton der Überzeugung kompletten Quark serviert. Nun ja...

Genau deshalb ist Wissen wichtig. Wer nix weiß, muss alles glauben.

Dubrauchst Grundwissen, um Sachen einordnen zu können.

8 Stunden her, Ma Kai schrieb:

Rees?

Vor 30 Minuten, Widukind schrieb:

Das verstehe ich nicht

Vor 24 Minuten, Blaues Feuer schrieb:

Ich hab - wie Ma Kai - auch nicht verstanden, wer oder was Rees ist und was er/sie/es mit Geschichtsbeiträgen in Wikipedia zu tun hat.

Ok, war ein Fehler, sollte nur "es" heißen.

8 Stunden her, Kazzirah schrieb:

Ja, du kannst es mittlerweile etwas feintunen, insgesamt ist die Sprache aber fast immer wenig individuell und neigt dazu, bestimmte Wörter untypisch häufig zu verwenden.

Gerade, wenn man den typischen Schreibstil von jemanden kennt, fällt ein GenAI- Text auf. (Außer in dem Spezialfall, dass das Modell nur an eigenen Texten trainiert wurde, dann kriegst du einen sehr durchschnittlichen Text in deinen sehr typischen Stil.)

Die KI muss nicht zwingend auf den eigenen Stil trainiert sein, wenn man es richtig macht, reicht "grounding."

Training: Beim Training lernt ein LLM einmalig aus sehr großen Textmengen statistische Zusammenhänge zwischen Wörtern und Sätzen, wodurch seine grundlegenden Fähigkeiten entstehen.

Grounding: Beim Grounding greift ein bereits trainiertes LLM zur Laufzeit auf konkrete, externe Informationen (z. B. Dokumente, Datenbanken oder Tools) zu, um seine Antworten aktuell, überprüfbar und kontextbezogen zu machen.

9 Stunden her, Kazzirah schrieb:

Der Musiker Angela Aux hat kürzlich erzählt, dass er Musik-KI mit seiner eigenen Musik füttert und dann als Sparringspartner und Herausforderung nutzt: das Ergebnis der KI ist der Durchschnitts-Angela Aux und damit das, was er nicht neu schaffen will. Solche Sachen verwirft er dann früh. Auch ein interessanter und m.E. sinnvoller Einsatz.

Was mal wieder zeigt, dass das Problem nicht das Tool ist, sondern wie man es einsetzt.

Wir erleben, dass viele diese Tools einfach ohne nachzudenken einsetzen (siehe @sarandira s Wunsch diesbezüglich), weil es bequem ist und Probleme so prima zu lösen scheint, auch wenn das faktisch nicht der Fall ist.

2 Stunden her, EK schrieb:

Genau deshalb ist Wissen wichtig. Wer nix weiß, muss alles glauben.

... was im Übrigen den Effizienzvorteil von KI - man kriegt schneller schön aufbereitete Ergebnisse, als wenn man sich durch die drei, vier ersten Google-Ergebnisse durchfressen und selbst daraus extrahieren muss, was denn daran stimmt - ziemlich zunichte macht.

Alles wissen kann man nicht. Und ganz ehrlich, wenn ich mein bisheriges Leben damit zugebracht hätte, Detailwissen auf dem Niveau "wie viele Kilometer pro Tag legt man mit Schneeschuhen auf der arktischen Tundra zurück" anzuhäufen, dann hätte mir das auch nur begrenzt Spaß gemacht. Ich brauche jetzt gerade in genau diesem Bereich genau dieses Stückchen Wissen, aber wenn ich so etwas "auf Verdacht" vorher "richtig" gelernt hätte, für alle möglichen Anwendungen (vielleicht machen wir auch mal ein Dschungel-Abenteuer...), dann wäre ich wahnsinnig geworden...

Irgendwie braucht man genug "Referenzwissen" - und die Herausforderung ist eher, das zu definieren, als das zu lernen.

9 Stunden her, Ma Kai schrieb:

Ich wundere mich - nun, da ich die Vorgehensweise von ChatGPT als so-ne-Art-Silben-aneinander-reiher erfasst habe - in wie vielen Fällen das Ding eben gerade keinen kompletten Blödsinn liefert.

Hier wird das gut erklärt.

https://youtu.be/MsqL9fzOzXU?si=qG_XZm9x8TVX7BLE

Vor 2 Minuten, Ma Kai schrieb:

... was im Übrigen den Effizienzvorteil von KI - man kriegt schneller schön aufbereitete Ergebnisse, als wenn man sich durch die drei, vier ersten Google-Ergebnisse durchfressen und selbst daraus extrahieren muss, was denn daran stimmt - ziemlich zunichte macht.

Vor allem, wenn man die KI wirklich recherchieren lässt. Dann gibt es auch Quellen als Referenz zum prüfen. Das schlägt jede Suchmaschine.

Ich hab das mal zum Thema generative KI in Schulen recherchieren lassen.

https://chatgpt.com/share/e/698309a6-9b84-8004-a54b-37585f412dad

Vor 7 Minuten, Abd al Rahman schrieb:

Vor allem, wenn man die KI wirklich recherchieren lässt. Dann gibt es auch Quellen als Referenz zum prüfen. Das schlägt jede Suchmaschine.

Ich hab das mal zum Thema generative KI in Schulen recherchieren lassen.

https://chatgpt.com/share/e/698309a6-9b84-8004-a54b-37585f412dad

image.png

Nimm an der Diskussion teil

Du kannst jetzt einen Beitrag schreiben und dich später registrieren. Wenn du bereits ein Konto hast, melde dich an, um den Beitrag über dein Konto zu veröffentlichen.

Gast
Auf dieses Thema antworten

Kürzlich Online 1

Wichtige Informationen

Wir setzen Cookies, um die Benutzung der Seite zu verbessern. Du kannst die zugehörigen Einstellungen jederzeit anpassen. Ansonsten akzeptiere bitte diese Nutzung.

Konto

Navigation

Suche

Browser-Push-Nachrichten konfigurieren

Chrome (Android)
  1. Klicke das Schloss-Symbol neben der Adressleiste.
  2. Klicke Berechtigungen → Benachrichtigungen.
  3. Passe die Einstellungen nach deinen Wünschen an.
Chrome (Desktop)
  1. Klicke das Schloss-Symbol in der Adresszeile.
  2. Klicke Seiteneinstellungen.
  3. Finde Benachrichtigungen und passe sie nach deinen Wünschen an.