Zu Inhalt springen

Künstliche Intelligenz und Rollenspiel - allgemeine Gedanken über eine zunehmende Verbindung

Hervorgehobene Antworten

Vor 6 Minuten, Abd al Rahman schrieb:

Ich habe ihn mir gestern Nacht komplett angeschaut.

Edit: Ich hätte mir jemanden in dem Talk gewünscht, der fachlich von KI Ahnung hat. Der Talk war gut, aber mir hat da etwas Expertise gefehlt.

In Chat waren ein paar, die da tiefer technisch drin waren. Aber ja, hätte ich mir auch gewünscht. So lag die Rolle letztlich bei Jan Wagner, wobei der eher IT-Manager ist.

Vor 1 Minute, Kazzirah schrieb:

Und ja, ich hätte mir sehr gewünscht, wenn auch einer der kleineren Verlage, die stärker auf GenAI setzen, wie DDD oder Dieseldrachen, welche Erfahrungen sie damit gemacht haben.

Aber es ist schon auffällig, dass es da durchaus auch eine wirtschaftliche Begründung gibt, dass aktuell der Einsatz von GenAI in einer kleinen Branche mit enger Kundenbindung zu einem Reputationsrisiko führt, es also wichtig ist, wie deine Kundschaft dazu steht. In der alten Midgard-Community scheinen da sehr viele eher offen zu sein, für andere sieht es deutlich anders aus.

Das wird sich sicher normalisieren, nur niemand kann heute sagen, was das neue Normal sein wird, wenn der erste Sturm durch ist.

GenAI ist halt ein Werkzeug. Es muss richtig eingesetzt werden und je nach Einsatz gibt es verschiedene Werkzeuge und es wird noch mehr spezialisierte Werkzeuge geben. Die Entwicklung siehst Du schon jetzt. Ich sag nur Cortex und Claude. Das wird sich auch auf andere Bereiche wie Übersetzungen auswirken.

Korrektorat ist ein weiterer Bereich den ich mittelfristig bei der KI sehe. Längere Texte schick ich schon jetzt gerne durch eine AI. Ich lass mir Texte nicht aktiv korrigieren, sondern lass mir problematische Stellen aufzeigen.

Wie gesagt: Spezialisierte AIs werden sich weiter verbreiten.

Vor 6 Minuten, Kazzirah schrieb:

In Chat waren ein paar, die da tiefer technisch drin waren. Aber ja, hätte ich mir auch gewünscht. So lag die Rolle letztlich bei Jan Wagner, wobei der eher IT-Manager ist.

"Ich habs (Übersetzungen wars glaube ich) vor ein paar Jahren probiert und es war nix" hat mich mit den Augen rollen lassen. Daniel von System Matters hat's ja auch erkannt. Er hat gesagt, dass er KI-Übersetzungen bei Belletristik eher sieht, weil es dort weniger Spezialwissen braucht.

Ich fand die beiden Jans sehr gut. Die beiden haben ein mehr realistisches Bild auf die Situation geworfen. Was machen große Verlage? Was ist realistisch wenn wir von anderen Größenordnungen reden?

Vor 4 Minuten, Abd al Rahman schrieb:

Wie gesagt: Spezialisierte AIs werden sich weiter verbreiten.

Es bleibt weiter wichtig zu Unterscheiden, von welcher AI wir reden. AI als solche ist heute schon normaler Alltag und sind ziemliche working horses, halt nicht die skalierten GenAI und LLMs, die aktuell durchs Dorf getrieben werden. Da ist aktuell immer noch mehr Versprechen als gehalten werden kann. Ja, da passiert immer noch viel, aber die Grenzen dieser Technologie (also der GenAI), bleiben unverändert da, wo es um eine 'Theory of Mind' geht, steigen sie aus, das ist jenseits ihrer technologischen Fähigkeit. Andere AI kann das besser.

Ich bin aber dabei, dass es irgendwann AI-Modelle geben wird, die das zusammenbringen werden, aber das wird eine andere Technologie als LLMs sein. Gut möglich, dass sie darauf aufsetzen.

3 Stunden her, Slüram schrieb:

Fünf Verlage & Moderation zu einem überaus sensiblem und komplexen Thema - was erwartest Du? ?

Nichts, aber genausowenig ist zu erwarten, dass ich drei Stunden Zeit einfach so rumliegen habe...

3 Stunden her, Kazzirah schrieb:

Selbst Ulisses muss die Texte nachlektorieren, weil GenAI schlicht das Thema nicht versteht.

Es würde mich interessieren, wie viel kommt hinsichtlich gezieltem Trainieren von KI. D.h. wie viel Aufwand wird es sein, spezialisierte KIs zu bauen, die "sich nicht ganz so dumm anstellen".

Vor 5 Minuten, Ma Kai schrieb:

Es würde mich interessieren, wie viel kommt hinsichtlich gezieltem Trainieren von KI. D.h. wie viel Aufwand wird es sein, spezialisierte KIs zu bauen, die "sich nicht ganz so dumm anstellen".

Die Auswirkungen von speziellem Training sind aktuell wohl nicht abschätzbar: https://www.tagesschau.de/wissen/technologie/ki-sprachmodelle-100.html

Vor 28 Minuten, Prados Karwan schrieb:

Die Auswirkungen von speziellem Training sind aktuell wohl nicht abschätzbar: https://www.tagesschau.de/wissen/technologie/ki-sprachmodelle-100.html

Spannend. Ich könnte mir einen Wirkmechanismus in etwa vorstellen in die Richtung, dass ein mehr auf "666" trainiertes Modell dann nachher für seine Antworten Quellenmaterial bevorzugt, das solche Andeutungen enthält - und wahrscheinlich die Antworten dann in eine eher düstere Richtung schubsen könnte.

Ich fürchte auch, dass KI grundsätzlich eine verstärkende Tendenz hat. Zumindest ChatGPT fängt bei mir jede Antwort an mit "das ist eine gute Frage" oder einer vergleichbar bestärkenden Phrase. Wenn ich da nach Selbstmord fragen würde, dann würde es mich vermutlich im Selbstmord bestärken, wie in der Nachricht von der Tagesschau als Mutmaßung referiert.

Das spezielle Training, das ich im Sinn hatte, war allerdings auch ein anderes, als das, was die im Artikel ausprobiert haben - die wollten den Hintergrund von ChatGPT ins Düstere verschieben, ich habe gefragt, was passiert, wenn man ihm mehr spezielle Themeninfo gibt. Man könnte vielleicht sogar ableiten: mehr düsterer Input - mehr düsterer Output; mehr Sach-Input - tja, es bleibt eine spannende Frage?

Wenn man dann über Filter nachdenkt: Perplexity hat mir auf meine "blutige" Frage für mein Abenteuer, bei der ChatGPT mit Hinweis auf Jugendschutz vage bis nutzlos blieb, eine rationale Antwort mit Zahlen-Daten-Fakten geliefert. Jetzt weiß ich, dass das, was ich beschreiben wollte, eigentlich nicht so ganz realistisch ist - und werde meine Beschreibung entsprechend anpassen. Dass die Antwort von Perplexity andererseits leichte Grammatikfehler aufwies, hat mich dann weniger gestört.

Vor 7 Minuten, Ma Kai schrieb:

Es würde mich interessieren, wie viel kommt hinsichtlich gezieltem Trainieren von KI. D.h. wie viel Aufwand wird es sein, spezialisierte KIs zu bauen, die "sich nicht ganz so dumm anstellen".

Die Hochglanzpräsentationen versprechen genau das.

Dagegen spricht, dass LLMs statistische Modelle sind. Die können also sehr gut Wahrscheinlichkeiten berechnen, sehr schlecht darin, konsistent über einen längeren Zeitraum zu bleiben.

Vor 1 Minute, Kazzirah schrieb:

Die Hochglanzpräsentationen versprechen genau das.

Dagegen spricht, dass LLMs statistische Modelle sind. Die können also sehr gut Wahrscheinlichkeiten berechnen, sehr schlecht darin, konsistent über einen längeren Zeitraum zu bleiben.

Na, wenn es in den Trainingsdaten ist, bleibt es konsistent da, oder?

4 Stunden her, Slüram schrieb:
  11 Stunden her, Ma Kai schrieb:

Puh, drei Stunden...

Fünf Verlage & Moderation zu einem überaus sensiblem und komplexen Thema - was erwartest Du? ?

Ein zweizeiliges tldr?🤣

Über Karneval werde ich mir das wohl reinziehen. Bin gespannt, was ich davon verstehe.

Vor 2 Minuten, Ma Kai schrieb:

Na, wenn es in den Trainingsdaten ist, bleibt es konsistent da, oder?

Nein, weil das Training rekombiniert wird. Das ist nicht so, daß es "einmal gelernt, niemals vergessen" ist.

Lösung für "richtige Antworten mit einer KI" gibt es. Da antwortet dann eine KI immer als KI, allerdings mit der Anweisung die Daten von Datenbank soundso zu nehmen. Und verhindern, daß sie selbst "tätig" wird. Also z.B. etwas so wie es notebook llm macht. Datensatz bleibt immer gleich, die KI macht nur die Datenzusammenstellung und -präsentation aufgrund der vorhandenen Daten. Das ist auch so wie man Agents einsetzt.

Und so schnell gehen Entwicklungen. Ein individuelles 'Gedächtnis' für Claude: https://www.faz.net/pro/digitalwirtschaft/kuenstliche-intelligenz/ki-bekommt-mit-obsidian-und-claude-code-ein-gedaechtnis-so-funktioniert-s-accg-200455674.html

Jetzt muss ich mich wohl doch mal mehr um Obsidian kümmern ...

Bearbeitet ( von Prados Karwan)

Vor 1 Minute, Prados Karwan schrieb:

Leider nur mit Bezahlaccount bei FAZ lesbar.

Vor 21 Minuten, Ma Kai schrieb:

Na, wenn es in den Trainingsdaten ist, bleibt es konsistent da, oder?

Kommt drauf an was Du genau mit Trainingsdaten meinst.

Ich sorge dazu, dass ChatGPT ein eigenes Gedächtnis hat. Ich lege ein Projekt an und erstelle ein Dokument mit allen relevanten Informationen. Wenn ich jetzt eine Anfrage stelle, dann wird immer auf das hochgeladene Dokument zurückgegriffen. Das funktioniert am Besten mit den Thinking-Modellen, weil die sich ständig selbst hinterfragen. Am Besten klappt das mit dem Pro-Modell von ChatGPT. Dort arbeiten drei eigene Instanzen miteinander, stellen sich quasi gegenseitig Fragen und verbessern so das Ergebnis.

Die Ergebnisse sind konsistent. Das Kontext-Fenster wird immer wieder aufgefrischt.

Vor 12 Minuten, Prados Karwan schrieb:

Und so schnell gehen Entwicklungen. Ein individuelles 'Gedächtnis' für Claude: https://www.faz.net/pro/digitalwirtschaft/kuenstliche-intelligenz/ki-bekommt-mit-obsidian-und-claude-code-ein-gedaechtnis-so-funktioniert-s-accg-200455674.html

Jetzt muss ich mich wohl doch mal mehr um Obsidian kümmern ...

Genau! Sowas ähnliches mach ich mit dem was ich oben beschrieben habe - nur auf einfacherem Niveau.

Das wird Übersetzungen durch KI verbessern, wenn das Glossar, bzw. das notwendige Fachwissen hinterlegt wird.

Soeben, Abd al Rahman schrieb:

Genau! Sowas ähnliches mach ich mit dem was ich oben beschrieben habe - nur auf einfacherem Niveau.

Das wird Übersetzungen durch KI verbessern, wenn das Glossar, bzw. das notwendige Fachwissen hinterlegt wird.

Das definitiv. Da sind wir zumindest einig. (Vermutlich auch beim Rest gar nicht so verschieden, nur halt andere Zielbilder vor Augen haben).

Nimm an der Diskussion teil

Du kannst jetzt einen Beitrag schreiben und dich später registrieren. Wenn du bereits ein Konto hast, melde dich an, um den Beitrag über dein Konto zu veröffentlichen.

Gast
Auf dieses Thema antworten

Kürzlich Online 0

  • Kein Mitglied betrachtet die Seite.

Wichtige Informationen

Wir setzen Cookies, um die Benutzung der Seite zu verbessern. Du kannst die zugehörigen Einstellungen jederzeit anpassen. Ansonsten akzeptiere bitte diese Nutzung.

Konto

Navigation

Suche

Browser-Push-Nachrichten konfigurieren

Chrome (Android)
  1. Klicke das Schloss-Symbol neben der Adressleiste.
  2. Klicke Berechtigungen → Benachrichtigungen.
  3. Passe die Einstellungen nach deinen Wünschen an.
Chrome (Desktop)
  1. Klicke das Schloss-Symbol in der Adresszeile.
  2. Klicke Seiteneinstellungen.
  3. Finde Benachrichtigungen und passe sie nach deinen Wünschen an.