Zu Inhalt springen

ChatGPT / KI abseits des RPG

Hervorgehobene Antworten

2 Stunden her, Abd al Rahman schrieb:

Nein, müssen sie nicht. Du verwechselst die LLMs mit Expertensystemen.

Nein, ich verwechsle gar ncihts - ich komme von der Nutzerseite. Mir ist egal, welche Technologie dahinter steckt - die vermischen sich am Ende sowieso, d.h. es wird wahrscheinlich sowieso sinnvoll sein, verschiedene Technologien zu vereinen, um die jeweiligen Vorteile zusammen zu bringen.

Vor 2 Minuten, Ma Kai schrieb:

Nein, ich verwechsle gar ncihts - ich komme von der Nutzerseite. Mir ist egal, welche Technologie dahinter steckt - die vermischen sich am Ende sowieso, d.h. es wird wahrscheinlich sowieso sinnvoll sein, verschiedene Technologien zu vereinen, um die jeweiligen Vorteile zusammen zu bringen.

Du beschwerst Dich also auch, dass Deine Familienkutsche sich nicht zum umpflügen von Feldern eignet? Du kommst ja schließlich von der Benutzerseite.

Ich habe gelernt, dass ich für eine Aufgabe das richtige Werkzeug wähle. Ich kann auch mit einer Zange einen Nagel in die Wand kloppen. Geht irgendwie und wenn ich Glück habe stimmt das Ergebnis.

Vor 10 Minuten, Abd al Rahman schrieb:

Du beschwerst Dich also auch, dass Deine Familienkutsche sich nicht zum umpflügen von Feldern eignet? Du kommst ja schließlich von der Benutzerseite.

Ich habe gelernt, dass ich für eine Aufgabe das richtige Werkzeug wähle. Ich kann auch mit einer Zange einen Nagel in die Wand kloppen. Geht irgendwie und wenn ich Glück habe stimmt das Ergebnis.

OK, dann streichen wir halt den Anwendungsbereich "Suchmaschine" aus dem Anforderungsprofil für LLMs. Macht die Dinger halt nicht unbedingt nützlicher.

Vor 2 Minuten, Ma Kai schrieb:

OK, dann streichen wir halt den Anwendungsbereich "Suchmaschine" aus dem Anforderungsprofil für LLMs. Macht die Dinger halt nicht unbedingt nützlicher.

Du darfst die Anforderungen halt nicht durcheinander werfen. Nimm als Beispiel google.de, eine Suchmaschine, die du als Anwender als Black Box bekommst:

Hier sind die englischen Originaltitel der

Orphan X-Reihe von Gregg Hurwitz in der chronologischen Reihenfolge: 

Hauptromane

  1. Orphan X (2016)

  2. The Nowhere Man (2017)

  3. Hellbent (2018)

  4. Out of the Dark (2019)

  5. Into the Fire (2020)

  6. Prodigal Son (2021)

  7. Dark Horse (2022)

  8. The Last Orphan (2023)

  9. Lone Wolf (2024)

  10. Nemesis (2025)

  11. Antihero (angekündigt für 2026) 

Kurzgeschichten (Novellas)

Ergänzend gibt es mehrere Kurzgeschichten, die zwischen den Romanen angesiedelt sind: 

  • Buy a Bullet (Band 1.5)

  • The Intern (Band 3.5)

  • The List (Band 5.5)

  • The Recital (Band 8.5)

  • The Code (Band 10.5) 

Weitere Details zur Serie und den Charakteren findest du auf der offiziellen Webseite von Gregg Hurwitz.

KI-Antworten können Fehler enthalten. Weitere Informationen

  • Gregg Hurwitz's Orphan X books in order - Fantastic Fiction

    1 Orphan X (2016) 1.5 Buy a Bullet (2016) 2 The Nowhere Man (2017) 3 Hellbent (2017) 3.5 The Intern (2018) 4 Out of the Dark (2019...

    Fantastic Fiction

  • Books by Gregg Hurwitz (Author of Orphan X) - Goodreads

    Books by Gregg Hurwitz (Author of Orphan X) Orphan X (Orphan X, #1) Gregg Hurwitz. by Gregg Hurwitz (Goodreads Author) ... The...

    Goodreads

  • The guide to the Orphan X Evan Smoak series, Tim Rackley thrillers, ...

    Customers who bought this item also bought * Orphan X: A Novel (English Edition) Gregg Hurwitz. 4.4 out of 5 stars 23,353. Kindle ...

    Amazon.de

Ich finde die Antwort nicht schlecht. thumbs

@Ma Kai Was mir bei Deinen Screenshots zu Orphan X aufgefallen ist:

Du verwendest die KI nicht als Suchmaschine. Vergleiche mal das mit meinem Ergebnis oder dem von @Francesco di Lardo Bei Dir fehlen Quellenangaben. Eine Suchmaschine liefert Dir Quellen im Netz. Das LLM wertet die aus. Dazu zeigt das LLM Dir die Quellen woher die Informationen stammen.

Wenn Du die KI als Suchmaschine verwendest, werden nicht nur ganz unten die Quellen angegeben:

image.png

Sondern auch neben den Textblöcken selbst. Alles anklickbar um die Gesamtliste zu bekommen:

image.png

Wie gesagt, Du machst was falsch.

Aber auch ich schaue mir immer die Quellen an und bilde mir meine eigene Meinung.

Vor 22 Minuten, Abd al Rahman schrieb:

Du beschwerst Dich also auch, dass Deine Familienkutsche sich nicht zum umpflügen von Feldern eignet? Du kommst ja schließlich von der Benutzerseite.

Ich habe gelernt, dass ich für eine Aufgabe das richtige Werkzeug wähle. Ich kann auch mit einer Zange einen Nagel in die Wand kloppen. Geht irgendwie und wenn ich Glück habe stimmt das Ergebnis.

Ich denke, dieser Vergleich ist unpassend. Denn das, was du oben zitierst, ist die letztlich technische Seite. Etwas anderes aber ist es, wie die Anbieter ihr Produkt bewerben. So entsteht schon der Eindruck, das Werkzeug sei ein universal anpassbares Multifunktionstool, das 'alles' könne. Dein Beispiel müsste so umformuliert werden, dass du mit einem Werkzeug, das wie ein Hammer aussieht, einen Nagel in die Wand schlagen möchtest, sich das Werkzeug aber beim Auftreffen auf den Nagel recht willkürlich in etwas anderes verwandelt - und zwar, ohne das vorher auch nur irgendwie anzukündigen.

Meine Erfahrungen mit der KI sind ernüchternd. Ich habe bei mittelkomplexen Anfragen in Sachbereichen, in denen ich mich auskenne, noch buchstäblich niemals eine Antwort erhalten, die vollständig korrekt ist. Als Informationssammler und -vermittler ist das Ding in diesen Anforderungsbereichen wertlos, weil alles überprüft werden muss. Insbesondere Quellenangaben waren informationell willkürlich in dem Sinne, dass zwar eine Quelle angegeben wurde, diese aber bei Überprüfung einen ganz anderen thematischen Schwerpunkt oder Kontext hatte also das von mir Angefragte. Lediglich einige Schlagwörter stimmten überein, aber wurden von der KI nicht auf angemessenen Kontext überpürft.

Anders kann es bei deutlich stärker umgrenzten Aufgaben aussehen oder bei solchen, für die Informationen 'maschinenverständlicher' aufbereitet sind. Dort sind meiner Erfahrungen besser, aber für mich immer noch nicht so gut, dass es rundum auch nur befriedigend wäre.

Soeben, Prados Karwan schrieb:

Etwas anderes aber ist es, wie die Anbieter ihr Produkt bewerben. So entsteht schon der Eindruck, das Werkzeug sei ein universal anpassbares Multifunktionstool, das 'alles' könne.

Nein, tun sie nicht. Hier was von ChatGPT über die Fähigkeiten:

image.png

Das was Du schreibst wird den LLMs von Leuten, die von den sprachlichen Fähigkeiten beeindruckt sind, angedichtet.

Du vergisst außerdem, dass man lernen muss mit einem Werkzeug umzugehen.

Noch ein Nachtrag: Ich persönlich habe inzwischen die Befürchtung entwickelt, dass die Vagheit der KI 'unseren' Umgang mit Tatsachen und Fakten beeinflusst, da uns alltäglich vorgeführt wird, dass es auf diese ja gar nicht so sehr ankomme, solange nur die Gesamtheit ansatzweise stimmt und es gut klingt. Das halte ich aus mehreren Gründen für extrem gefährlich, gerade wenn man bedenkt, dass selbst hochrangige Wissenschaftlys in ihren Forschungen aus Bequemlichkeit oder Geldgier oder -not Abkürzungen nehmen. Wenn aber schon diese Personen anfällig für unzulässige Vereinfachungen sind, wie sollen dann 'normale' Leute motiviert werden, die bequem erreichbaren Informationen aufwändig zu hinterfragen?

Vor 3 Minuten, Prados Karwan schrieb:

Wenn aber schon diese Personen anfällig für unzulässige Vereinfachungen sind, wie sollen dann 'normale' Leute motiviert werden, die bequem erreichbaren Informationen aufwändig zu hinterfragen?

Ja, diese Befürchtung teile ich auch. Als Beleg nehm ich die Diskussion hier.

Vor 4 Minuten, Abd al Rahman schrieb:

Nein, tun sie nicht. Hier was von ChatGPT über die Fähigkeiten:

image.png

Das was Du schreibst wird den LLMs von Leuten, die von den sprachlichen Fähigkeiten beeindruckt sind, angedichtet.

Du vergisst außerdem, dass man lernen muss mit einem Werkzeug umzugehen.

Ist der Unterschied zwischen „Pro“ und „ohne Pro“ in Deinem Schaubild der zwischen Bezahl- und kostenloser Version? Da wird ja zwischen den beiden fast Gleichstand suggeriert.

Vor 17 Minuten, Abd al Rahman schrieb:

Wie gesagt, Du machst was falsch.

Konkret sind dafür bisher zwei Punkte genannt worden:

  1. nicht die mit-Geld-Bezahlversion verwenden

  2. ohne den Zusatz „suche im Netz“. Letzteren habe ich bei einer ziemlich trivialen Frage schon ausprobiert (also erst ohne, dann mit gefragt) und praktisch wortgleich die selbe Antwort erhalten.

Sind wir uns soweit einig oder gibt es noch mehr?

Soeben, Ma Kai schrieb:

Ist der Unterschied zwischen „Pro“ und „ohne Pro“ in Deinem Schaubild der zwischen Bezahl- und kostenloser Version? Da wird ja zwischen den beiden fast Gleichstand suggeriert.

Nee. Bei Pro sind wir bei dem 200,- EUR Tier. Ich mit meiner Bezahlversion hab auch nur Zugang zu ein paar Anfragen "Pro" im Monat. Ich heb mir das für sehr spezielle Themen auf.

Das derzeitige Standardmodell ist GPT 5.4 (seit gestern). Davor war es 5.2. Ich verwende ausschließlich "Thinking" das heißt, dass die KI sich selbst hinterfragt.

Hier ein Beispiel aus meiner Orphan X Anfrage:

image.png

image.png

image.png

image.png

image.png

image.png

Das nennt man "Chain of thought" Bei den Pro-Modellen arbeiten drei KIs zusammen, um sich gegenseitig zu prüfen (das war zumindest vor einem Jahr noch so. ich weiß nicht ob sich da was geändert hat).

Vor 7 Minuten, Ma Kai schrieb:

Konkret sind dafür bisher zwei Punkte genannt worden:

  1. nicht die mit-Geld-Bezahlversion verwenden

  2. ohne den Zusatz „suche im Netz“. Letzteren habe ich bei einer ziemlich trivialen Frage schon ausprobiert (also erst ohne, dann mit gefragt) und praktisch wortgleich die selbe Antwort erhalten.

Sind wir uns soweit einig oder gibt es noch mehr?

Da bin ich mir nicht sicher. Ich kann nur für ChatGPT sprechen. Das kenn ich ziemlich gut.

Vor 16 Minuten, Abd al Rahman schrieb:

Nein, tun sie nicht. Hier was von ChatGPT über die Fähigkeiten:

image.png

Das was Du schreibst wird den LLMs von Leuten, die von den sprachlichen Fähigkeiten beeindruckt sind, angedichtet.

Du vergisst außerdem, dass man lernen muss mit einem Werkzeug umzugehen.

Oha. Das ist eine Werbegrafik von OpenAI. Liest man die Erklärung, findet man, dass die Bedingungen für 5.2 und 5.4 zugunsten von 5.4 geändert wurden (verstärktes Reasoning). Schon daraus ergibt sich, dass die Zahlenwerte nicht vergleichbar sind. Darüber hinaus fehlt völlig die Erklärung, um welche Berufsbereiche es sich handeln soll. Ja, auf der Webseite werden Andeutungen gemacht, aber wenn man die Kommentare auf openreview zu gdpval liest, haben sich die Ersteller des Benchmarks schon sehr deutlich Bereiche ausgesucht, in denen die Modelle glänzen können ( https://openreview.net/forum?id=hcuEdq6eKD ).

Bearbeitet ( von Prados Karwan)

Vor 2 Minuten, Prados Karwan schrieb:

Oha. Das ist eine Werbegrafik von OpenAI. Liest man die Erklärung, findet man, dass die Bedingungen für 5.2 und 5.4 zugunsten von 5.4 geändert wurden (verstärktes Reasoning). Schon daraus ergibt sich, dass die Zahlenwerte nicht vergleichbar sind. Darüber hinaus fehlt völlig die Erklärung, um welche Berufsbereiche es sich handeln soll. Ja, auf der Webseite werden Andeutungen gemacht, aber wenn man die Kommentare auf openreview zu gdpval liest, haben sich die Ersteller des benchmarks schon sehr deutlich Bereiche ausgesucht, in denen die Modelle glänzen können ( https://openreview.net/forum?id=hcuEdq6eKD ).

Und selbst bei einer Werbegrafik geht ziemlich deutlich hervor, wie fehleranfällig die LLMs noch sind.

Edit:

Deswegen kann ich Deinen Claim:

Etwas anderes aber ist es, wie die Anbieter ihr Produkt bewerben. So entsteht schon der Eindruck, das Werkzeug sei ein universal anpassbares Multifunktionstool, das 'alles' könne.

nicht nachvollziehen.

Bearbeitet ( von Abd al Rahman)

Vor 3 Minuten, Abd al Rahman schrieb:

Die Leute können halt nicht mit Zahlen umgehen. (Änder da mal was dran Herr Lehrer D )

Sie wissen nicht, was 20% falsche Antworten bedeutet.

Bei 1000% Einsatz einiger Politiker bekommen wir dann jedes Mal 200%, also zwei Antworten pro Frage?

Vor 1 Minute, Solwac schrieb:

Bei 1000% Einsatz einiger Politiker bekommen wir dann jedes Mal 200%, also zwei Antworten pro Frage?

lol

Was ich meine:

Bei den 20% falschen Antworten hat das LLM unter Garantie so gut wie nie mit "Das weiß ich nicht" geantwortet sondern irgendwas zusammenfabuliert. Deswegen ist es so wichtig die Quellen der KI zu prüfen.

Wie KI arbeitet hier ein Beispiel. Hab ich gestern ausprobiert als das neue 5.4 Modell rausgekommen ist. Es zeigt wie wichtig gute Prompts sind aber auch die kein Allheilmittel sind.

https://chatgpt.com/share/e/69ac2a26-4fc4-8004-ab03-06b8aa3d1169

Bearbeitet ( von Abd al Rahman)

Vor 13 Minuten, Abd al Rahman schrieb:

Die Leute können halt nicht mit Zahlen umgehen. (Änder da mal was dran Herr Lehrer D )

Sie wissen nicht, was 20% falsche Antworten bedeutet.

Öhm, ich meine, ich will jetzt nicht kleinlich sein, aber die obige Grafik sagt nicht aus, dass die KI 20 % Fehler produziert habe. GDPval vergleicht Lösungsvorschläge in den Kategorien "besser, gleich gut" oder "schlechter". Und "schlechter" muss nicht 'falsch' heißen.

Soeben, Prados Karwan schrieb:

Öhm, ich meine, ich will jetzt nicht kleinlich sein, aber die obige Grafik sagt nicht aus, dass die KI 20 % Fehler produziert habe. GDPval vergleicht Lösungsvorschläge in den Kategorien "besser, gleich gut" oder "schlechter". Und "schlechter" muss nicht 'falsch' heißen.

"Falsch" liegt im Spektrum von "Schlechter". Deswegen sag ich ja: Das ist eine Werbegrafik. Und selbst Die malt keine rosa Wölkchen.

Vor 20 Minuten, Abd al Rahman schrieb:

Und selbst bei einer Werbegrafik geht ziemlich deutlich hervor, wie fehleranfällig die LLMs noch sind.

Edit:

Deswegen kann ich Deinen Claim:

nicht nachvollziehen.

Ich vermute, wir reden von zwei unterschiedlichen Zielgruppen der Werbung. Ich bezog mich, ohne das explizit zu benennen, auf die 'Massenwerbung', also das, was beispielsweise während des Superbowls gelaufen ist. Also ein Publikum, das sehr wahrscheinlich so gut wie keinerlei Ahnung hat, wie KI funktioniert. Ich vermute, du meinst Werbung für Fachleute, die sich aus beruflichen Gründen besser mit der Thematik auskennen sollten.

Bearbeitet ( von Prados Karwan)

Nimm an der Diskussion teil

Du kannst jetzt einen Beitrag schreiben und dich später registrieren. Wenn du bereits ein Konto hast, melde dich an, um den Beitrag über dein Konto zu veröffentlichen.

Gast
Auf dieses Thema antworten

Kürzlich Online 0

  • Kein Mitglied betrachtet die Seite.

Wichtige Informationen

Wir setzen Cookies, um die Benutzung der Seite zu verbessern. Du kannst die zugehörigen Einstellungen jederzeit anpassen. Ansonsten akzeptiere bitte diese Nutzung.

Konto

Navigation

Suche

Suche

Browser-Push-Nachrichten konfigurieren

Chrome (Android)
  1. Klicke das Schloss-Symbol neben der Adressleiste.
  2. Klicke Berechtigungen → Benachrichtigungen.
  3. Passe die Einstellungen nach deinen Wünschen an.
Chrome (Desktop)
  1. Klicke das Schloss-Symbol in der Adresszeile.
  2. Klicke Seiteneinstellungen.
  3. Finde Benachrichtigungen und passe sie nach deinen Wünschen an.