Zu Inhalt springen

ChatGPT / KI abseits des RPG

Hervorgehobene Antworten

Soeben, Abd al Rahman schrieb:

"Falsch" liegt im Spektrum von "Schlechter". Deswegen sag ich ja: Das ist eine Werbegrafik. Und selbst Die malt keine rosa Wölkchen.

Okay, wir bewerten "schlechter" und "falsch" sehr unterschiedlich. Wenn ich in meinem Job jede Schülymeldung als "falsch" bewerten würde, die schlechter als die von vergleichbaren Fachpersonen wäre, dann wären die oberen Klassenstufen recht menschenleer ...

Vor 4 Minuten, Prados Karwan schrieb:

Ich vermute, wir reden von zwei unterschiedlichen Zielgruppen der Werbung. Ich bezog mich, ohne das explizit zu benennen, auf die 'Massenwerbung', also das, was beispielsweise während des Superbowls gelaufen ist. Also ein Publikum, das sehr wahrscheinlich so gut wie keinerlei Ahnung hat, wie KI funktioniert. Ich vermute, du meinst Werbung für Fachleute, die sich aus beruflichen Gründen besser mit der Thematik auskennen sollten.

Naja, ich rede von der Werbung auf der OpenAI Webseite.

Vor 7 Minuten, Prados Karwan schrieb:

also das, was beispielsweise während des Superbowls gelaufen ist.

Ich hab mir die Werbung gerade angeschaut. Und ich stimme der Werbung weitestgehend zu. Das war Werbung für Codex. Und was de Werbung da sagt ist nicht falsch. Codex ist eines dieser Expertensysteme.

Zusammengefasst:

Ich sehe schwarz für den Berufsstand der Programmierer.

8 Stunden her, Abd al Rahman schrieb:

Was sind LLMs? Ich zitiere aus der Wikipedia:

Du machst es Dir zu einfach. Geh doch mal in den App-Store und guck da nach, wie die KI-Tools beworben werden (habe ich gerade gemacht). Da steht nichts von „aber der Abd hat nach Monaten der praktischen Erfahrung was auf einer OpenAI-Seite gefunden, was die Einschränkungen benennt!“ Und wenn ich ein neues Fertiggericht im Supermarkt sehe, gehe ich auch davon aus, dass es sich wie auf der Packung beschrieben zubereiten lässt und schaue nicht in die Wikipedia. Warum sollte es hier anders sein? Es wird an jedermann vermarktet.

Auf der Grundlage der Eigenwerbung sollte jeder korrekte Antworten von einer KI erwarten können. Dass das noch nicht der Fall ist, wissen wir alle hier. Doch der Anspruch ist gerechtfertigt, nur wird die Realität dem noch nicht gerecht. Wir streiten also um des Kaisers Bart: Es geht noch nicht, was verheißen wurde. Ist das nun Nutzerversagen oder Marketing-Bubble? Je nachdem, wo und von wo man guckt.

Vor 4 Minuten, Godrik schrieb:

Du machst es Dir zu einfach. Geh doch mal in den App-Store und guck da nach, wie die KI-Tools beworben werden (habe ich gerade gemacht). Da steht nichts von „aber der Abd hat nach Monaten der praktischen Erfahrung was auf einer OpenAI-Seite gefunden, was die Einschränkungen benennt!“ Und wenn ich ein neues Fertiggericht im Supermarkt sehe, gehe ich auch davon aus, dass es sich wie auf der Packung beschrieben zubereiten lässt und schaue nicht in die Wikipedia. Warum sollte es hier anders sein? Es wird an jedermann vermarktet.

Auf der Grundlage der Eigenwerbung sollte jeder korrekte Antworten von einer KI erwarten können. Dass das noch nicht der Fall ist, wissen wir alle hier. Doch der Anspruch ist gerechtfertigt, nur wird die Realität dem noch nicht gerecht. Wir streiten also um des Kaisers Bart: Es geht noch nicht, was verheißen wurde. Ist das nun Nutzerversagen oder Marketing-Bubble? Je nachdem, wo und von wo man guckt.

Du hast offensichtlich einen anderen App-Store als ich.

IMG_0981.jpeg

Vor 5 Minuten, Abd al Rahman schrieb:

Du hast offensichtlich einen anderen App-Store als ich.

IMG_0981.jpeg

Ich bin irritiert, da ich nicht nur den gleichen Text gelesen habe, sondern finde, dass der meine Aussage unterstützt (z.B. maßgeschneiderte Ratschläge und personalisiertes Lernen: Da kommt es auf zutreffende Informationen an). Ein „Achtung! Denkt sich irgendwas aus. Ist oft richtig, aber manchmal falsch“ fehlt da.

Vor 5 Minuten, Abd al Rahman schrieb:

H

Genau das mache ich. Ich lerne mit ChatGPT. Ich weiß von was ich rede.

Schön, dass es für Dich funktioniert. Wie soll jemand feststellen, dass seine KI „lügt“? @Ma Kai kann sich doch nicht jedesmal von Dir einen Prompt basteln lassen, der auf magische Weise keinen Mist generiert. Warum da was falsches kam, hast Du auch nicht beschrieben, oder?

Und „lernt Eure Werkzeuge kennen“ ist auch nur „Bei mir funktioniert‘s. Ich weiß zwar auch nicht warum, aber ich fühle mich trotzdem überlegen.“ Das hilft niemandem. Was hat Ma Kai falsch gemacht?

Vor 2 Minuten, Godrik schrieb:

Und „lernt Eure Werkzeuge kennen“ ist auch nur „Bei mir funktioniert‘s. Ich weiß zwar auch nicht warum, aber ich fühle mich trotzdem überlegen.“ Das hilft niemandem. Was hat Ma Kai falsch gemacht?

Ich habe es erklärt - mehrfach.

Vor 5 Minuten, Abd al Rahman schrieb:

Ich habe es erklärt - mehrfach.

Ich guck es mir nochmal an, vielleicht ist mir der entscheidende Hinweis entgangen. Für heute bin ich aber raus (Zeit).

Anderes Thema: verstehe ich das richtig, dass man mit dem Upload von Bildern bei Shutterstock denen die Lizenz dafür gibt, diese Bilder ohne zusätzliche Vergütung zum Training von KI zu verwenden - die dann natürlich in Konkurrenz zu meinen hochgeladenen Bildern treten wird? Halten die mich für bescheuert?

Vor 7 Minuten, Ma Kai schrieb:

Anderes Thema: verstehe ich das richtig, dass man mit dem Upload von Bildern bei Shutterstock denen die Lizenz dafür gibt, diese Bilder ohne zusätzliche Vergütung zum Training von KI zu verwenden - die dann natürlich in Konkurrenz zu meinen hochgeladenen Bildern treten wird? Halten die mich für bescheuert?

Ich kenne deren AGB nicht. Ich weiß aber, dass Apple einen Vertrag mit denen hat um deren Bilder zum Training verwenden zu dürfen.

Das scheint übrigens auch niemand zu stören...

Vor 2 Minuten, Abd al Rahman schrieb:

Kommt halt auf deren AGBs an.

Wenn sich tausende von Leuten ärgern und das ausdrücken, ändert sich so etwas auch mal wieder. Wenn alles schweigt, kommen die mit so was halt durch...

Alternativen, die KI-Nutzung explizit abfragen, und bei Zustimmung vergüten, seien Adobe und Alamy - sagt mir Le Chat. Muss ich also noch verifizieren.

Das Halluzinieren der großen LLMs wurde hier ja mehrfach angesprochen.

Eine trainingsfreie Methode namens "Spilled Energy" aus der Sapienza Universität Rom nutzt Energiedifferenzen in der letzten Berechnungsschicht eines LLMs, um fehlerhafte Antworten zu erkennen.| Decoder

Das verhindert das Halluzinieren nicht, denn das ist letztendlich Kern der Technologie. Formal halluzinieren die LLMs immer, nur sind sie meist hinreichend nahe an der Realität.

Kein Modell arbeitet auf Grundlage von Wissen oder Fakten.

Vor 34 Minuten, Kazzirah schrieb:

Das verhindert das Halluzinieren nicht, denn das ist letztendlich Kern der Technologie. Formal halluzinieren die LLMs immer, nur sind sie meist hinreichend nahe an der Realität.

Ein Weg Halluzinationen zu vermeiden ist, Ergebnisse durch andere AIs prüfen zu lassen und bei Fehlern zurückzuschicken. Das wird dann immer wieder wiederholt, bis kein Fehler mehr auftritt.

Das funktioniert bei Übersetzungen und beim programmieren ziemlich gut.

Vor einer Stunde, Abd al Rahman schrieb:

Ich glaube, dass die Stockfoto-Seiten verschwinden werden. AI wird das besser können.

Ja und nein. Für Standardbilder "Mensch vor Computer beim Arbeiten" ist KI absolut konkurrenzfähig - wobei die KI-Produzenten ja auch ihr Geld haben wollen, so dass das eventuell ökonomisch koexistieren wird. Für "besondere" Bilder wird das menschliche Auge dem Durchschnitts-Algorithmus der KI immer überlegen sein.

Nimm an der Diskussion teil

Du kannst jetzt einen Beitrag schreiben und dich später registrieren. Wenn du bereits ein Konto hast, melde dich an, um den Beitrag über dein Konto zu veröffentlichen.

Gast
Auf dieses Thema antworten

Kürzlich Online 0

  • Kein Mitglied betrachtet die Seite.

Wichtige Informationen

Wir setzen Cookies, um die Benutzung der Seite zu verbessern. Du kannst die zugehörigen Einstellungen jederzeit anpassen. Ansonsten akzeptiere bitte diese Nutzung.

Konto

Navigation

Suche

Suche

Browser-Push-Nachrichten konfigurieren

Chrome (Android)
  1. Klicke das Schloss-Symbol neben der Adressleiste.
  2. Klicke Berechtigungen → Benachrichtigungen.
  3. Passe die Einstellungen nach deinen Wünschen an.
Chrome (Desktop)
  1. Klicke das Schloss-Symbol in der Adresszeile.
  2. Klicke Seiteneinstellungen.
  3. Finde Benachrichtigungen und passe sie nach deinen Wünschen an.