Zum Inhalt springen

ChatGPT abseits des RPG


Empfohlene Beiträge

vor 7 Minuten schrieb Kurna:

Als Nachschlagewerk

Das halte ich für wenig zielführend, denn es muss sowieso alles überprüft werden. 

vor 7 Minuten schrieb Kurna:

als Ideengeber/Geschichtenerzähler.

Das ist in meinen Augen die derzeitige Haupt-Nutzungsoption. So nutze ich es auch. Natürlich frage ich auch nach "Fakten" (z.B. nenne mir 10 Gefahren, die der Klimawandel für die Gesundheit mit sich bringt). Diese Fakten checke ich aber immer gegen und damit ist ChatGPT am Ende nur ein "Ideengeber", nach welchen Fakten ich mal suchen könnte (wusstet ihr, dass der Klimawandel die Gefahr erhöht, Nierensteine zu bekommen? Ich dachte erst, das hat sich ChatGPT wieder mal ausgedacht, es gibt aber tatsächlich Studien genau dazu). 

Ich muss daher sagen, dass ich die ganze Aufregung um vermeintliche "Falschaussagen" von ChatGPT nicht nachvollziehen kann und auch nicht für berechtigt halte. Diese Software "rät" schlicht die Antwort. Die Entwickelt weisen deutlich darauf hin, dass die Software beim Raten auch mal daneben liegen kann. Wer sich darauf nicht einstellen kann oder möchte, sollte ChatGPT nicht nutzen. Das ist aber kein Grund, ChatGPT zu verteufeln. Ein normaler PKW geht auch unter, wenn ich versuche, ihn als Boot zu nutzen. Trotzdem kommt niemand auf die Idee, deshalb PKWs zu verbieten. 

Mfg       Yon

Bearbeitet von Yon Attan
  • Like 2
Link zu diesem Kommentar
vor 1 Minute schrieb Abd al Rahman:

Oder eher als Augmented Intelligence sehen. So benutze ich KIs zumindest. Als Unterstützung, Ideengeber etc.  

ChatGPT unterstützt dich bei deinen Entscheidungen? Aber hoffentlich nur, wenn "es um nichts geht". Also zB Rollenspielabenteuer. Aber bei Diagnose Hautkrebs wohl eher nicht.

Da wird ChatGPT zum "Qualityland" Assistenten.... jaja...

  • Like 1
Link zu diesem Kommentar
2 minutes ago, Panther said:

ChatGPT ist eben eine Maschine, die es aufgrund von vielen Textquellen verdammt gut drauf hat, uns immer so zu antworten, wie wir es mit der höchsten Wahrscheinlichen hören/lesen wollen. Bei Faktenwissen ist eine Antwort auf eine Frage einfach, wenn ChatGPT die Antwort nicht aufgrund von Fakten weiss, dann fängt ChatGPT an, uns so zu antworten, wie wir es wahrscheinlich gerne hören wollen. Und will man die Antwort hören: "Weiß ich nicht?"

Ich glaube, wenn ich die Technik richtig verstehe, ist ChatGPT derzeit nicht in der Lage sicher zu erkennen, wenn es etwas nicht weiß. Es geht hin und wieder, aber da muss weiter verbessert werden. 

  • Thanks 1
Link zu diesem Kommentar
vor 1 Minute schrieb Yon Attan:

Diese Software "rät" schlicht die Antwort.

naja, sie versucht auf Gedeih und Verderb uns so zu antworten, wie wir es wohl hören wollen! Da ist es irgendwie besser, mit ungesundem Halbwissen einfach was zu lügen/zu sagen... Siehe meine Frage nach Midgard 5 nach 6 Änderungen. Das wusste ChatGPT nicht, wann Midgard 6 herausgekommen ist, hat mir aber was geantwortet, was er sich aus anderen Midgardfakten zusammengereimt hat.

Link zu diesem Kommentar
vor 2 Minuten schrieb Abd al Rahman:

Ich glaube, wenn ich die Technik richtig verstehe, ist ChatGPT derzeit nicht in der Lage sicher zu erkennen, wenn es etwas nicht weiß.

Es geht hin und wieder, aber da muss weiter verbessert werden. 

So denk ich es: Es müßte ein Label "Fakt" her, aber dann haben wir eine "Faktenpoilzei" ein Zensor, der sagt, was Fakt ist und was nicht. Wer soll festlegen dürfen, was Fakt ist?

Sind die Daten in Wikipedia Fakt? Waren die Daten im Brockhaus Fakt?

tja... Abstimmen, was Fakt ist, ist wohl auch keine gute Idee.

  • Like 1
  • Confused 2
Link zu diesem Kommentar
vor 2 Minuten schrieb Abd al Rahman:

Für sowas gibt es dann spezialisierte KIs, die auf sowas trainiert werden. Hab zu Medizin was beim Frauenhofer Institut gefunden:

https://www.iks.fraunhofer.de/en/topics/artificial-intelligence/artificial-intelligence-medicine.html

Ja klar, das ist eine spezial KI, da ist der Vertrauen wohl höher, aber ist ChatGPT so gut wie diese Spezial KI?

Link zu diesem Kommentar
6 minutes ago, Yon Attan said:

Das ist in meinen Augen die derzeitige Haupt-Nutzungsoption

Ich nutze ChatGPT z.B. auch für das Forum oder zum programmieren. Ich bin nicht der mega PHP- oder JavaScript-Experte. Ich hab mir schon des öfteren mir einen Codeschnipsel generieren lassen, der mein Problem gelöst hat. Sowas meine ich mit Augmented Intelligence. Ich erweitere meine Fähigkeiten die ich schon habe oder lagere einfach zu überprüfende Routineaufgaben aus. 

Link zu diesem Kommentar
vor 17 Minuten schrieb Panther:

naja, sie versucht auf Gedeih und Verderb uns so zu antworten, wie wir es wohl hören wollen! 

Sie versucht es nicht nur. Das ist ihre (einzige) Aufgabe. Die Software rät, wie die Antwort aussieht, die zu deiner Frage passt. 

vor 14 Minuten schrieb Panther:

So denk ich es: Es müßte ein Label "Fakt" her, aber dann haben wir eine "Faktenpoilzei" ein Zensor, der sagt, was Fakt ist und was nicht. Wer soll festlegen dürfen, was Fakt ist?

Die Software erhebt keinen Anspruch darauf, Fakten wiederzugeben. Das ist nicht ihre Aufgabe. Genauso wenig wie ein Auto als Boot fungieren muss. 

Wenn du eine Software suchst, die Fakten wiedergibt und keine Antworten rät, solltest du ChatGPT nicht nutzen. 

Mfg   Yon

  • Like 4
  • Thanks 1
Link zu diesem Kommentar
vor 11 Stunden schrieb Anahita:

Den bisher wohl extremsten Fall gab es in Belgien, allerdings mit Eliza, nicht mit ChatGPT:

https://de.euronews.com/next/2023/04/02/chatbot-eliza-ki-selbstmord-belgien

 

Gut dass ich nach der Devise verfahre: "Diese Rechenknechte haben zu tun was ICH sage und nicht mir zu sagen, was ich tun soll."

Und Thema raten: Ich hatte das Problem, auf einem Symbolbild einen Panzer identifizieren zu wollen. Auf der Seite der BW und auch Wiki habe ich nichts gefunden was gepasst hätte und habe mich länger mit ChatGPT darüber unterhalt. Relative Größe beschrieben, Antrieb beschrieben (Kette) usw. Dann kam eine Liste von möglichen Fahrzeugen und 3 von 7 Vorschlägen waen Radpanzer.
Auf den Hinweis kam dann eine Entschuldigung, eine neue Liste (diesesmal alle Kette) aber nicht der Richtige. Erst @Leachlain ay Almhuin hat mir das Ding freundlicherweise identifiziert. :) Dabei ist das ein Panzer aus den 60ern, also defentiv bekannt vor dem Ende von ChatGPTs Schulung. ^^

Link zu diesem Kommentar
vor 18 Stunden schrieb Yon Attan:

Die Software erhebt keinen Anspruch darauf, Fakten wiederzugeben. Das ist nicht ihre Aufgabe. Genauso wenig wie ein Auto als Boot fungieren muss. 

Wenn du eine Software suchst, die Fakten wiedergibt und keine Antworten rät, solltest du ChatGPT nicht nutzen. 

Das Problem an dieser Art KI ist, dass wohl wenige Menschen die so reflektiert nutzen, wie wir es hier diskutieren. Der technische Fortschritt ist um mehrere Faktoren schneller, als die Medienkompetenz in der breiten Masse der Bevölkerung mit wächst. Und da sehe ich ein erhebliches, gesellschaftliches Problem. Technisch ist alles schick, der Hinweis beim Eingabefeld mit den u.U. erfundenen Fakten schützt die Betreiber - aber niemand wird vor den unabsehbaren Auswirkungen einer Flut von echt klingenden Meldungen zu-allem-möglichen geschützt, die dann eine Welle der Empörung auslösen können, wenn es ein gerade sensibles Thema trifft. 

Die Auswirkungen von Facebook, Twitter & Co auf unsere Gesellschaft sind gigantisch, das wird immer noch zu gering eingeschätzt. Immerhin haben wir Manipulationen dort wahrscheinlich einen D. Trump als US-Präsident und einen Völkermord in Myanmar an den Rohinga zu "verdanken". Da gibt es ja reichlich Untersuchungen dazu, das sauge nicht ich mir gerade aus den Fingern. 

Und nun kommt eine KI, die diese Möglichkeiten noch mal steigert. Ich weiß ja nicht.... 

  • Like 2
Link zu diesem Kommentar
vor 29 Minuten schrieb Bruder Buck:

Der technische Fortschritt ist um mehrere Faktoren schneller, als die Medienkompetenz in der breiten Masse der Bevölkerung mit wächst.

Ich wage zu behaupten, dass das für das Internet als solches, für soziale Medien, usw. ebenso gilt. Dennoch würde ich nicht dafür plädieren, diese Dinge deshalb abzuschaffen. 

Mfg       Yon

  • Like 4
Link zu diesem Kommentar
vor 6 Minuten schrieb Yon Attan:

Ich wage zu behaupten, dass das für das Internet als solches, für soziale Medien, usw. ebenso gilt. Dennoch würde ich nicht dafür plädieren, diese Dinge deshalb abzuschaffen. 

Oh, ich mache hier kein Fass mit politischen Forderungen auf. Ich thematisiere das Problem. Und ja, ich sehe es auch so. Der technische Fortschritt durch und mit dem Internet der letzten ca. 25 Jahre ist erheblich schneller, als ein Großteil der Menschen mit kommt. Selbst wenn viele Menschen die Technik bedienen können, so überblicken nur wenige die umfassenden gesellschaftlichen Auswirkungen. Das zeigt sich allein schon daran, dass selbst Leute, die sich beruflich mit gesellschaftlichen Veränderungen beschäftigen, erst in den letzten Jahren warnen, welch kolossale Auswirkungen das alles hat. 

  • Like 1
Link zu diesem Kommentar
vor 35 Minuten schrieb Bruder Buck:

Das Problem an dieser Art KI ist, dass wohl wenige Menschen die so reflektiert nutzen, wie wir es hier diskutieren.

Ja. Oder um es kurz zu machen - Problem ist nicht die Technologie, sondern die Dummheit der Menschen. Aber auf der anderen Seite: Was nutzt es, das _jetzt_ zu unterdrücken, weil es uns jetzt auffällt, weil halt OpenAI Geld in die Hand genommen hat und das öffentlich gemacht hat?

Du glaubst doch nicht, daß Google "Bard" gestern entwickelt hat? Oder daß die vorigen Stufen des machine-Learnings bei Google (die integraler Bestandteil des jetzigen Setups seit Jahren ist, was du vorgeschlagen kriegst) keine Auswirkungen hatten? Oder die von Facebook, TikTok oder was weiß ich. Der Unterschied ist, daß es uns allen schlagartig bewußt wird, von dem seit Jahren nur so gemunkelt wurde...

  • Like 3
  • Thanks 3
Link zu diesem Kommentar

Um die Gefahr der Fake News zu verdeutlichen das hier:

https://www.kickstarter.com/projects/boardcubator/project-l-reprint-new-expansion/ (Das Video oben auf der Seite)

Dass seh ich als Gefahr an was Fake News angeht @Bruder Buck und nicht ob ChatGPT vermeintliche Fakten erfindet. Das Video ist von ein paar Hanseln produziert, die eigentlich pleite sind. Da steckt kaum Geld dahinter. Noch kann man einfach erkennen, dass da ne AI dahinter steckt, aber bei der derzeitigen rasanten Entwicklung? Und wie gesagt, das Video wurde von Privatleuten produziert, die mit ihrer Brettspielfirma pleite gegangen sind, weil sie sich bei nem Crowdfunding verhoben haben. 

Bearbeitet von Abd al Rahman
  • Like 1
Link zu diesem Kommentar

Glaubwürdigkeit ist immer eine sache von Vertrauen. Ich erinnere mich das ich bei 9/11 von der Radiomoderatorin einen spruch gehört habe wie "Ich glaub das nicht aber ich lese das trozdem mal vor,..." Da traute jemand also dem geschriebenen Wort nicht und transportierte das auch in die Sprache, sich der sache bewust das Glaubwürdigkeit auf dem Spiel steht.

Man kennt den Spruch "papier ist geduldig" und irgendwelchen Unsinn schreiben der nicht stimmt, das kann jeder verstehen, das es sehr einfach ist exemplarisch "Donald T. ist ein vernünftiger Mensch" war jezt nicht so schwer da ein fakeNews zu fabliozieren. Ein Bild zu manipulieren war da schon etwas schwerer, ich erinnere da an die Bilder aus der Sovietunion, wo nach und nach unliebsame Leute rausretuschiert wurden. Schwerer aber eben nicht unmöglich.

Jezt gibt es eben mit KI noch ein anderes Werkzeug und es wird schwerer werden sicher zu sein auf was man sich eigentlich wirklich noch verlassen kann. Das man darauf hereinfallen kann zeigen ja die von Russsischen Komödians deutsche politiker mit anrufen aus Kiew "hopsen".

Es war schon immer wichtig informationsquellen zu hinterfragen. und heute kann muss man eben Lügen nicht mehr so verstecken sondern mischt sie, mal mehr und mal weniger gekonnt, unter die Warheit. Das so herausgekommene erscheint dann eben "glaubwürdiger" für die massen.

Auf der anderen Seite ist es auch so das, wenn man nur wenige Quellen hat -oder nuzt, es auch irgendwann mal anfängt an manchen Menschen zu nagen, manchmal wird die vorgesezte Warheit dann eben "wahr" und es ist kaum möglich sie von der wirklichen warheit zu unterscheiden - das problem kannte der alte Platon schon und die Wachowskis haben daraus einen Film gemacht. Exemplarisch kann man das heute sehen in gewissen Ländern wo die Informationsfreiheit eingeschränkt ist, und deren Bevölkerung - mal mehr und mal weniger, den Regierenden "hörig" ist. Exemplarisch nenne ich mal Russland und China.

Es ist nicht oft das ich meine Meinungen revidiere aber gerade Gespräche mit Russlanddeutschen welche Herrn P anhängen haben mein Bild auf die Mitläufer "bei uns" zwischen 33 und 45 dahingehend geändert das ich verstehen kann wie man auf ideologie reinfallen kann - ich meine eigentlich sollte weltweit jeder aus den Fehlern gelernt haben, aber scheinbar funktioniert es immer noch,... (alternativ auch meine Chinesischen Kololitonin welche mal in der Mensa den Parteisoldaten raushängen hat lassen als jemand 'Masaer am Platz des Himmlischen ftiedens ansprach)

Es ist also nicht so das chatGpt da etwas sehr gefährliches auf den Markt gebracht hat, gefärhlich sind - und waren immer die Menschen die neue Techniken für ihre eigenen Dinge nutzen. Es gibt eben neue Werkzeuge und man muss gff. eben mehr aufpassen was man an Medien konsumiert und hoffen das die Wahrheit nicht irgendwo auf der Strecke geblieben ist,...

Ich meine gerade habe ich es erlebt das "der Osterhase" irgendwelche Schokolade versteckt hat,... ich meine ja da ist Schokolade da aber - ein Hase? Weis doch jeder das es eigentlich eine Osterkatze ist, oder?

  • Like 1
Link zu diesem Kommentar
Am 7.4.2023 um 14:14 schrieb Nixonian:

Problem ist nicht die Technologie, sondern die Dummheit der Menschen.

Sorry, das ist der nichts sagenste aller nichts sagenden Allgemeinplätze. Ja, die Dummheit der Menschen ist das Problem. Und je mehr scharfe Werkzeuge dumme Menschen einfach an die Hand bekommen, desto mehr Schaden richten sie an. Siehe die leichte Verfügbarkeit von Waffen in den USA und die Folgen. Oder die Verfügbarkeit von Atomwaffen und den Folgen. Oder die Verfügbarkeit von Fake-News erzeugenden Technologien und die Folgen. 

Die Technik schreitet turbo-schnell voran und die Möglichkeit, dumme Menschen vom Missbrauch auszuschließen sind gleich NULL. Die Frage ist, ob wir das als Gesellschaft auf Dauer aushalten? 

  • Like 2
Link zu diesem Kommentar
Am 9.4.2023 um 14:40 schrieb Abd al Rahman:
Am 9.4.2023 um 14:35 schrieb Bruder Buck:

Die Frage ist, ob wir das als Gesellschaft auf Dauer aushalten? 

Eindeutig ja. Die Menschheit entwickelt sich weiter. 

Definitiv. Es wird etwas dauern. Aber das ist völlig normal. Hat bei allen bisherigen ähnlichen (und teilweise eher größeren) Informationsrevolutionen ja auch geklappt, Da ist eigentlich kein Raum für Kulturpessimismus. 

  • Like 1
Link zu diesem Kommentar
vor 39 Minuten schrieb Kazzirah:

Definitiv. Es wird etwas dauern. Aber das ist völlig normal. Hat bei allen bisherigen ähnlichen (und teilweise eher größeren) Informationsrevolutionen ja auch geklappt, Da ist eigentlich kein Raum für Kulturpessimismus. 

Wenn ich mir Twitter und andere soziale Medien anschaue, dann habe ich gar nicht genug Raum für Kulturpessimissmus….

  • Like 3
Link zu diesem Kommentar

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...