klick2friend

Krasser Quatsch von ChatGPT

Wie die meisten von Euch bin auch ich dabei herauszufinden, ob ich ChatGPT in Zukunft sinnvoll als Assistenten nutzen kann oder nicht. Warum ich von ChatGPT wieder Abstand nehme, zeigt diese einfache Frage:

In der Antwort wird mir in grammatikalisch einwandfreiem Deutsch totaler Blödsinn erzählt! Allerdings wird niemand, der keine Ahnung vom Kreiskolbenmotor hat, und das sind vermutlich die meisten Menschen, den Schwachsinn erkennen, der hier verzapft wird. Das heißt im Umkehrschluss, dass ich bei Fragen zu Themen, von denen ich keine Ahnung habe, und das sind viele, ich den Antworten von ChatGPT keinen Glauben mehr schenken kann.

Denn der Kreiskolbenmotor in seiner Ausprägung Wankelmotor, hat genauso wie der Otto-Motor Zündkerzen, die ein Benzin-Luft Gemisch zur Explosion bringen. Und das ein Motor durch Reibung zwischen Kolben und Zylinderwänden eine Zündung durchführt, habe ich noch nie gehört. So weit ich weiß, versucht man die Reibung zwischen Kolben und Zylinderwänden möglichst zu vermeiden, da sonst der Motor sehr schnell verschleißen würde.

Der wesentliche Unterschied zwischen Otto- und Kreiskolbenmotor ist der, dass der Kolben im Otto-Motor sich im Zylinder ständig hoch und runter bewegt, was meiner vielleicht naiven Vorstellung von flüssiger Dynamik schon im Kern widerspricht, denn da wird etwas die ganze Zeit maximal beschleunigt und dann wieder abrupt bis zum Umkehrpunkt abgebremst und dann der Kreiskolben, der zumindest ansatzweise eine kontinuierliche Bewegung in einer Richtung zuwege bringt.

Auch wenn solche Fehler nur relativ wenig vorkommen würden, so ist es doch ein eindeutiges KO Kriterium für ChatGPT, denn ich kann ja nie wissen, ob die gerade gegebene Antwort einen solchen Fehler enthält oder nicht. Darum muss ich immer davon ausgehen, dass die Antwort einen Fehler enthält. Ich müsste jede Antwort durch umfangreiche Recherche überprüfen und das würde viel Zeit kosten und sicher nicht der Sinn des Ganzen sein.

16.12.2022

Heute habe ich die gleiche Frage noch einmal eingegeben:

Und diesmal ist die Antwort korrekt. Sie könnte zwar etwas ausführlicher sein, aber zumindest ist sie nicht falsch. Ich frage mich, warum jetzt die Antwort eine völlig andere ist? Eigentlich sollte es auf eine bestimmte Frage auch eine eindeutige Antwort geben. Ich würde gerne wissen, ob die Entwickler seit gestern irgendetwas geändert haben, sich das Netz automatisch modifiziert hat oder es die Möglichkeit hat per Zufall zwischen verschiedenen Antworten zu wählen um diese so ‚menschlicher‘ zu machen.

 

  • Related Posts

    OpenClaw im Selbstversuch (mit Raspberry Pi)

    Einleitung Nachdem es OpenClaw indirekt sogar zu einer Meldung in den ZDF-Nachrichten geschafft hat und in mindestens einer seiner drei Namensvarianten (Clawdbot, Moltbot und eben OpenClaw) als bösartige KI bezeichnet…

    Eine Kontaktbörse mit KI Bots beleben!

    Einleitung Als ich noch recht jung war habe ich in einer kleinen Software Firma namens TAT GmbH gearbeitet. Meine Aufgabe war es ein Shopsystem zu entwickeln, welches mit Java und…

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    You Missed

    Split-Tunnel: Routing gegen Richtlinie

    • Von Zuseway
    • Februar 22, 2026
    • 23 views

    Xbox im Umbruch: Spencer geht, Sharma übernimmt – was bedeutet das für die Marke?

    Trägheit zähmen: Intelligente Regler für warme Böden

    • Von Zuseway
    • Februar 22, 2026
    • 20 views
    Trägheit zähmen: Intelligente Regler für warme Böden

    OpenClaw im Selbstversuch (mit Raspberry Pi)

    OpenClaw im Selbstversuch (mit Raspberry Pi)

    Eine Kontaktbörse mit KI Bots beleben!

    Eine Kontaktbörse mit KI Bots beleben!

    Amazon Amazon Amazon Amazon

    • Von Zuseway
    • Februar 15, 2026
    • 59 views