Krasser Quatsch von ChatGPT

Wie die meisten von Euch bin auch ich dabei herauszufinden, ob ich ChatGPT in Zukunft sinnvoll als Assistenten nutzen kann oder nicht. Warum ich von ChatGPT wieder Abstand nehme, zeigt diese einfache Frage:

In der Antwort wird mir in grammatikalisch einwandfreiem Deutsch totaler Blödsinn erzählt! Allerdings wird niemand, der keine Ahnung vom Kreiskolbenmotor hat, und das sind vermutlich die meisten Menschen, den Schwachsinn erkennen, der hier verzapft wird. Das heißt im Umkehrschluss, dass ich bei Fragen zu Themen, von denen ich keine Ahnung habe, und das sind viele, ich den Antworten von ChatGPT keinen Glauben mehr schenken kann.

Denn der Kreiskolbenmotor in seiner Ausprägung Wankelmotor, hat genauso wie der Otto-Motor Zündkerzen, die ein Benzin-Luft Gemisch zur Explosion bringen. Und das ein Motor durch Reibung zwischen Kolben und Zylinderwänden eine Zündung durchführt, habe ich noch nie gehört. So weit ich weiß, versucht man die Reibung zwischen Kolben und Zylinderwänden möglichst zu vermeiden, da sonst der Motor sehr schnell verschleißen würde.

Der wesentliche Unterschied zwischen Otto- und Kreiskolbenmotor ist der, dass der Kolben im Otto-Motor sich im Zylinder ständig hoch und runter bewegt, was meiner vielleicht naiven Vorstellung von flüssiger Dynamik schon im Kern widerspricht, denn da wird etwas die ganze Zeit maximal beschleunigt und dann wieder abrupt bis zum Umkehrpunkt abgebremst und dann der Kreiskolben, der zumindest ansatzweise eine kontinuierliche Bewegung in einer Richtung zuwege bringt.

Auch wenn solche Fehler nur relativ wenig vorkommen würden, so ist es doch ein eindeutiges KO Kriterium für ChatGPT, denn ich kann ja nie wissen, ob die gerade gegebene Antwort einen solchen Fehler enthält oder nicht. Darum muss ich immer davon ausgehen, dass die Antwort einen Fehler enthält. Ich müsste jede Antwort durch umfangreiche Recherche überprüfen und das würde viel Zeit kosten und sicher nicht der Sinn des Ganzen sein.

16.12.2022

Heute habe ich die gleiche Frage noch einmal eingegeben:

Und diesmal ist die Antwort korrekt. Sie könnte zwar etwas ausführlicher sein, aber zumindest ist sie nicht falsch. Ich frage mich, warum jetzt die Antwort eine völlig andere ist? Eigentlich sollte es auf eine bestimmte Frage auch eine eindeutige Antwort geben. Ich würde gerne wissen, ob die Entwickler seit gestern irgendetwas geändert haben, sich das Netz automatisch modifiziert hat oder es die Möglichkeit hat per Zufall zwischen verschiedenen Antworten zu wählen um diese so ‚menschlicher‘ zu machen.

 

  • Related Posts

    Wie ich eine Kalorienapp nahezu nur mit KI erstellte

    Am Ende dieses Artikels findet Ihr eine Android App zum Download. Diese App habe ich für mich aus persönlichem Interesse entwickelt. Sie visualisiert den Einfluss von sportlich verbrannten oder durch…

    Wie Elon tickt

    Elon Musk gehört zweifellos zu den faszinierendsten Persönlichkeiten unserer Zeit. Bekannt durch ambitionierte Projekte wie Tesla, SpaceX und neuerdings X (vormals Twitter), lohnt es sich, genauer zu betrachten, was diesen…

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    You Missed

    Was leistet die CPU für unter 200 Euro?

    • Von Zuseway
    • Mai 12, 2025
    • 12 views

    Einblicke in die Welt des Tech-Journalismus

    Die Kunst des Preises: Wie eine Zahl die Spielewelt veränderte

    • Von Zuseway
    • Mai 12, 2025
    • 17 views
    Die Kunst des Preises: Wie eine Zahl die Spielewelt veränderte

    Der neue Sound in der Cloud: Eine Ode an die Eula

    • Von Zuseway
    • Mai 11, 2025
    • 15 views

    AMD’s Strix Halo Mini PC: Innovation oder Nachahmung?

    Zwei Bildschirme, unendliche Möglichkeiten: Der iPad-Doppelgänger

    • Von Zuseway
    • Mai 11, 2025
    • 18 views
    Zwei Bildschirme, unendliche Möglichkeiten: Der iPad-Doppelgänger