Krasser Quatsch von ChatGPT

Wie die meisten von Euch bin auch ich dabei herauszufinden, ob ich ChatGPT in Zukunft sinnvoll als Assistenten nutzen kann oder nicht. Warum ich von ChatGPT wieder Abstand nehme, zeigt diese einfache Frage:

In der Antwort wird mir in grammatikalisch einwandfreiem Deutsch totaler Blödsinn erzählt! Allerdings wird niemand, der keine Ahnung vom Kreiskolbenmotor hat, und das sind vermutlich die meisten Menschen, den Schwachsinn erkennen, der hier verzapft wird. Das heißt im Umkehrschluss, dass ich bei Fragen zu Themen, von denen ich keine Ahnung habe, und das sind viele, ich den Antworten von ChatGPT keinen Glauben mehr schenken kann.

Denn der Kreiskolbenmotor in seiner Ausprägung Wankelmotor, hat genauso wie der Otto-Motor Zündkerzen, die ein Benzin-Luft Gemisch zur Explosion bringen. Und das ein Motor durch Reibung zwischen Kolben und Zylinderwänden eine Zündung durchführt, habe ich noch nie gehört. So weit ich weiß, versucht man die Reibung zwischen Kolben und Zylinderwänden möglichst zu vermeiden, da sonst der Motor sehr schnell verschleißen würde.

Der wesentliche Unterschied zwischen Otto- und Kreiskolbenmotor ist der, dass der Kolben im Otto-Motor sich im Zylinder ständig hoch und runter bewegt, was meiner vielleicht naiven Vorstellung von flüssiger Dynamik schon im Kern widerspricht, denn da wird etwas die ganze Zeit maximal beschleunigt und dann wieder abrupt bis zum Umkehrpunkt abgebremst und dann der Kreiskolben, der zumindest ansatzweise eine kontinuierliche Bewegung in einer Richtung zuwege bringt.

Auch wenn solche Fehler nur relativ wenig vorkommen würden, so ist es doch ein eindeutiges KO Kriterium für ChatGPT, denn ich kann ja nie wissen, ob die gerade gegebene Antwort einen solchen Fehler enthält oder nicht. Darum muss ich immer davon ausgehen, dass die Antwort einen Fehler enthält. Ich müsste jede Antwort durch umfangreiche Recherche überprüfen und das würde viel Zeit kosten und sicher nicht der Sinn des Ganzen sein.

16.12.2022

Heute habe ich die gleiche Frage noch einmal eingegeben:

Und diesmal ist die Antwort korrekt. Sie könnte zwar etwas ausführlicher sein, aber zumindest ist sie nicht falsch. Ich frage mich, warum jetzt die Antwort eine völlig andere ist? Eigentlich sollte es auf eine bestimmte Frage auch eine eindeutige Antwort geben. Ich würde gerne wissen, ob die Entwickler seit gestern irgendetwas geändert haben, sich das Netz automatisch modifiziert hat oder es die Möglichkeit hat per Zufall zwischen verschiedenen Antworten zu wählen um diese so ‘menschlicher’ zu machen.

 

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert