Wenn LibreOffice häufig abschm…←▼→SoftMakerOffice 2024 Betatest

web,technik,gesellschaft

Wenn A.I. sich selbst widerspricht

Erstellt: 21.04.2023 Lesedauer ~1:30 Min.

Zwei Fragen, direkt hintereinander, aber in unabhängigen Chats im „öffentlichen Teil“ von CHATGPT gestellt. Einmal auf Englisch, einmal auf Deutsch. Zwei Diametrale Antworten.

Wie wahrscheinlich ist es, dass sich zwei Wissenschaftler beim gleichen Thema innerhalb eines Jahres in Studien diametral selbst widersprechen? (s. Bild)

Insbesondere, wenn es – bei oberflächlicher Recherche – nur eine gemeinsame Studie von den Beiden zu geben scheint.

Das finde ich bemerkenswert. Es hilft mir bei der Einordnung, was von A.I. zu halten ist.

Grundsätzlich ist bei Fragen – zumindest auf deutsch – eine äußerst tendenziöse Bewertung einzelner Themen durch CHATGPT feststellbar.

Fragen nach anderen Meinungen, beispielsweise zum Klimawandel, werden relativ rüde abgebügelt, Leute die eine andere Meinung haben liegen falsch, sind isoliert und erzählen eh nur Käse (Kurzfassung).

Es ist völlig in Ordnung, auf einen »Konsens« hinzuweisen. Ich gebe lediglich zu bedenken: 1905 war sich der »Konsens« einig darüber, dass Newtons Gesetze unumstößlich sind und Einstein ein Spinner.

Schaue ich über die Grenzen Deutschlands, ist dort der vermeintliche Konsens, Atomkraft ist umweltfreundlich, klimaneutral und adequat für die Eindämmung des CO₂-Ausstoßes. Weshalb sonst bauen die dort sogar neue Atomkraftwerke?

Weshalb »Konsens« kein Totschlag-Argument sein sollte – erst recht bei einer Maschine, die bei der Informationssuche unterstützen will. Deshalb würde ich von einer A.I. eine neutralere Haltung erwarten.

Als „Informationsaggreator“ ist eine tendenziöse Maschine unbrauchbar.

Ehrlicherweise haben mich bei ein paar Recherchen mit CHATGPT die Antworten regelrecht agressiv gemacht. Das permanent-penetrante Hinweisen auf einen Konsens oder was ich zu beachten hätte, lassen – zumindest bei mir – das Gefühl aufkommen, dass alles womöglich doch ganz anders sein könnte.

Was die Maschine bei vielen Antworten mit dem Hinweis, dass die gefundenen Infos auch falsch sein oder anders gedeutet werden könnten, doppelt unterstreicht.

Ich glaube zwar weiterhin, dass es den Klimawandel gibt, doch mein Glaube an A.I. als Unterstützer für Recherche ist erschüttert.