Warum Du ChatGPT nicht mit Google verwechseln solltest

Warum Du ChatGPT nicht mit Google verwechseln solltest

Der Unterschied: Suchen vs. Verstehen

Google ist eine Suchmaschine. Sie hilft Dir dabei, im Internet Webseiten zu finden, die zu Deinen Suchbegriffen passen. Das bedeutet: Du bekommst eine Liste von Treffern angezeigt, aber Du musst selbst herausfinden, welche Informationen richtig, aktuell und seriös sind. Die Verantwortung liegt ganz bei Dir.

ChatGPT funktioniert völlig anders. Es ist ein sogenanntes Sprachmodell, das auf der Grundlage von sehr vielen Texten trainiert wurde. Es sucht nicht im Internet nach Informationen, sondern formuliert Antworten auf Basis dessen, was es beim Training „gelernt“ hat. Diese Antworten wirken oft flüssig, logisch und hilfreich, weil das Modell darauf ausgelegt ist, Sprache möglichst überzeugend und zusammenhängend zu gestalten.

ChatGPT kann Erklärungen liefern, Inhalte strukturieren, Zusammenfassungen schreiben oder sogar kreative Texte erstellen. Aber: Es kann nicht überprüfen, ob das, was es sagt, aktuell, vollständig oder faktisch korrekt ist. Es ist ein Werkzeug zum Verstehen, nicht zum Nachschlagen.

ChatGPT hat nicht immer Recht

Ein weitverbreiteter Irrtum ist der Glaube: „Wenn ChatGPT etwas sagt, wird das schon stimmen.“ Dieser Glaube ist gefährlich. Denn ChatGPT kann sich irren. Es kann falsche Informationen liefern, veraltete Inhalte wiedergeben oder, besonders tückisch, sich sogenannte „Fakten“ ausdenken, die gar nicht existieren. In der Fachsprache nennt man das „Halluzinationen“. Das klingt harmlos, kann aber ernste Folgen haben, wenn man sich blind auf diese Aussagen verlässt.

Warum passiert das? Ganz einfach: ChatGPT wurde so programmiert, dass es Dir möglichst schnell eine sinnvolle Antwort liefern soll, selbst dann, wenn es sich unsicher ist. Es „weiß“ nicht im eigentlichen Sinn, sondern rekonstruiert Sprache. Wenn eine Lücke besteht, wird diese oft mit etwas aufgefüllt, das logisch klingt, aber inhaltlich falsch sein kann.

Das ist keine böse Absicht und auch kein Versuch, Dich zu täuschen. Es liegt in der Natur der Technik. Das Modell will hilfreich sein, doch dabei kann es passieren, dass es lieber etwas erfindet, als zuzugeben: „Ich weiß es nicht.“

Kein echtes Wissen, sondern Wahrscheinlichkeiten

ChatGPT verfügt nicht über echtes Wissen wie ein Mensch. Es kann nicht selbstständig denken, prüfen oder recherchieren. Sein „Wissen“ besteht aus Milliarden von Wörtern, mit denen es trainiert wurde, das sogenannte Trainingsmaterial. Dieses Material stammt aus öffentlich zugänglichen Quellen wie Büchern, Webseiten oder Foren, die zu einem bestimmten Zeitpunkt gesammelt wurden. Alles, was danach passiert ist, kennt das Modell nicht, es sei denn, es wird mit aktuellen Informationen über ein zusätzliches Tool versorgt.

Wenn Du also eine Frage zu einem Ereignis stellst, das nach dem Trainingszeitpunkt passiert ist, kann es gut sein, dass ChatGPT keine zuverlässige Antwort geben kann, auch wenn es so klingt. Denn statt zu sagen: „Ich weiß es nicht“, rechnet das Modell mit der wahrscheinlichsten Antwort, basierend auf früheren Mustern.

Keine Quellen = Keine Nachprüfbarkeit

Ein weiterer großer Unterschied zu Google: ChatGPT nennt in der Regel keine Quellen. Es präsentiert Dir Antworten so, als kämen sie aus einer einzigen, zuverlässigen Quelle, aber Du weißt nicht, woher die Informationen wirklich stammen. Das ist beim Recherchieren ein echtes Problem. Denn Du kannst nicht überprüfen, ob eine Aussage stimmt, wie aktuell sie ist oder ob es andere Perspektiven dazu gibt.

Google hingegen zeigt Dir Links zu Webseiten. Du kannst selbst entscheiden, ob Du lieber einen Artikel aus der „Süddeutschen Zeitung“, von der „Bundeszentrale für politische Bildung“ oder aus einem privaten Blog liest. Du siehst die Quelle und kannst sie einordnen. Bei ChatGPT bleibt das meist im Dunkeln, es sei denn, Du fragst gezielt nach und bekommst eine Antwort, die korrekt mit Quellenverweisen ergänzt wurde. Aber das ist nicht der Normalfall.

Ein Beispiel aus dem Alltag: Stell Dir vor, Du willst wissen, ob ein neuer Gesetzesentwurf tatsächlich beschlossen wurde. ChatGPT könnte Dir erklären, was das Gesetz betrifft, wie es aufgebaut ist oder warum es diskutiert wird, aber es kann nicht mit Sicherheit sagen, ob es tatsächlich schon gültig ist. Dafür bräuchtest Du eine offizielle Quelle: etwa den Text des Gesetzes auf der Seite des Parlaments oder einen Artikel aus einer seriösen Nachrichtenquelle. ChatGPT kann Dir bei der Einordnung helfen, aber es ersetzt keine Recherche.

Unser Fazit: Beide Tools sind nützlich, aber für unterschiedliche Aufgaben

Google (oder andere Suchmaschinen) brauchst Du, wenn Du aktuelle Informationen, Originalquellen oder mehrere Blickwinkel suchst. Es ist das richtige Werkzeug, um Fakten zu prüfen, nach konkreten Ereignissen zu suchen oder unterschiedliche Meinungen zu vergleichen.

ChatGPT ist stark, wenn Du Inhalte verstehen, ordnen oder umformulieren willst. Es hilft Dir, komplizierte Texte leichter zu erfassen, Texte zu überarbeiten oder Ideen zu entwickeln. Es kann ein Denkpartner sein, aber kein Faktenprüfer.

Also: Verwechsle die beiden nicht.

Nutze Google, wenn Du sicher gehen willst. Nutze ChatGPT, wenn Du besser verstehen willst. Nur so tappst Du nicht in die Desinfo-Falle und behältst die Kontrolle darüber, wie Du mit Informationen umgehst.

Mimikama buchen? Für Vorträge, Impulse, Workshops und Seminare HIER klicken!