Guten Morgen. Wer schnellen Rat braucht, verlässt sich immer öfter auf Chat GPT und andere große Sprachmodelle. Die bauen wiederum auf Informationen, die sie im scheinbar allwissenden Internet zusammenklauben. Und das ist häufig verzerrt oder weist sogar bedenkliche Lücken auf, wie der Forscher Deepak Varuvel Dennison im Guardian zu Bedenken gibt.
Schließlich würden große Sprachmodelle mithilfe riesiger Textdatensätze aus Quellen wie Büchern, Artikeln und Webseiten trainiert – und dabei mündlich überliefertes Wissen übersehen. Noch dazu sei die englische Sprache im Vergleich zu ihrer demografischen Verbreitung überrepräsentiert.
Verstärkt werde das Ganze noch dadurch, dass im Internet inzwischen so viel KI-generiertes Wissen herumschwirrt, das KI-Modelle wieder füttert und den Effekt weiter verstärkt. Am Ende drohe, was der Wissenschaftler Andrew Peterson einen „Wissenszusammenbruch“ nennt.
In meinem eigenen Alltag habe ich zuletzt in der Küche versucht, diesem Effekt entgegenzutreten. Beim Spätzlekochen vertraue ich auf ein Rezept, das mir vor vielen Jahren mein Vater übers Telefon diktiert hat. Der hatte es wiederum im Kopf: Meine Oma hat es ihm beigebracht.
Jetzt mit
SZ Pro-Abo weiterlesen
Probeabo
79,99 €
0,99 €
Nach 4 Wochen kostet das Abo 79,99 € monatlich.
Werktäglich die Fachbriefings von SZ Dossier
Voller Zugriff auf SZ.de, SZ-Magazin.de und SZ-Dossier.de
Die digitalen Ausgaben der SZ – in der App und als E-Paper
Bereits SZ Pro-Abonnent? Einloggen
Ihr persönlicher Kontakt
Nico Kreuzpointner
+49 151 20 64 94 90Rufen Sie uns an oder schreiben Sie uns eine E-Mail an service@sz-dossier.de.

