Eine aktuelle Studie zeigt ziemlich deutlich, was im Hype um künstliche Intelligenz gern übersehen wird: Wenn es wirklich ernst wird, versagen viele KI-Wettermodelle. Während sie bei „Durchschnittswetter“ schnell und oft erstaunlich präzise liefern, geraten sie bei Extremereignissen ins Schleudern – und zwar systematisch.
Hitzewellen, Kälterekorde, Stürme: Je seltener das Ereignis, desto stärker daneben liegt die KI. Sie unterschätzt, wie oft solche Extreme auftreten – und wie heftig sie ausfallen. Das ist kein kleiner Schönheitsfehler, sondern ein handfestes Problem, gerade in Zeiten des Klimawandels.
Der Grund ist fast banal: KI kennt nur die Vergangenheit. Sie erkennt Muster in historischen Daten und rechnet diese in die Zukunft fort. Was sie nicht kennt, kann sie schlecht vorhersagen. Und genau darin liegt die Ironie – denn der Klimawandel produziert genau diese „neuen“ Wetterlagen, die es so früher kaum gab.
Klassische Wettermodelle wirken daneben fast altmodisch – sind aber robuster. Sie basieren auf physikalischen Gesetzen und aktuellen Messdaten und können deshalb auch ungewöhnliche Entwicklungen besser abbilden. Kurz gesagt: Sie „verstehen“ das Wetter, während KI es eher nacherzählt.
Fachleute überrascht das wenig. Datengetriebene Systeme sind keine Hellseher. Sie sind gut im Kopieren – aber schwach im Unbekannten.
Heißt das, KI ist nutzlos? Nein. Aber der blinde Glaube an die Wunderwaffe bekommt Risse. Für kritische Anwendungen wie Frühwarnsysteme oder Katastrophenschutz reicht es schlicht noch nicht.
Die Zukunft dürfte daher weniger in einem Entweder-oder liegen, sondern in einer Kombination: KI für Tempo und Mustererkennung, klassische Modelle für physikalische Tiefe.
Und dann ist da noch ein Faktor, der sich bislang nicht wegautomatisieren lässt: der Mensch. Am Ende sind es immer noch Meteorologen, die die Modelle einordnen, bewerten – und im Zweifel entscheiden, ob aus einer Prognose eine Warnung wird.

