Die Krise der Statistik

Theorie & Technik – die Kolumne aus der taz, 6. Januar 2008

 

„Wehe! Ewig undurchsichtig / Sind die ewigen Gesetze / Der menschlichen Wirtschaft! Ohne Warnung / Öffnet sich der Vulkan und verwüstet die Gegend!“, heißt es bei Brecht. Damit die Sache etwas vorhersehbarer wird, gibt es Statistik und ökonometrische Modelle. Aber mit denen ist es so eine Sache: Schon normale ökonomischen Vorgänge lassen sich kaum in die wirtschaftsmathematischen Modelle zwängen, und zwar erstens, weil „es im allgemeinen sehr schwierig ist, die gesamte relevante Information, die von den Wirtschaftssubjekten benutzt wird, in ein einfaches ökonomisches Modell einzubeziehen“ – so habe ich das schon vor zwanzig Jahren aus dem Lehrbuch für Makroökonomie gelernt. Und noch schwieriger ist es, darauf richtig politisch zu reagieren, da das Agieren der „Marktteilnehmer“ – also der Menschen – ja nicht nur von Fakten abhängig ist, sondern auch von ihren Zukunftserwartungen. Diese Erwartungen können sich verändern – etwa, wenn die Menschen erfahren, was die Modelle vorhersagen, oder, wenn die Wirtschaftspolitik reagiert. Wie die Menschen auf dieses Reagieren reagieren, lässt sich wiederum nur schwer prognostizieren. Wenn die Regierungen massive Konjunkturprogramme auflegen, sind grob gesprochen zwei Reaktionen möglich: die Marktteilnehmer denken sich, „prima, die Politiker werden das Schlimmste verhindern“, und geraten in Konsumlaune. Oder aber sie denken sich, „Ojemine, wenn die Politik so ein Drama macht, dann muss es wirklich schlecht bestellt um uns sein“ – dann sparen die Konsumenten, die Unternehmen verschieben Investitionen etc. Aus all diesen Gründen und geschätzten hundertsiebenunddreißig anderen kann sich Wirtschaftspolitik selbst einen Strich durch die Rechnung machen, aber es kann auch die Statistik eifrig daran mitarbeiten, ihre eigenen Ergebnisse zu verfälschen.

 

Besonders schlimm wird das natürlich, wenn die Normalität dem Chaos weicht. Dann kann man die aktuellen Daten in Modellreihen einspeisen, die lange grosso modo zuverlässig waren, und es kommt etwas völlig Absurdes heraus. So erzählte mir ein Notenbanker, dass die Modelle gerade eine Hochkonjunktur prophezeien. Hohe Kreditzinsen deuten auf hohe Kapitalnachfrage und damit ein gutes Investitionsklima hin, ein gesunkener Ölpreis auf eine günstige Preisstruktur für Unternehmen. Was der Rechner ausspuckt wandert direkt in die Rundablage.

 

Die Krise zieht also auch eine Krise der Statistik nach sich – bemerkenswerter freilich ist, dass die Krise selbst ein Resultat schlecht verstandener Wirtschaftsmathematik ist. Vereinfacht gesprochen ist die Krise ja eine Folge eines aufgeblasenen Kreditvolumens – und des massenhaften Ausfalls von Krediten. Nun ist es aber nicht so, dass die Banken dazu übergegangen sind, einfach freihändig Kredite zu vergeben. Sie hatten Modelle und historische Datenreihen zur Hand, mit Hilfe derer sich statistische Ausfallswahrscheinlichkeiten von Darlehen berechnen ließen. An sich ist das eine prima Sache: Ohne solche Mathematik könnte es keine Versicherungen geben. Wenn jemand sein Eigenheim auf Feuer oder Sturm versichern will, kann man an Hand des Wissens, dass durchschnittlich pro Jahr – beispielsweise – von tausend Häusern eines abbrennt, leicht eine Schadensfallwahrscheinlichkeit errechnen. In diesem Fall ist es auch kaum anzunehmen, dass mit dem Eintritt des Schadens sofort Folgerisiken wirksam werden – wenn ein Haus abbrennt, verleitet das ja nicht zehn Nachbarn dazu, ihre Häuser in Panik auch gleich anzuzünden.

 

Aber genau das passiert, wenn auf Finanzmärkten der Risikofall eintritt. Deshalb sind, schreibt der Wirtschaftsjournalist Rainer Sommer in seinem Buch „Die Subprime-Krise und ihre Folgen“ „Panik und Herdentrieb generell eher schwer mathematisch erfassbar“. Hinzu kommt, dass mit der Genauigkeit der Berechnungsmodelle nicht nur die Wirklichkeit exakter beobachtet werden kann, sondern dass sich die beobachtete Wirklichkeit sofort verändert. Denn mit den neuen mathematischen Methoden werden neue Finanzprodukte generiert, aber die Daten, die den Modellen zugrunde liegen, stammen aus einer Zeit, als diese Produkte noch nicht existierten. Sommer: „Die dadurch veranlassten Trades verändern das Umfeld, von dem das Modell ausgegangen ist, wodurch es bald obsolet werden wird. So verhält es sich mit den verschiedenen Programmen, die aus historischen Daten mit Hilfe mathematischer Algorithmen auf nachhaltige Trends und Preisentwicklungen schließen oder Handelssignale generieren sollen.“

 

Es ist in der Ökonomie schon nahezu unmöglich, zu berechnen, wie all die vielfätigst miteinander verwobenen harten Parameter aufeinander reagieren. Gänzlich unberechenbar ist aber der Mensch, der Lump.

Ein Gedanke zu „Die Krise der Statistik“

  1. Ich habe, um das von vorneherein klar zu stellen, keine Ahnung von VWL, BWL oder dem Finanzmarkt.
    Aber trotzdem bin ich der festen Überzeugung, dass vorallem der Teil stimmt, der besagt, dass, auch wenn alles andere berechenbar zu sein scheint, der Mensch es nicht ist.
    Denn das einzige, was der Mensch in seiner Vielfältigkeit ist, ist menschlich.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.