Ein Gastbeitrag von Patrick Kaczmarczyk
Die Debatten um eine nachhaltige Transformation der Wirtschaft und das Energieembargo rücken nach Jahrzehnten unzähliger Krisen – angefangen bei massiven Währungskrisen in den 1980er und 1990er Jahren, über die Finanz- und Eurokrise bis hin zur Coronakrise – die Frage in den Mittelpunkt, ob die moderne Ökonomik geeignet ist, der Politik praxisrelevante Ratschläge an die Hand zu geben.
In der Diskussion um das Energieembargo gegen Russland fiel auf, dass einige Mainstream-Ökonomen ihre Prognosen im öffentlichen Diskurs als „Fakten“ und „wissenschaftliche Evidenz“ darstellten – und eben nicht als Ergebnis bestimmter Modelle. Und auch sonst stellen viele Vertreter des Mainstreams ihre wissenschaftliche Arbeit als universelle und allgemein gültige Wahrheit dar. Ökonomen anderer Denkschulen werden als Bauchgefühlökonomen bezeichnet und Nicht-Mainstream Ansichten werden mit der Homöopathie in der Medizin gleichgesetzt.
Eine solche Selbstwahrnehmung und Außendarstellung ist bei vielen orthodoxen Ökonomen gang und gäbe. Ihre Kommunikation und Weltanschauung suggerieren, dass man mit ihren Modellen, ähnlich wie in den Naturwissenschaften, wertneutrale und empirisch sauber abgesicherte Ergebnisse vorweisen kann, auf die Verlass ist. Allerdings ist die Volkswirtschaftslehre keine Natur- sondern eine Sozialwissenschaft – und muss als solche von vorneherein mit viel mehr Unsicherheit umgehen als beispielsweise die Physik, weil man sich einem komplexen Entwicklungsprozess gegenübersieht und praktisch keine kontrollierten Experimente vornehmen kann.
Vor allem in den vergangenen Jahrzehnten hat sie sich die Ökonomik mit ihren Prognosen und ihren wirtschaftspolitischen Empfehlungen nicht gerade mit Ruhm bekleckert. Nach Jahrzehnten der Dauerkrisen, die mit dem Siegeszug der angebotsorientierten Neoklassik und auf ihr aufbauenden Theorien losgetreten wurden, darf es einen nicht wirklich verwundern, wenn die Politik langsam das Vertrauen in den Mainstream und seine Fähigkeiten verliert, ihr praxisrelevante Lösungsvorschläge zu bieten. Weite Teile der orthodoxen Ökonomik wiederum akzeptieren eine solche Kritik nicht und fühlen sich missverstanden. Seit der Finanzkrise von 2008/2009 habe sich einiges getan, argumentieren sie, und die Debatte um Pluralität in der Ökonomik sei deswegen völlig überholt.
Doch ist das wirklich so? Der moderne ökonomische Mainstream mag auf den ersten Blick seit der Krise einige Anpassungen vorgenommen haben, im Kern ist er jedoch derselbe ist wie vor 2008. Da dieser Kern nicht in der Lage ist, die grundlegenden Abläufe und Mechanismen in einer Ökonomie zu erklären und zu verstehen, ist der Nutzen für die Politikberatung bestenfalls äußerst gering und schlimmstenfalls schädlich – nämlich dann, wenn die Politik versucht, Mainstreamtheorie unmittelbar in die Praxis umzusetzen (wie im Falle Griechenlands oder bei unzähligen IWF-Entwicklungsprogrammen im globalen Süden).
Ich will zunächst auf die Ökonomik von heute eingehen und danach herausarbeiten, in welchen Bereichen wir es mehr mit Kontinuität als mit Wandel zu tun haben. Meine Kritik richtet sich nicht gegen Vereinfachungen der Wirklichkeit, die man immer für die wissenschaftliche Arbeit braucht. Es ist aber meist so, dass die getroffenen Annahmen und Vereinfachungen mit der Realität absolut nichts zu tun haben, was bedeutet, dass die Modelle die realen Abläufe in keiner Weise darstellen und erklären können.
Die moderne Makroökonomik
Das Feld der Ökonomik selbst ist unglaublich vielfältig und breit, doch entscheidend für die wirtschaftspolitische Beratung ist die Makroökonomik, weswegen ich mich weitgehend hierauf beschränke. Heutzutage machen sogenannte DSGE-Modelle den Großteil der makroökonomischen Forschung aus und auch in der Beratung sind sie sehr wichtig. DSGE ist ein Akronym für: dynamic stochastic general equilibrium (dynamische stochastisches allgemeines Gleichgewicht). Sie gelten heute als state-of-the-art, quasi das Nonplusultra des Mainstreams.
DSGE Modelle, von denen es mittlerweile unzählige verschiedener Varianten gibt, sind in ihrem Kern auf sogenannten Real-Business-Cycle-Modellen (RBC) aufgebaut. Diese Modelle verkörpern das Standardverständnis einer „perfekten Ökonomie“: Es gibt keine Regierung und kein Geld, alles spielt sich in einer „Realwirtschaft“ ab, von der allerdings feststeht, dass es sie in der Realität nicht gibt. Man vermutet z. B., dass die Unternehmen ihre Produktion jederzeit an die sogenannten Faktorpreisänderungen (an die Preise von Arbeit und Kapital) anpassen. Steigen die Löhne, wird kapitalintensiver produziert und umgekehrt. Unternehmen, die dies nicht tun, würden nicht effizient sein und durch die Annahme der „vollständigen Konkurrenz“ – die sämtliche Unternehmen zu Preisnehmern degradiert und keine Ineffizienz erlaubt – würden sie aus dem Markt ausscheiden. Ich gehe noch weiter unten auf die Probleme mit dieser Theorie ein, denn es ist eine rein fiktive Behauptung ohne Bezug zur Realität und bildet dennoch weiterhin den Kern des „modernen“ Mainstreams.
In den klassischen RBC-Modellen kommen nur ein repräsentativer Haushalt und eine repräsentative Firma vor, mehr braucht es nicht, da die Regierung und/oder die Zentralbank über Geldpolitik die Wohlfahrt in so einer Welt annahmegemäß ohnehin nicht steigern können. Die Haushalte optimieren ihr Angebot an Arbeit sowie ihre Spar- und Konsumentscheidungen (heute zu sparen bedeutet eine höhere Präferenz für Konsum in der Zukunft). Die Firmen hingegen optimieren ihre Produktionsmethode dahingehend, dass sie versuchen, unter den Annahmen (wie oben gezeigt) ihre Kosten zu minimieren und ihre Profite zu maximieren.
Eine Welt, die so funktioniert, gibt es selbstverständlich nicht. Vor allem nach der Finanzkrise wurde es unangenehm für die Profession, die sich scheinbar in ihrem Elfenbeinturm an hochkomplexer und anspruchsvoller Mathematik abarbeitete, um dann vollends von einem Tsunami überschwemmt zu werden, der im Bankensektor seinen Ursprung hatte – also in eben jener Sphäre, die von der Theorie als völlig irrelevant gesehen wurde.
Es musste sich somit offensichtlich etwas ändern, und tatsächlich, es passierte etwas. Zwar haben viele DSGE Modelle (die irrtümlicherweise auch als „neukeynesianische Modelle“ bezeichnet werden) schon vor der Finanzkrise das Licht der Welt erblickt, doch insbesondere nach 2008 gab es einen regelrechten „DSGE-Boom“. Eine der wichtigsten Anpassungen dabei war, dass die Modelle im Vergleich zu den klassischen RBC Modellen versucht haben, Geld zu berücksichtigen. Es findet sich hier nun eine Zentralbank, die die Zinsen setzt und Banken sind vereinzelt ebenfalls mit dabei. Auch der Regierung fällt in diesen Modellen plötzlich eine Rolle zu (tatsächlich kann sie nämlich über Fiskalpolitik wohlfahrtssteigernde Effekte erzielen). Die Haushalte werden etwas heterogener modelliert, die Annahme vollkommener Konkurrenz wird durch die realistischere Annahme monopolistischer Konkurrenz ersetzt, und diverse „Marktunvollkommenheiten“ („sticky prices“) tauchen auf. Das ist zwar ein realistischerer Modellierungsansatz, ob er realistisch ist, ist jedoch eine ganz andere Frage.
Frisch vom Fass oder alter Wein in neuen Schläuchen?
Alan Greenspan sprach 2008 vom „Zusammenbruch des gesamten intellektuellen Gerüsts“ und angesichts der Tragweite der Finanzkrise und immer wiederkehrender Krisen im globalen Süden hätte es in der Ökonomik eine gründliche Revision der gescheiterten Ideen geben müssen. Allerdings hat sich, wenn man ein wenig tiefer in die Materie eintaucht, dann doch erstaunlich wenig getan. Die zentralen Kernannahmen und Grundmechanismen der Neoklassik behielt die moderne Makroökonomik bei.
Zudem bleibt ein weiterer Schwachpunkt bestehen, nämlich, dass die Krisenherkunft immer außerhalb des Modells liegt (sog. exogene Schocks). Die Modelle erklären somit nicht die Herkunft der Krise, sondern beschäftigen sich nur mit der Reaktion darauf. Paul Romer, Träger des Alfred-Nobel-Gedächtnispreis für Wirtschaftswissenschaften 2018, bezeichnete vor einigen Jahren DSGE-Modelle deshalb etwas polemisch als „RBC-Schwein“, das einen „sticky-price Lippenstift“ trägt.
Zu den Grundannahmen der modernen Makroökonomik gehören weiterhin die Standardwerkzeuge des neoklassischen Baukastens, allen voran Gleichgewichtsorientierung, Mikrofundierung, intertemporale Optimierung und rationale Erwartungen. Im Kern haben wir es somit nicht mit einem Wandel, sondern mit einem Kontinuum zu tun. Die Haushalte wählen in den Modellen weiterhin, wie viel Arbeit und Freizeit sie anbieten/genießen und wie viel sie sparen oder konsumieren wollen, um ihren Nutzen zu maximieren.
Das Gleichgewicht auf dem Arbeitsmarkt ergibt sich aus dem Arbeitsangebot der Haushalte und der Nachfrage der Firmen, wobei das Lohnniveau entscheidend dafür ist, wie viel Arbeit (im Verhältnis zur Freizeit) angeboten wird und wie viel Arbeiter die Unternehmen einstellen wollen. Selbst, wenn „Marktunvollkommenheiten“ angenommen werden, ist das Optimierungsverhalten letztendlich die Grundlage für das Zustandekommen eines Gleichgewichts, das den Ausgangspunkt der Berechnungen bildet und auf das sich die Volkswirtschaft nach einem Schock wieder zubewegt.
Gleichgewichtsdenken und Unsicherheit
Das größte Problem der modernen Makroökonomik ist das Festhalten an der Annahme, mit einem allgemeinen Gleichgewicht lasse sich die dynamische Entwicklung der Weltwirtschaft angemessen erfassen. 250 Jahre Kapitalismus, Krisen, Innovationen und Verwerfungen haben nicht ausgereicht, um die meisten Ökonomen in der Weltsicht zu erschüttern, dass die Wirtschaft kein in sich stabiles Gebilde ist, sondern von fundamentaler Unsicherheit und stetiger Veränderung – und damit von Instabilität geprägt ist.
Gleichgewichte entstehen in sogenannten „dynamischen“ Modellen durch intertemporale Optimierung, also die zuvor genannte Nutzenmaximierung der Haushalte und Anpassung der Produktion an die Faktorpreise von Arbeit und Kapital. Die Neoklassik geht weiterhin davon aus, dass Optimierung sämtliche Prozesse des Wirtschaftslebens bestimmt und die Ökonomie aus diesem Grund zu einem Gleichgewicht tendiert. Das Problem lässt sich kurz zusammenfassen: Wenn es keine Optimierung und damit keine Substitution der Produktionsfaktoren gibt, gibt es auch kein Gleichgewicht. Lohnsenkungen führen dann schlicht zu Nachfrageausfällen, was eine Anpassung der Produktion nach unten und somit eine höhere Arbeitslosigkeit zur Folge hat.
Für die in der Neoklassik verankerte Optimierungsannahmen gibt es weder empirische Belege noch eine solide theoretische Grundlage – und doch ist dies das ist das Fundament, auf dem der moderne Mainstream aufgebaut ist. Das fängt auf der der Seite der privaten Haushalte an. Hier würden die meisten normalen Menschen anmerken, dass sie zunächst keinerlei Informationen über ihren Grenznutzen von Freizeit haben, anhand dessen sie – im Verhältnis zum Reallohn – ihr Arbeitsangebot bestimmen könnten. Die Information können sie auch gar nicht haben, denn der Reallohn ist zum Zeitpunkt des Arbeitsvertragsabschlusses eine unbekannte Größe, weil er immer erst ex postberechnet werden kann. Das Preisniveau ist ja Ergebnis eines Prozesses, der unter hoher Unsicherheit stattfindet.
Doch selbst, wenn (!) die Arbeitnehmer diese Information hätten, würde ihnen die Entscheidung zwischen Arbeit und Freizeit zu wählen ohnehin abgenommen, denn in der Regel gibt der Arbeitgeber vor, wie viele Stunden gearbeitet werden muss. Entweder man nimmt das Angebot an oder man ist raus. Vor allem in Zeiten hoher Arbeitslosigkeit und einem großen Machtgefälle zwischen der Arbeitgeber- und Arbeitnehmerseite ist die Verhandlungsposition letzterer sehr begrenzt. Auch die Erklärung steigender Arbeitslosigkeit in den DSGE Modellen als eine Reaktion der Haushalte auf eine intertemporale Schwankung des Reallohns wird nur ein Mainstreamökonom überzeugend finden, denn für viele Menschen bedeutet weniger Beschäftigung nicht mehr Freude an der Freizeit und Urlaubspause, sondern veritable Einnahmeausfälle und Schicksalsschläge. Die Annahme, dass es ein individuelles Arbeitsangebot gäbe, das in irgendeiner Form optimiert werden könnte, ist somit eine Fiktion.
Ebenso fiktiv ist die Optimierungsannahme auf Seiten der Unternehmen. Hier basteln sich die Ökonomen eine Produktionsfunktion, mittels derer sie modellieren, welche Produktionstechniken die Unternehmen verwenden und wie die Produktion an relative Preisänderungen von Arbeit und Kapital angepasst wird. Optimierung der Produktion heißt: Steigen die Löhne (relativ), wird kapitalintensiver produziert. Sinken die Löhne, wird arbeitsintensiver produziert.
Diese Annahme setzt zunächst voraus, dass es so etwas wie ein marginales Produkt von Arbeit und Kapital überhaupt gibt. Allein das dürfte in einer hochkomplexen und arbeitsteiligen Wirtschaft, in der Produktion ein fundamental kollektiver Prozess ist, schwierig zu rechtfertigen sein. Es ähnelt dem Versuch, den individuellen Beitrag eines Reifens, Lenkrads oder Motors zur Fahrleistung zu geben oder den Grenzbeitrag eines Fußballspielers zum Erfolg der Mannschaft (vgl. dazu hier oder hier, S. 53). Gerade in der Coronakrise sah man, dass es ohne die oft am schlechtesten renummerierten Jobs überhaupt gar keine Produktion hätte geben können, sodass man sich die Diskussion um das marginale Produkt einzelner Jobs ersparen kann.
Doch ähnlich wie im obigen Fall gilt: selbst, wenn man unterstellt, dass es prinzipiell möglich wäre, individuelle Grenzprodukte und -kosten zu definieren, so stellt sich die Frage, wo die Unternehmen die Informationen darüber herbekommen sollten. Den Reallohn – den Preis der Arbeit – können sie nicht identifizieren, und zwar aus denselben Gründen wie die Arbeitnehmer auf Seiten der Haushalte es nicht wissen können. Dasselbe gilt für den Preis von Kapital, wobei hier noch das Problem hinzukommt, dass der Kapitalbegriff nicht klar definiert ist. Kapital ist in der orthodoxen Ökonomik ein Einheitsgut, das sowohl investiert als auch konsumiert werden kann. Mal benutzen die Ökonomen den Begriff für physisches Kapital, also Maschinen, Fabriken und so weiter, mal sind es Ersparnisse bzw. Kredite. Zudem zeigte die Cambridge Kapitalkontroverse, dass es unmöglich ist, einen heterogenen Kapitalstock in einer homogenen Variable zu aggregieren.
Schließlich beobachten wir tagtäglich, dass die Unternehmen sich nicht entsprechend der Substitutionslogik verhalten. Werden die Löhne drastisch gesenkt, beobachten wir keinen weitläufigen Wechsel auf eine arbeitsintensivere Produktionsmethode, sondern einen Anstieg der Arbeitslosigkeit. Griechenland ist das beste Beispiel dafür. Auch im Rahmen internationaler Direktinvestitionen werden oft hochproduktive Anlagen in Niedriglohnländern hochgezogen, sodass die Unternehmen ihre hohe Produktivität mit niedrigen Löhnen kombinieren und dadurch Monopolgewinne abschöpfen. Die Auslagerungen nach Osteuropa stehen in der EU exemplarisch für ein solches Verhalten.
Durch Optimierung gibt es keine Entwicklung
Trotz der fundamentalen theoretischen und empirischen Defizite der Substitutionslogik ist das wohl gravierendste Problem, dass es keine wirtschaftliche Entwicklung geben würde, wenn die orthodoxe Theorie zuträfe und Firmen (intertemporal) optimieren würden. Schumpeter kritisierte die Neoklassik für eben diese Optimierungsannahme, die seiner Ansicht nach nichts mit Unternehmertum zu tun hat, in dem es um Innovationen, d.h. Neukombinationen und damit das Gegenteil (!!) von Optimierung geht. In einer Welt, in der sich erfolgreiche Innovationen durchsetzen, verändern sich stetig sämtliche Bemessungsparameter, nach denen Firmen ihre wirtschaftlichen Entscheidungen treffen (Nachfrage, Marktanteile, Auslagerung, Innovationsdruck, Beschäftigung usw.). Optimierung der Produktion wird in einer solchen Welt irrelevant, da die Monopolgewinne und/oder höheren Marktanteile des Pioniers, die sich aus der Neukombination ergeben, die verbliebenen Unternehmen unter Druck setzen. Es kommt im Rahmen der wirtschaftlichen Entwicklung zur Imitation der Neukombination durch die verbliebenen (oder neuen) Marktteilnehmer, die sich ansonsten aus dem Wirtschaftsleben verabschieden müssten, wenn sie alles auf Optimierung setzen würde. Die Neukombination, also die Veränderung der Produktionsstrukturen, ist der entscheidende Motor der Entwicklung. Im Grunde bedeutet es, dass Unternehmen in einer Marktwirtschaft entweder nach Veränderung in Form einer Neukombination streben oder durch den Wettbewerb dazu gezwungen werden. In jedem Fall bleibt das System ständig in Bewegung und in stetiger Veränderung – und genau deshalb hat der Prozess des Wirtschaftens vor allem auf längere Sicht nichts mit einer Optimierung der Produktion zu tun.
Der Prozess der Innovation selbst unterliegt dabei fundamentaler Unsicherheit. Wir können ex ante schlicht nicht wissen, ob eine neue Organisationsform, unser neues Produkt oder die neue Technik in der Praxis wirklich zum Erfolg führen wird. Wir können als Pioniere hoffen, dass es aufgrund eigener Erfahrung oder Intuition so kommen könnte. Doch zwischen Praxis und Theorie scheitern unglaublich viele neue, innovative Ideen (oft und gerne wird auf die 80-90 Prozent der Start-Ups verwiesen, die mit ihren Ideen scheitern – ähnlich viele unternehmensinterne Projekte scheitern noch vor der Kommerzialisierung). Innovation ist deshalb seinem Wesen nach ein Prozess von „Trial-and-Error“ bzw. „Suchen und Finden“ – und kann somit nicht so modelliert werden, dass den Entrepreneuren alle zukünftigen Ereignisse mit den jeweiligen Wahrscheinlichkeiten bekannt sind, sodass Optimierung im klassischen Sinne möglich wird (beispielsweise durch Investitionen in Forschung und Entwicklung).
Bei vielen Innovationen finden sich die Anwendungen auch erst später. Das neueste Buch „Mission Economy“ von Mariana Mazzucato ist in der Hinsicht voll mit Beispielen, bei denen Innovationen ursprünglich ganz andere Anwendungsgebiete hatten (Viagra wurde z.B. zur Behandlung von Herzkrankheiten entwickelt) oder hintenraus zu weiteren, völlig unvorhersehbaren Innovationen führen (die Erfindung des Internets sei hier mal genannt, welches ursprünglich zur Kommunikation zwischen Satelliten entwickelt wurde). Das ist genau das, was Schumpeter meinte, als er davon sprach, dass Neukombinationen zu weiteren Neukombinationen führen und Entwicklung somit als eine Abfolge von Ungleichgewichten zu verstehen sei – was sich nicht in ein Modell zwängen lässt, in dem alle Prozesse von intertemporaler Optimierung und Gleichgewichtsdenken bestimmt werden.
Ich habe mich hier ausdrücklich auf die Substitutions- und Optimierungslogik beschränkt. Doch selbstverständlich hakt die Gleichgewichtslogik auch an anderen Stellen. Wenn wir uns insbesondere die Gleichgewichtstendenzen auf den Finanzmärkten schauen, so suchen wir danach ebenso vergeblich wie nach Gleichgewichten in anderen Sektoren. Vor allem die Entwicklungsländer sind dabei immer wieder von massiven Währungs- und Rohstoffspekulationen betroffen, die sie in ihrer Entwicklung immer wieder zurückwerfen. Zudem kommen noch eine Reihe (sich stetig ändernder) geopolitischer Implikationen, die das wirtschaftliche Geschehen entscheidend prägen. In den letzten 250 Jahren Kapitalismus gab es somit weder ein Gleichgewicht noch eine Tendenz dahin – und das wird auch in den kommenden 250 Jahren so bleiben. Die Gleichgewichtsbrille hat mit der realen Welt schlicht und einfach nichts zu tun.
Berechnungen des Gleichgewichts – alles andere als physikalische Exaktheit
Dass das Gros des Mainstreams weiterhin am Gleichgewichtsdenken hängt, ist folglich problematisch, wenn es um wirtschaftspolitische Beratung geht – insbesondere hinsichtlich langfristiger Entwicklung. Kurzfristig könnte man unter Umständen davon absehen, wenn die Analyse selbst auf einen Zeitraum von einigen Monaten beschränkt ist. Obwohl die Prozesse einer dynamischen Wirtschaft nichts mit den Annahmen der Gleichgewichtsökonomik gemein haben, so sagte Schumpeter Anpassungsprozessen in der kurzen Frist eine gewisse Validität zu (auch wenn er sie insgesamt als irrelevant klassifizierte). Es ist somit möglich, Gleichgewichtsmodelle für Analysen zu kurzfristigen Auswirkungen von Schocks zu Rate zu ziehen. Der Politik, den Medien und auch Teilen der Öffentlichkeit vermittelt eine Zahl, wie z.B. das BIP auf eine Zinserhöhung hin reagieren wird, ein Gefühl von Sicherheit und Orientierung. Das kann durchaus hilfreich sein. Allerdings sollte dabei klar kommuniziert werden, um was für eine Analyse es sich handelt, was sie leisten kann und wo die Grenzen liegen. Im Idealfall wäre eine solche Übung auch nur ein Teil der ökonomischen Ausbildung und Forschung, denn letztendlich sollte es das Ziel sein, langfristige und dynamische Entwicklungen zu verstehen und zu managen.
Der erste Punkt, den es zur Einordnung der Modellprognosen zu bedenken gilt, ist, dass die moderne Makroökonomik davon ausgeht, dass sich die Wirtschaft zu einem gegebenen Zeitpunkt im allgemeinen Gleichgewicht befindet, wenn der exogene Schock auf die Wirtschaft trifft. Zur Operationalisierung mag eine solche Annahme notwendig sein, doch sollte man bedenken, dass die Dynamik, die sich durch einen Schock ergibt, durchaus anders verlaufen kann, wenn die Wirtschaft sich in einer sehr instabilen Lage befindet (z.B. ist unsere heutige Situation nach zwei Jahren Corona, den massiven Unsicherheiten durch einen Krieg, die Dekarbonisierung und industriellen Umbruch geprägt – was eine ganz andere Ausgangslage als ein allgemeines Gleichgewicht ist). Zweitens sollte man bedenken, dass die nicht-linearen Gleichungen, die sich aus den optimalen Entscheidungen der Agenten ergeben, um einen stationären Zustand („steady state“) herum log-linearisiert werden (d.h. in eine lineare Form gequetscht), damit man im Modell zu einer präzisen und eindeutigen Prognose über die Zukunft gelangen kann. Auf Basis dieser Linearisierung werden dann die sog. Reaktionen der Wirtschaft auf einen Schock berechnet („impulse responses“), die sich danach wieder auf das alte oder ein neues Gleichgewicht zubewegt. Es sei darauf hingewiesen, dass die Linearisierung effektiv mit der Annahme einhergeht, dass die Turbulenzen, die sich in der Wirtschaft ergeben, eher gering und kurzfristig sind. Je nachdem, wie schwierig bereits die Ausgangslage ist und welcher Natur der Schock sein mag (bzw. inwiefern er z.B. durch politisches Missmanagement vergrößert wird), kann diese Annahme und damit das Ergebnis des Modells hinfällig sein.
Zuletzt sei angemerkt, dass die zuvor kritisierte intertemporale Optimierung hier die Entwicklung zum Gleichgewicht bestimmt. Wie auch immer das Ergebnis aussehen mag, es ist wichtig im Hinterkopf zu behalten, dass es ausschließlich auf die kurze Frist überhaupt ein Minimum an Aussagekraft haben kann. Schumpeters Kritik, dass es langfristig nicht um Optimierung geht, sondern, dass Entwicklung ein Prozess ist, der gerade dadurch gekennzeichnet ist, dass durch interne, endogene Störungen immer wieder der Prozess der Anpassung behindert wird, behält somit seine Gültigkeit – auch wenn man versucht, diesen Prozess auf vereinzelte Zeitabschnitte aufzuteilen und mit statistischen Kniffen zu umgehen und das Modell als „dynamisch“ bezeichnet.
Nichtsdestotrotz können die Modelle für bestimmte Schocks halbwegs solide Vorhersagen liefern, was jedoch nicht auf die zugrundeliegende Theorie, sondern auf die Kalibrierung zurückzuführen ist. Die Schätzungen in den Modellen hängen von vielen unbekannten Parameterwerten ab, die in irgendeiner Weise bestimmt und ins Modell eingesetzt werden müssen – und an diesen Parametern kann man basteln und rumschrauben, sodass das Ergebnis bei Datensätzen aus der Vergangenheit eine gute Prognosekraft vorweisen kann. Gerade, wenn es darum geht, die „Wissenschaftlichkeit“ der modernen Forschung zu verstehen, die in der öffentlichen Kommunikation fälschlicherweise den Eindruck naturwissenschaftlicher Präzision zu vermitteln versucht, muss man sich dessen bewusst sein, über wie viele unbekannte Faktoren in der Berechnung in der Kommunikation der Arbeiten gerne hinweggesehen wird: Bei hochkomplexen Modellen mit teils hunderten von Gleichungen, lassen sich nicht alle Gleichungen eindeutig identifizieren. Das heißt, die Ökonomen müssen mit einem Identifikationsproblem umgehen: es müssen, je nach Komplexität des Modells, extrem viele verschiedene zusätzliche Parameter ins Modell eingefügt und mit Werten versehen werden, die man bestenfalls grob abschätzt oder die in früheren Analysen funktioniert haben (die sogenannten „Priors“) oder die man sich – schlimmstenfalls – einfach aus der Luft greift, um die Gleichungen zu identifizieren. In jedem Fall gilt jedoch, dass man mit vielen Parameterwerten arbeitet, deren wahren Wert man nicht kennt und nicht kennen kann. Romer nannte diese Parameter deshalb „facts with unknown truth value“, kurz: FWUTV.
Der Umgang der modernen Makroökonomik mit dem Identifikationsproblem ist einer der Hauptkritikpunkte an ihrer Validität. Von der Wahl der Parameterwerte hängen nämlich maßgeblich die Ergebnisse des Modells ab – und welche Werte da genau wie genau und warum eingefügt wurden, lässt sich auf den ersten Blick selten nachvollziehen. Im Grunde kann man in diese Modelle alles einfügen, was man will, und so drehen, dass genau das rauskommt, was man als Ergebnis haben möchte. Wenn man publizieren will, kann man an den Werten rumschrauben, bis die Prognosefähigkeit des Modells auf einen bestimmten Datensatz hin gut passt und das Papier publikationswürdig wird. In der Statistik nennt man das klassisch „overfitting“ – weil man das Modell auf einen bestimmten Datensatz hin so kalibriert, dass es möglichst gut performt. Der Vorteil, der sich aus dieser Experimentierarbeit ergibt, ist jedoch, dass man für Ereignisse, die sich in der Vergangenheit oft wiederholt haben – wie beispielsweise Änderungen der Geldpolitik – sehr viele Daten hat und somit die Auswirkung der Veränderung der einen Variable auf eine andere – wie beispielsweise Inflation oder BIP – mit den verwendeten Parameterwerten recht gut abschätzen kann. Allerdings sollte man sich auch bewusst sein, dass diese Ergebnisse hauptsächlich durch das Herumhantieren mit den Parametern zustande kommt und die Prognosequalität bei Phänomenen, die wir so nur selten oder noch gar nicht erlebt haben (Stichwort: Finanzkrise, Energieembargo oder Pandemie), deutlich schlechter ist (selbst in der kurzen Frist).
Rationale Erwartungen
Was unter Umständen somit benutzt werden kann, um kurzfristige Auswirkungen eines Schocks zu prognostizieren, ist langfristig (also über ein paar Monate oder gar Jahre hinaus) wenig hilfreich, um der Politik ein durchdachtes Rezept für eine gute Wirtschaftspolitik mit an die Hand zu geben. Dafür bräuchte es eine realitätsnähere und praxisrelevante Theorie, die sich mit Gleichgewichts- und Optimierungsdenken nicht machen lässt. Doch nicht nur dahingehend ist die moderne ökonomische Theorie problematisch. Es gibt eine Reihe weiterer grundlegender Annahmen und unpassender Vereinfachungen, die eigentlich längst hätten verworfen werden müssen.
Fangen wir bei der Theorie der rationalen Erwartungen an, die seit den 1970er Jahren ihren Siegeszug begann. Rationale Erwartungen sind im Grunde nicht mehr als modellkonsistente Erwartungen. Das bedeutet, die Agenten kennen die Struktur und Parameter der Modelökonomie und passen ihre Erwartungen an die Vorhersagen des Modells an. Überträgt man diese Logik auf die Physik, so könnte man sagen, dass ein Apfel – vorausgesetzt, er kenne das Gesetz der Gravitation – sich rational verhält, wenn er vom Baum fällt. Er verhält sich nämlich genau so, wie das Modell es vorhersagt. Rationale Erwartungen dienen somit der Konsistenz des Modells und führen eine Tautologie ein, denn die Agenten verhalten sich genauso, wie vom Modell vorhergesagt. Obwohl der Mainstream im Gegensatz zur Physik keine empirischen Belege für die Annahme liefert, verteidigen manche Ökonomen den Einsatz ihrer Nutzen- und Produktionsfunktionen mit einem Verweis auf die Physik, nämlich z.B., dass „der Mond schließlich auch nicht über die Gesetze der Gravitation nachdenke, aber ihnen trotzdem folgt.“
Mikrofundierung und Geldsystem
Nebst all den Problemen mit den Werkzeugen des neoklassischen Baukastens, mit denen die moderne Ökonomik hantiert, fällt noch ein weiteres, wesentliches Element des Wirtschaftens und der Dynamik unserer Welt hinten runter: die Auswirkungen, die sich aus den finanziellen Verflechtungen aller Akteure ergeben. Dies hängt eng mit einer immer noch validen Kritik an der Modellierung des Geldsystems zusammen.
In einer Geldwirtschaft stehen die Akteure über finanzielle Beziehungen und Bilanzen unausweichlich miteinander in Beziehungen. Die Ausgaben des einen Akteurs entsprechen den Einnahmen eines anderen – und folglich verändern sich auch die Vermögens- und Verbindlichkeitspositionen im Markt. Aus diesen finanziellen Beziehungen ergeben sich in einer unsicheren Welt zwangsläufig Störungen. Minsky hat in seiner Reinterpretation von Keynes für die Finanzmärkte veranschaulicht, wie stark diese Störungen die gesamtwirtschaftliche Dynamik beeinflussen. Da die Erwartungen über die Zukunft in einer dynamischen Welt stetigen Veränderungen unterworfen sind und sich häufig nicht materialisieren, führt dies zu gravierenden Konsequenzen auf den Märkten. Wenn nämlich die erwarteten Einzahlungen, die zur Begleichung der eigenen Zahlungsverpflichtungen benötigt werden, nicht mehr aufgebracht werden können, dann kann sich das Problem durch weite Teile der Wirtschaft ziehen. Wenn der Mechanismus des reibungslosen Geldumlaufs ins Stocken gerät, weil beispielsweise alle versuchen zu sparen, um ihre Zahlungsverbindlichkeiten und Risiken zu minimieren, dann wird der Ökonomie Nachfrage entzogen. Die Kapazitäten werden entsprechend abgebaut und an das neue Nachfrageniveau angepasst, sodass die Arbeitslosigkeit steigt (sofern nicht das Ausland in die Nettoschuldnerrolle springt, was früher oder später zu politischen Verwerfungen führt). Umgekehrt erleben wir es insbesondere auf den Finanzmärkten oft, dass das Eintreffen der Erwartungen die Spekulanten zu immer weiteren und riskanteren Wetten treibt, was vor allem der globale Süden in seiner Entwicklung zu spüren bekommt.
Letztendlich bleibt es allerdings dabei, dass sowohl zu Krisenzeiten als auch in wirtschaftlichen Abschwüngen die Märkte hin zu sich selbst verstärkenden Effekten tendieren, die nur vom Staat durch kluges Eingreifen stabilisiert werden können. Die Interaktionen zwischen den Agenten und Sektoren einer Wirtschaft bestimmen somit fundamental die ökonomische Entwicklung und Dynamik – und doch bleibt bei der gängigen Art der Mikrofundierung des Mainstreams kein Platz dafür, denn eben jene Interaktionen werden durch repräsentative Haushalte und Firmen ignoriert. Ganz wesentliche Probleme, die sich aus dem Trugschluss der Verallgemeinerung (fallacy of composition) ergeben, werden per Annahme und Modellkonstruktion wegdefiniert. Mittlerweile gibt es zwar sog. Ansätze agentenbasierter Modelle, die Mikrofundierung und Interaktionen berücksichtigen, allerdings basieren die Ergebnisse auf Simulationen und lassen sich mathematisch somit nicht verifizieren. Für den Mainstream sind sie von daher nicht relevant.
Ohne eine genuine Berücksichtigung der finanziellen Beziehungen der Akteure kann man somit nicht behaupten, man habe das Geldsystem adäquat adressiert – denn die Wirkungsmechanismen eines auf Geld- und Kreditwirtschaft basierenden Systems werden per Modellkonstruktion ignoriert. Verbessert hat sich der Mainstream zumindest dahingehend, dass die modernen makroökonomischen Modelle mittlerweile auch Zentralbanken haben, die die Zinsen setzen und nicht die Geldmenge steuern. Letzteres findet sich zwar immer noch wieder, aber es ist nicht mehr ausschließlich der Fall. Die Zinsen werden in den Modellen generell nach der Taylor-Regel gesetzt, der zufolge die Produktionslücke (also die Differenz zwischen der aktuellen und der potenziell möglichen Produktion) und die Abweichung der Inflation vom Zielwert die Zinspolitik bestimmen. Langfristig gelangt man zum Gleichgewichtszins, also dem natürlichen bzw. Gleichgewichtszins, bei dem die Produktionslücke geschlossen ist. Langfristig bestimmen somit Angebotsfaktoren, wie z.B. die Struktur auf dem Arbeitsmarkt, Demographie etc. den Zins.
An der Stelle mag es deshalb prima facie tatsächlich einen Fortschritt geben, nämlich dahingehend, dass moderne Modelle endogenes Geld berücksichtigen. Die Art und Weise jedoch, wie die Geldpolitik in der Praxis umgesetzt wird, ist mehr als tückisch. Insbesondere das Konzept der Produktionslücke, das für die Taylor-Regel so zentral ist, hat in den letzten Jahren viel Kritik einstecken müssen, weil die Berechnungen stark von der vergangenen Wachstumsperformance der jeweiligen Länder abhängen (vgl. hier). Ob sich die Ökonomie an der Kapazitätsgrenze oder weit darunter befindet, hängt somit weniger von der Struktur der Wirtschaft ab, sondern vielmehr davon, ob sie in der Vergangenheit Wachstum verzeichnen konnte oder nicht. Entsprechend sind Berechnungen der Produktionslücke alles andere als aussagekräftig oder zuverlässig, wenn es um die Schätzung des Produktionspotenzials einer Volkswirtschaft geht, welches sich zudem ohnehin stetig verändert und empirisch niemals überprüfbar sein wird (hier). Dass der Zins langfristig zu einer Art angebotsorientiertem, „natürlichem“ Gleichgewichtszins tendiert, fällt in dieselbe Kategorie der Validität, denn, wie oben ausgeführt, gibt es diese Tendenzen in einer sich dynamisch entwickelnden Wirtschaft einfach nicht.
Wie wissenschaftlich ist die Wissenschaft?
Die moderne Ökonomie hat sich auch nach der großen Krise nicht essenziell verwandelt. Sie hält weiterhin an den Axiomen und Theoremen fest, die schon vor der Krise dominant waren. Nichtsdestotrotz präsentieren sich einige Vertreter des Mainstreams als die Physiker unter den Sozialwissenschaftlern und tun andere Ansätze mit abfälligen Bemerkungen ab. Nicht-Mainstreamökonomie sei Bauchgefühlsökonomik oder so etwas wie Homöopathie in der Medizin. Man müsse beim Mainstream bleiben, denn Pluralismus in der Wissenschaft dürfe schließlich nicht bedeuten, dass 2 und 2 auf einmal 5 ergibt.
Dabei haben wir in der kurzen Übersicht gesehen, dass mathematische Sauberkeit in der Ökonomik immer noch Vorrang vor Realitätsbezug hat. Das scheint für eine Sozialwissenschaft nicht unbedingt eine gute Ausgangsgrundlage zu sein. Allerdings ist es auch schwierig, in einer Wissenschaft gewisse Fortschritte zu machen, wenn keine Kultur eines Diskurses zugelassen wird, sondern eine Struktur gefördert wird, die eine Reproduktion der immer selben Ideen in unterschiedlicher Form fördert. Aus Loyalität zu wissenschaftlichen Grundprinzipien hat sich deshalb auch Paul Romer in dem oben angeführten Papier „The Trouble with Macroeconomics“ kritisch mit seinen Kollegen angelegt und der Zunft der Ökonomen sogar Wissenschaftsfeindlichkeit angelastet (also genau das, was der Mainstream ironischerweise Olaf Scholz vorwarf).
Paul Romer ist nicht irgendwer, sondern Träger des Alfred-Nobel-Gedächtnispreises, den er sich mit einer Mainstreamarbeit zur Wachstumstheorie sicherte. Er moniert, die Makroökonomik würde seit „drei Jahrzehnten nur Rückschritte“ machen und sei mittlerweile zu einer „Pseudowissenschaft“ verkommen. Die Strukturen in der Ökonomie machen es unmöglich, dass man eine akademische Karriere machen kann, wenn man die Mainstream-Autoritäten kritisiert: „[Es] hat es seinen Preis, offen zu widersprechen. Dieser Preis ist für mich niedriger, weil ich kein Akademiker mehr bin. Ich bin ein Praktiker, was bedeutet, dass ich nützliches Wissen in die Praxis umsetzen möchte. Es ist mir egal, ob ich jemals wieder in führenden Wirtschaftszeitschriften publiziere oder irgendeine berufliche Auszeichnung erhalte, denn beides wird mir bei der Erreichung meiner Ziele nicht viel nützen. Folglich treffen die üblichen Drohungen (…) [auf mich] nicht zu.“ Was Romer in den Entwicklungen der letzten Jahrzehnte am meisten beunruhigt, ist eine Debattenkultur, die Kritik an den Autoritäten des Faches von vornherein unterbindet: „Mehrere Wirtschaftswissenschaftler, die ich kenne, scheinen sich eine Norm zu eigen gemacht zu haben, die von den postrealen Makroökonomen aktiv gefördert wird: dass es eine äußerst schwerwiegende Verletzung eines Ehrenkodexes ist, wenn jemand eine verehrte Autoritätsperson offen kritisiert – und dass weder falsche Fakten noch falsche Vorhersagen noch unsinnige Modelle wichtig genug sind, um sich Gedanken zu machen.“
Dieses Verhalten, dass fundierte Kritik nicht zugelassen wird, machen es Romer zufolge unmöglich, die moderne Ökonomie noch als richtige Wissenschaft zu bezeichnen: „Das Problem ist nicht so sehr, dass Makroökonomen Dinge sagen, die nicht mit den Fakten übereinstimmen. Das eigentliche Problem ist, dass es anderen Ökonomen egal ist, dass die Makroökonomen sich nicht um die Fakten kümmern. Eine gleichgültige Toleranz gegenüber offensichtlichen Irrtümern ist für die Wissenschaft sogar noch zersetzender als ein engagiertes Eintreten für Irrtümer. (…) Aber die Wissenschaft und der Geist der Aufklärung sind die wichtigsten menschlichen Errungenschaften. Sie sind wichtiger als die Gefühle eines jeden von uns“ – und genau aufgrund letzterer Aussage, entschied sich Romer dazu, seine Kritik öffentlich zu machen.
Fazit
Wenn sich Mainstreamökonomen abfällig über andere Ökonomen und Sozialwissenschaftler äußern und sogar der Politik Wissenschaftsfeindlichkeit vorwerfen, weil ihre Ratschläge nicht befolgt werden, dann müssen die Journalisten und die Öffentlichkeit diese Kritik richtig einordnen. Modellprognosen sind a priori keine wissenschaftliche Evidenz, sondern nur das Ergebnis eines bestimmten Modells. Das Modell kann geeignet oder ungeeignet sein, das kann aber nicht allein aufgrund der Prognosen beurteilt werden, sondern nur anhand der Modellstruktur.
Alles in allem kann man somit nicht von einem genuinen Wandel in der Ökonomik sprechen, denn der Antriebsmotor der Modelle ist derselbe wie vor der Krise. Andere Denkschulen, beispielsweise die evolutorische Ökonomik, die sich vom Gleichgewichtsdenken verabschiedet hat, sind weiterhin stark marginalisiert, während Einsichten anderer Sozialwissenschaften überhaupt keine Rolle spielen. Die einzige Hoffnung bleibt, dass die Politik mehr und mehr realisiert, dass für eine solide Wirtschaftspolitik ein anderer Ansatz als der Mainstreamansatz gewählt werden muss. Vielleicht passen sich daraufhin die Lehrpläne und Forschungsarbeiten in den Universitäten an, denn wenn die Nachfrage einbricht und die Mainstreamökonomik in die realpolitische Irrelevanz zu rutschen droht, dann wird womöglich auch das Angebot angepasst.
(Ich bedanke mich für Kommentare und Anmerkungen bei Michael Paetz, Richard Senner, Mark Kirstein, Tilmann Waffenschmidt und Heiner Flassbeck)