Hauptforschungsthemen des Promotionskollegs
Die zentralen Fragen, mit denen sich die Forschung in dem Promotionskolleg befassen soll, betreffen insbesondere die Eigenschaften der Dynamik, Stabilität und Verteilung in einem volkswirtschaftlichen System, das aus einer Vielzahl heterogener und interagierender Agenten mit beschränkt rationalen Erwartungen besteht. Darüber hinaus sollen verschiedene Mechanismen näher untersucht werden, die in der kurzen als auch in der mittleren oder langen Frist destabilisierend auf die Makroökonomie wirken, ebenso wie die grundsätzliche Rolle und Aufgabe von Wirtschaftspolitik in einem beschränkt rationalen Modellrahmen.
Im Folgenden werden vier Hauptforschungsthemen des Promotionskollegs im Detail dargestellt.
a) Beschränkt-rationales Verhalten, Finanzmärkte und makroökonomische Aktivität
Es ist mittlerweile allgemein bekannt, zumindest innerhalb der Behavioral Finance Literatur, dass agentenbasierte Modelle, in denen verhaltensbasierte heterogene Erwartungsbildungsprozesse explizit berücksichtigt werden (siehe z.B. Day und Huang 1990, Kirman 1991, De Grauwe et al. 1993, Lux 1995, Brock und Hommes 1998, LeBaron et al. 1999 und Farmer und Joshi 2002), tatsächliche Finanzmarktentwicklungen besser erklären können als „traditionelle“ Finanzmarktmodelle mit ausschließlich rationalen Agenten (für Übersichtsstudien siehe unter anderem Chiarella et al. 2009, Hommes und Wagener 2009, Lux 2009 oder Westerhoff 2009).
Neben einer angemessenen Beschreibung des Verhaltens individueller Agenten, welche oft auf empirischem Wissen über Prognose- und Anlagestrategien basiert, besteht der Vorteil der agentenbasierte Modelle in der Möglichkeit, auch direkte Interaktionseffekte, wie z.B. ein Herdenverhalten innerhalb sozialer Netzwerke, und institutionelle Aspekte des Marktes realitätsnah berücksichtigen zu können (siehe z.B. Alfarano und Milakovic, 2009; Alfarano, Milakovic und Raddant, 2013). Darüber hinaus werden agentenbasierte Finanzmarktmodelle aufgrund ihrer Leistungsfähigkeit zunehmend als „künstliche Labore“ eingesetzt, um die institutionellen Rahmenbedingungen von Finanzmärkten zu verbessern. Beispielsweise untersuchen mittels agentenbasierter Finanzmarktmodelle Westerhoff (2003a) den Effekt von Transaktionssteuern, Westerhoff (2003b) den Effekt von Handelsunterbrechungen, Wieland und Westerhoff (2005) den Effekt von Zentralbankinterventionen, He und Westerhoff (2005) den Effekt von Preiskontrollen, sowie Thurner et al. (2012) und Anufriev und Tuinstra (2013) den Effekt der Einschränkung von Hebelgeschäften und Leerverkäufen. Der Einsatz von agentenbasierten Finanzmarktmodellen bringt im Vergleich zu konventionellen Analysemethoden eine Reihe von Vorteilen mit sich. Agentenbasierte Finanzmarktmodelle zeigen, wie bestimmte regulative Maßnahmen die Dynamik von Finanzmärkten beeinflussen können. Agentenbasierte Finanzmarktmodelle können benutzt werden, um neue regulative Maßnahmen zunächst im Computerlabor zu testen und daraufhin zu optimieren. Agentenbasierte Finanzmarktmodelle erlauben es, exogene Störungen zu kontrollieren und somit extreme Ereignisse, wie z.B. schwere makroökonomische Krisen, in Form eines Stresstestes im Computerlabor zu generieren. Im Vergleich zu empirischen Studien können stets so viele Daten erzeugt werden, wie es die vorzunehmende statistische Auswertung erfordert, und diese Daten lassen sich genau messen. Dies ist besonders interessant, da die zu erreichenden Ziele einer regulativen Maßnahme im Computerlabor genau definiert und deren Erreichung präzise überwacht werden können. Für einen aktuellen Übersichtsartikel zu dieser Thematik siehe Westerhoff und Franke (2015).
Ein Manko vieler existierender agentenbasierter Finanzmarktmodelle ist jedoch, dass sie sich auf nur einen spekulativen Markt beziehen. Anders ausgedrückt: Marktinteraktionen spielen in den bisherigen Modellen kaum eine Rolle. Eine Ausnahme in diesem Bereich stellt das Modell von Schmitt und Westerhoff (2014) dar, in dem Interaktionen zwischen mehreren europäischen Aktienmärkten untersucht wird. Mittels solch eines Modells lässt sich beispielsweise erklären, warum spekulative Blasen und/oder Phasen hoher Volatilität in der Regel auf mehreren Märkten simultan entstehen. Dieci und Westerhoff (2010) entwickeln ein Modell, in dem die Aktienmärkte zweier Länder über den Devisenmarkt miteinander verbunden sind. Krisen in einem Land können in diesem Modell direkte Folgen für den Wechselkurs und den Aktienmarkt des anderen Landes haben. Eine weitere offene Flanke dieses Ansatzes ist, dass Wechselwirkungen zwischen Finanzmärkten und Realwirtschaft in diesem theoretischen Rahmen bisher kaum untersucht worden sind. Zwei Ausnahmen, in denen Finanzmärkte mit der Realwirtschaft verknüpft werden, stellen Proaño (2011, 2012) und Westerhoff (2012) dar. In diesen Modellen kann untersucht werden, wie sich realwirtschaftliche Veränderungen auf die Finanzmärkte übertragen und umgekehrt. Insgesamt ist leider zu konstatieren, dass es in dieser Richtung bisher nur sehr begrenzte Forschungsbemühungen gegeben hat. Die wenigen Ansätze, die in diesem Bereich existieren, müssen dringend auf eine breitere Basis gestellt werden. Zudem ist es notwendig, weitere interagierende Märkte, wie etwa den Immobilienmarkt, den Rohölmarkt, oder Kreditmärkte mit in die Analyse einzubeziehen.
Ein wichtiges Vorhaben im Rahmen des Promotionskollegs ist es, die soeben beschriebenen Erweiterungen zu adressieren.
b) Wirtschaftspolitisches Handeln unter beschränkter Rationalität
Der unterstellte Erwartungsbildungsprozess in einem Wirtschaftssystem ist nicht nur von zentraler Bedeutung für die Dynamik und Stabilität des Wirtschaftssystems (siehe z.B. Samuelson 1939), sondern bedingt in einer direkten Art und Weise die Wirkung und den Spielraum wirtschaftspolitischen Handelns. Während die Wirtschaftspolitik unter adaptiven (zurückgewandten) Erwartungen über „traditionelle makroökonomische Transmissionsmechanismen“ die Realwirtschaft beeinflusst, verläuft dieser Effekt unter der Annahme von „rationalen Erwartungen“ hauptsächlich über die Erwartungsbildung der Marktakteure. Folgerichtig ist die Hauptaufgabe der Wirtschafspolitik im letzteren Fall, den rationalen Erwartungsbildungsprozess durch deutliche und vorausschaubare Handlungen zu beeinflussen, um auf diesem Wege das Wirtschaftssystem zu einem bestimmten Gleichgewicht zu lenken (im technischen Jargon bedeutet dies, dass die Geldpolitik für die Determiniertheit eines bestimmten – und tatsächlich gewünschten – allgemeinen Gleichgewichts sorgt). Somit basiert die Effizienz und sogar die Angemessenheit wirtschaftspolitischer Handlungen auf einer extremen und in der Realität höchst unwahrscheinlichen Situation in der a) alle Agenten das „ganze Modell“ und seine Funktionsweise perfekt durchschauen, verstehen und dementsprechend ihre Erwartungen bilden, und b) der Staat den Erwartungsbildungsprozess der Agenten ebenfalls perfekt durchschaut, diesen versteht, um letztlich diese Kenntnisse bei seiner Lenkungsfunktion ausnutzen zu können.
Da es aber in keiner Weise gewährleistet ist, dass rationale – besser: modellkonsistente – Erwartungen tatsächlich endogen gebildet werden können, kann eine Diskrepanz zwischen dem wahren datengenerierenden Prozess, dem tatsächlichen Erwartungsbildungsprozess der Wirtschaftssubjekte und dem vom Staat angenommenen Erwartungsbildungsprozess der Agenten zu makroökonomischer Instabilität führen, wie die Learning Literatur gezeigt hat (siehe z.B. Bullard und Mitra 2002, Evans und Honkapohja 2003a, 2003b sowie jüngst, Bask und Proaño 2012). Im Learning Ansatz von Evans und Honkapohja (2001) sind rationale Erwartungen nicht per Annahme der verwendete Erwartungsbildungsprozess der Agenten, sondern sie können das Ergebnis eines Lernprozesses sein, in dem die Agenten aus der beobachteten Dynamik des Wirtschaftssystems Informationen über den wahren datengenerierenden Prozess entziehen und somit ihre Erwartungsbildung modellkonsistenter machen, was ihnen im besten Fall – unter einer adäquaten Führung der Wirtschaftspolitik – nach einer gewissen Zeit erlaubt, rationale Erwartungen zu bilden. Dies ist jedoch in keiner Weise immer garantiert, insbesondere dann nicht, wenn Handlungen des Staates und der Wirtschaftssubjekte nicht miteinander konsistent sind.
Vor diesem Hintergrund wollen wir im Rahmen dieses Promotionskollegs erforschen, wie das Design von geld- und fiskalpolitischen Regeln in einem solchen unsicheren makroökonomischen Rahmen ohne die zwingende Annahme von rationalen Erwartungen erfolgen soll. In dieser Hinsicht wollen wir sowohl schon vorhandene Arbeiten aus unserer eigenen Forschung (siehe Westerhoff 2006, Proaño 2011, 2012, Bask and Proaño 2012), sowie neuere Ansätze weiterentwickeln, wie bspw. von De Grauwe (2011, 2012), insbesondere hinsichtlich des Designs wirtschaftspolitischer Regeln, die robust gegen alternative Erwartungsbildungsmechanismen sind.
c) Empirische Validierung/Schätzung behavioraler Makro- und Finanzmarktmodelle
Es gibt eine langanhaltende Debatte zur Rolle der Empirie in der Entwicklung makroökonomischer Theorien. Diese Debatte findet zwischen zwei Lagern statt: Das Lager, das das Primat der Theorie vertritt und der Empirie nur eine nachgeordnete Rolle zugesteht („Theory First“) und das Lager, das die Empirie als Ausgangspunkt für die konstante Verbesserung vorhandener Theorierahmen („Reality First“) ansieht (siehe Juselius, 2009 und Spanos, 2009).
Der „Theory First“ Ansatz ist maßgeblich durch die Arbeit von Kydland und Prescott (1982) geprägt, die den Kalibrierungsansatz in die Makroökonomie eingeführt haben. Das Ziel des Kalibrierungsansatzes ist jedoch nicht, durch eine kongruente Repräsentation der Daten eine empirisch-basierte Spezifikation theoretischer Modelle zu liefern, sondern vielmehr, die simulierten Eigenschaften eines theoretischen Modells entsprechend bestimmter Momente (Erwartungswerte, Varianzen und Kovarianzen) so nah wie möglich an die empirischen Momente der analysierten Variablen zu bringen, ohne die tatsächliche Entwicklung dieser Variablen erklären zu wollen. Diese Vorgehensweise steht in diametraler Beziehung zu dem „Reality-First“ Ansatz, welcher hauptsächlich in Kontinentaleuropa weiterhin vertreten ist, siehe z. B. Hendry (1995), Bårdsen et al. (2005) und Juselius (2007). Nach dem „Reality-First“ Ansatz ist die Beziehung zwischen Theorie und Empirie interaktiver Natur, mit der empirisch-ökonometrischen Validierung als Mittel zur Weiterentwicklung theoretischer Modelle. Das Versagen der früheren makroökonometrischen Großmodelle der 60er und 70er Jahre wird vom „Reality-First“ Ansatz dadurch erklärt, dass damals den statistischen Eigenschaften der untersuchten Variablen nicht genügend Rechnung getragen wurde. Dementsprechend ist beim „Reality-First“ Ansatz der Glaube an die konstruktive Rolle der Empirie ungebrochen, solange die statistischen Eigenschaften der untersuchten Variablen bei der empirischen Validierung eines theoretischen Rahmens angemessen behandelt werden.
Vor diesem Hintergrund ist die Arbeit aller drei am Promotionskolleg beteiligten Lehrstühle dem europäischen „Reality-First“ Ansatz zuzuordnen, nicht nur, weil ihre Forschung eine stark empirische Motivation hat, sondern auch weil sie anhand verschiedener parametrischer und nicht-parametrischer ökonometrischer Methoden die empirische Validierung ihrer theoretischen Modelle vielfach unternommen haben (siehe z.B. Proaño, 2009, 2011, 2012, Manzan und Westerhoff 2007, Franke und Westerhoff 2012). Im Rahmen des Promotionskollegs sollen gemeinsam diese methodologischen Ansätze weiterentwickelt und verfeinert werden. Ein Beispiel dafür wäre eine systematische Zusammenfügung des Disequilibrium Macrodynamics Ansatzes (siehe z.B. Chiarella et al. 2005) mit dem Cointegrated VAR Ansatz (Juselius, 2007), welcher die Dynamik vieler Makrovariablen als das Ergebnis kurzfristiger Ungleichgewichtssituationen und deren graduelle Anpassung zu langfristigen Gleichgewichtsbeziehungen modelliert.
d) Statistisches Gleichgewicht: Aggregation, Verteilung und Industriedynamik
Obwohl die jeweilige funktionale Form ökonomischer Verteilungsgesetzmäßigkeiten sowohl im Zeitablauf als auch im Querschnitt bemerkenswerte Stabilität und lediglich Variationen in den Parametern der jeweiligen Verteilungen aufweist, fristen diese Regularitäten bzw. ihre Erklärungsansätze ein relatives Schattendasein in der Volkswirtschaftslehre. Ein Hauptgrund hierfür liegt sicherlich in der Methodologie des repräsentativen Agenten, weil ein solcher Ansatz Verteilungsfragen per Definition ausklammert – es macht wenig Sinn, die „Verteilung“ über einen Einzelnen bzw. einige wenige repräsentative Agenten zu betrachten. Erschwerend kommt hinzu, dass der repräsentative Agent quasi in Personalunion alle Formen ökonomischen Einkommens in sich vereint und somit a priori (wenig bis gar) keinen Raum für Verteilungskämpfe im Sinne der klassischen Ökonomik lässt. Etwas schärfer könnte man sogar formulieren, dass das zentrale makroökonomische Problem der Aggregation durch die Annahme eines repräsentativen Agenten bereits im Vorfeld negiert wird. Dabei hat die Allgemeine Gleichgewichtstheorie schon vor Jahrzehnten erkannt, dass Aggregation über heterogene Agenten hinweg mit erheblichen formalen Problemen belastet und nur in äußerst pathologischen Fällen zulässig ist (siehe hierzu die eingangs erwähnten Arbeiten von Gorman, Mantel, Sonnenschein und Debreu).
Im Gegensatz hierzu besteht die Grundidee eines Statistischen Gleichgewichts darin, dass die Interaktion heterogener „Teilchen“ (bspw. von Molekülen in der statistischen Physik, oder von Agenten in einer Volkswirtschaft) allein aufgrund kombinatorischer Überlegungen zu statistischen Verteilungsgesetzmäßigkeiten führt, die größtenteils unabhängig von den individuellen Charakteristika ebenjener Teilchen sind (siehe z.B. Jaynes, 1978; Foley, 1994). Formal findet sich das Konzept eines Statistischen Gleichgewichts bereits seit längerem in ökonometrischen Lehrbüchern zur Zeitreihenanalyse (beginnend mit Box und Jenkins, 1976), wo es durch die Eigenschaften der Ergodizität und Stationarität von Zeitreihen definiert wird. Dahingegen betont die statistische Mechanik, dass in einem Statistischen Gleichgewicht die querschnittliche Verteilung eines Systems mit der längsschnittlichen Verteilung individueller Zustände oder Schicksale identisch ist und die Parameter dieser Verteilung im Zeitablauf konstant bleiben. Aus makroökonomischer Sicht erscheint letztere Perspektive v.a. deshalb als methodologisch interessant, weil sie unsere Alltagserfahrungen einer gewissen makroskopischen Stabilität mit zum Teil deutlich fluktuierenden Einzelschicksalen ineinander vereinen kann.
Als illustratives Beispiel in einem ökonomischen Kontext mag hier die Einkommens- oder Vermögensverteilung dienen: Die Grundausstattungen von Wirtschaftssubjekten, z.B. im Sinne ihrer „Intelligenz“ oder „Fähigkeiten“, sind normalverteilt und besitzen somit eine charakteristische Skala (siehe z.B. Herrnstein und Murray, 1994), wohingegen die Verteilung des Einkommens oder Vermögens einer leptokurtischen exponentiellen Form oder gar einem skalenfreien Potenzgesetz folgt (siehe z.B. Castaldi und Milakovic, 2007; Milakovic, 2003). Somit wird deutlich, dass die Interaktion von Agenten auf Märkten oder durch Institutionen zu einer erheblich ungleicheren Verteilung führt, als dies auch nur annährend in Anfangsausstattungen (oder Bildungserfolgen o.ä.) der Fall ist bzw. sein kann. Daran anschließend stellt sich die immer noch unzureichend geklärte Frage, welche strukturellen Interaktionen, jenseits individueller Unterschiede, maßgeblich für die beobachteten Verteilungsgesetzmäßigkeiten verantwortlich zeichnen? Erfreulicher Weise sind solche Fragen gerade wieder von aktuellem Interesse, insbesondere angesichts von Piketty’s (2013) einschlägigem Beitrag zum „Kapital im 21. Jahrhundert“, und sollen nicht zuletzt deshalb im Rahmen des vorgeschlagenen Promotionskollegs eindringlich erforscht werden.