Konjunkturtheorie

Konjunkturtheorie

Die Konjunkturtheorie untersucht und beschreibt die Ursachen und Auswirkungen der Konjunktur und des Konjunkturzyklus. Im Jahre 1937 wurde von Gottfried Haberler, im Auftrag des damaligen Völkerbundes, eine Systematik sowie ein Überblick über die ersten Konjunkturtheorien erstellt.

Darin unterschied er fünf Gruppen der Konjunkturtheorie:

  • 1. Rein-monetäre Theorien
  • 2. Überinvestitionstheorien
  • 3. Unterkonsumtionstheorien
  • 4. Psychologische Theorien
  • 5. Erntetheorien

Gottfried von Haberler gilt als Pionier der Konjunkturtheorien. Seit seiner Aufstellung der oben genannten Theorien, haben Vertreter dieser Theorien unterschiedliche Ursachen für Konjunkturzyklen in Betracht gezogen und weitere Theorien aufgestellt.[1] Andere oder ähnliche Theorien werden auch als „Überproduktionstheorien“ oder „Überakkumuationstheorien“ bezeichnet. Letztere spielt vor allem in der marxistischen Ökonomie eine Rolle.[2]

Inhaltsverzeichnis

Vorkeynesianische Konjunkturtheorien

Rein-monetäre Konjunkturtheorie

Hier spielt die Kreditgewährung der Geschäftsbanken die zentrale Rolle. Ein Aufschwung kommt dann zustande, wenn die Banken den Kreditzins senken. Der Handel reagiert mit einer Ausdehnung seines Lagerbestandes, was wiederum dazu führt, dass die Hersteller ihre Produktion erhöhen müssen um die Nachfrage des Handels befriedigen zu können. Dies erhöht auch das Einkommen der Haushalte und steigert somit die Konsumnachfrage. Der Handel stockt weiterhin seinen Lagerbestand auf und setzt somit einen kumulativen Prozess in Gang.

Im Zuge dieses Aufschwungs nimmt auch stetig der Bedarf der Haushalte nach Bargeld zu. D.h., es kommt zu einem Abfluss des Zentralbankgeldes bei den Geschäftsbanken. Stellt die Notenbank/ Zentralbank nicht bereitwillig und zu unveränderten Kosten Zentralbankgeld zur Verfügung, können die Geschäftsbanken den wachsenden Kreditbedarf nur mit höheren Zinsen abdecken. Durch den Aufschwung kommt es zu einem Preisanstieg, der die Importe fördert und die Exporte benachteiligt. Dadurch kommt es zur Verschlechterung der Handelsbilanz, was zu einem Abschwung führt.

Stehen die in- und ausländische Währung in fester Parität zum Gold, kommt es statt einer Abwertung zum Goldexport. Gleichzeitig sinkt die Zentralbankgeldmenge, da sie mit dem Goldbestand verbunden ist. Daraufhin steigen die Zinsen und beenden somit den Aufschwung. Der Handel baut infolge der gestiegenen Zinsen seine Lagerbestände ab. Der darauf folgende Nachfrageausfall veranlasst die Hersteller, ihre Beschäftigung zu reduzieren, was wiederum zu einem niedrigeren Einkommen der Haushalte führt. Damit geht auch die Konsumgüternachfrage zurück und verstärkt die konjunkturelle Talfahrt. Auch der Bargeldbestand der Nichtbanken sinkt. Preissenkungen verschlechtern die Terms of Trade, wodurch sich die Handelsbilanz wieder verbessert und es zum Goldimport kommt. Dabei kann auch die Zentralbankgeldmenge wieder steigen. Dadurch erweitert sich der Kreditspielraum der Geschäftsbanken, es kommt erneut zu Senkung der Zinsen und ein neuer Aufschwung wird wieder eingeleitet.[1]

Monetäre Überinvestitionstheorie

Hauptartikel: Monetäre Überinvestitionstheorie

Hier wird der Grund für Konjunkturzyklen in einem permanenten Ungleichgewicht zwischen der Produktion von Investitionsgütern und Konsumgütern vermutet. Die Produktionsstruktur ist dann ausgewogen, wenn die geplanten Ersparnisse mit der Nachfrage nach Ersatz- und Erweiterungsinvestitionen übereinstimmen. Die Vertreter (Friedrich August von Hayek (1899-1992) und Wilhelm Röpke (1899-1966)) dieser Theorie gehen davon aus, dass die Geschäftsbanken den Aufschwung einleiten, da billige Kredite die Kosten einer kapitalintensiven Produktion verringern könnten und somit die Nachfrage nach Produktivgütern (Investitionsgütern) gesteigert wird.

Dabei geht der Expansive Impuls von einer Differenz zwischen dem Geldzins und dem natürlichen Zins aus.[1]

Nicht-monetäre Überinvestitionstheorie

Hauptartikel: Überinvestitionstheorie

Laut den Vertretern (Gustav Cassel (1866-1944) und Arthur Spiethoff (1873-1957)) dieser Theorie wird der Aufschwung durch Investitionen bzw. aufgrund des technischen Fortschritts ausgelöst, mit denen neue Märkte erschlossen werden. Dabei ist zu beachten, dass die Bankkredite zwar diese Projekte ermöglichen, aber sie nicht auslösen. Es wird aber dennoch die Produktion der Investitionsgüterindustrie erhöht und damit wächst das Einkommen der Haushalte. Wenn die Kapazitäten der Konsumgüterindustrie ausgelastet sind, wird diese nach weiteren Produktionsmitteln nachfragen und dadurch den Impuls erhöhen.

Man spricht auch vom Akzeleratorprinzip, d.h. einerseits wird der Aufschwung gesteigert und anderseits bei dessen Erlahmen der Abschwung eingeleitet. Der Aufschwung wird deshalb gebremst, weil die Ersparnisse nicht mit den Investitionen Schritt halten können. Das bedeutet, wenn der Kreditboom zum Stocken kommt, erhöhen die Banken ihre Zinsen. Dadurch können einige der bereits angefangenen Investitionsprojekte nicht weiter finanziert werden, wodurch die vorhandenen und kapitalintensiven Produktionstechniken unrentabel werden. Des Weiteren lässt die Nachfrage nach Erweiterungs- und Ersatzinvestitionen nach. Die Folge ist, dass das Einkommen der Haushalte stagniert und der Abschwung durch den Akzeleratoreffekt eingeleitet wird.[1]

Unterkonsumtionstheorie

Hauptartikel: Unterkonsumtionstheorie

Es handelt sich hier um eine Reihe von Argumenten, mit denen man versucht, den Abschwung zu erklären. Dabei enthalten sie keine eigenständige Erklärung für den Konjunkturzyklus und gehen davon aus, dass eine mangelnde Konsumnachfrage zur Unterbeschäftigung führen kann. Des Weiteren müssen hier zwei Argumentationslinien unterschieden werden.

Die erste wird u.a. von John Hobson (1858-1940) vertreten, dieser kehrt die Argumentation in ihr Gegenteil um. D.h. das nicht der Mangel, sondern eine zu große Ersparnis den Abschwung anleitet. Er geht davon aus, dass der getragene Aufschwung der Produktionsgüterindustrie dazu führt, dass am Ende der Ausreifungszeit der Investitionen die Konsumgütermärkte zugleich mit neuen Produkten überschwemmt werden. Damit würden die Preise verfallen und Verluste entstehen, worauf die Investitionsnachfrage der Konsumgüterindustrie wieder nachlässt. Verbunden mit dem Rückgang der Produktion der Investitionsgüter und der Einkommen der Haushalte, sinkt auch die Konsumnachfrage und der Abschwung tritt ein.

Die zweite Argumentation kommt vom Emil Lederer (1882-1939), er vertritt die Ansicht der mangelnden Konsumnachfrage. Demnach steigt der Preis im Aufschwung stärker als die Löhne, wodurch sich die Einkommensverteilung zugunsten der Kapitaleinkommensbezieher verschiebt. Dadurch kommt es zu einer höheren Sparquote, welche sich negativ auf die Konsumnachfrage der Gesamtwirtschaft auswirkt und wiederum den kumulativen Abschwungsprozess einleitet.[1]

Psychologischen Theorien

Auch hierbei handelt es sich um eine nichtselbstständige Konjunkturtheorie. Es werden lediglich Verweise verschiedener Vertreter (Arthur C.Pigou (1877-1959) und John M. Keynes (1883-1946)) auf die Bedeutung von Preis- und Absatzerwartungen als möglicher Verstärker für Aufschwung und Abschwung definiert.

So führen die durch den Aufschwung erzielten Gewinne der Unternehmen zu einer positiven Grundstimmung, welche die Rentabilität von Investitionen überschätzen lässt. Sind die realen Erwartungen dagegen enttäuschend für das Unternehmen, kommt es zu einem übertriebenen Pessimismus. Diese führt dazu, dass die Einschränkungen für Investitionen sich erhöhen und damit der Abschwung (Depression) beschleunigt wird. Durch einen Nachfragerückgang schwindet wieder die Mutlosigkeit und es kommt ein vorsichtiger Optimismus für Investitionen auf, was wiederum einen Aufschwung bewirken kann.[1]

Neoklassische Konjunkturtheorien

Die neoklassischen Konjunkturtheorien lassen sich in ältere und neuere Ansätze untergliedern. Zu den älteren Ansätzen gehören die des Monetarismus, mitentwickelt von Milton Friedman. Diese monetaristische Theorie befasst sich ausschließlich mit dem Inflationsproblem und nur im Ausnahmefall mit Konjunkturfragen.

Bei den neueren Ansätzen handelt es sich um die der Neuen Klassischen Makroökonomik (NCM). Diese gehen ebenfalls von Markträumung aus, aber im Gegensatz zum Monetarismus werden hier rationale Erwartungen unterstellt. [3] Wichtiger Vertreter der Neuen Klassischen Makroökonomik ist Robert Emerson Lucas

Exogene Konjunkturtheorien:

Diese umfassen einerseits die Gleichgewichtstheorie des Konjunkturzyklus, nach der Konjunkturschwankungen auf monetäre Störungen zurückzuführen sind und andererseits die Theorie des Real-Business-Cycle-Theorie, die Konjunkturzyklen durch reale Störungen erklärt [4], wie Veränderungen der verfügbaren Technologie.

Endogene Konjunkturtheorien:

Zu diesen zählen zum einen Modelle, in denen Konjunkturzyklen auf eine nicht-lineare innere Dynamik (intrinsic dynamics) der Wirtschaft zurückgreifen und zum anderen die Sunspot-Theorie, die den Konjunkturverlauf mittels einer modifizierten Theorie rationaler Erwartungen definiert.[4]

Monetaristische Konjunkturmodelle (Monetarismus)

Hauptartikel: Monetarismus

Monetarismus wird auch als Monetarismus Markt I bezeichnet und wurde als Reaktion auf die wirtschaftpolitischen Vorschläge von John Maynard Keynes und von Milton Friedman entworfen. Im Mittelpunkt steht eine monetäre Theorie zur Bestimmung des Nominaleinkommens. Dabei unterstellt er, dass das Nominaleinkommen durch die Geldmenge bestimmt wird und die Einflüsse der Fiskalpolitik „temporary and minor“ wären, wenn diese nicht von Änderungen der Geldmenge begleitet werden. Als nächstes definierte Friedman die Quantitätstheorie des Geldes, die von ihm als Theorie der Nachfrage nach Realkassen umformuliert wurde. Ein Zusammenhang zwischen Geldmenge und Nominaleinkommen wird einerseits durch temporäre Beeinflussung des Realeinkommens und andererseits durch permanente Beeinflussung des Preisniveaus gebildet. Das bedeutet, dass Schwankungen der Geldmenge gravierende Schwankungen beim Realeinkommen hervorrufen. Somit gibt es auch im Monetarismus Markt I die Phillips-tradeoffs. In welchem Zeitraum die realen Effekte eintreten, wie lange diese andauern und wann der Einfluss auf das Preisniveau einsetzt, lässt sich theoretisch ohne weiteres ganz schlecht sagen. Laut der Ansicht von Friedman sind die Verzögerungen lang und variabel. Er geht davon aus, dass die Gesamtwirkung von der Änderung der Geldmenge bis zur Änderung des Nominaleinkommens sechs Monate bis zwei Jahre dauert. Deshalb lehnt Friedman eine Feinsteuerung durch diskretionäre Maßnahmen der Geldpolitik ab, da diese mit großer Wahrscheinlichkeit zu spät wirken und sich somit als destabilisierend erweisen können. Demnach ist die Stabilisierungspolitik in diesem monetaristischen Modell wenig erfolgsversprechend und somit unwichtig, da die relativ schnell reagierenden Preise und Löhne die private Nachfrage vom Vollbeschäftigungsgleichgewicht nie bedeutend abweichen lassen.[4]


Wird das Gleichgewicht von Schocks gestört, die infolge von inhärenter Stabilität des privaten Sektors und der geringeren Bedeutung außerwirtschaftlichen Beziehungen begründet sind, dann handelt es sich hier um monetäre Schocks. D.h. die Anpassung erfolgt verzögert, weil Wirtschaftssubjekte ihre Erwartungen adaptiv bilden. Wird die Geldmenge über einen Portefeuillenanpassungsprozess durchgeführt, so steigt die Nachfrage nach Gütern und Produktionsfaktoren.

Aufgrund der kurzfristigen und unkalkulierbaren Wirkungen auf die realen Größen, durch kräftige und dauerhafte Wirkung auf das Preisniveau, schlägt Friedman (1959) die Geldmengenregel vor. Diese monetaristische Geldmengenregel sagt aus, dass die Geldmenge an der Wirtschaftswachstumsrate angepasst und gekoppelt wird. Dabei gilt ein konstantes Wachstum der Geldmengen als Zwischenziel, der Nominalzinssatz ist dazu ungeeignet. Das bedeutet, dass die reale Wirkung vom Realzinssatz ausgeht sowie dem Nominalzinssatz, gemindert um die erwartete Inflationsrate. Es muss beachtet werden, dass der Realzinssatz keine einfach zu messende und keine wirtschaftspolitische steuerbare Größe ist. Sogar eine Orientierung an diesem kann eine Destabilisierung bewirken. Dabei dient einerseits die Erhöhung der Geldmenge als Instrument zur Senkung des Zinssatzes und zum anderen zur Steigerung der Nachfrage, was wiederum die Inflationserwartungen erhöht. Dadurch steigt der Nominalzinssatz, trotz gleichbleibendem und sinkendem Realzinssatz. D.h. wenn der Nominalzinssatz durch die Zentralbank als Zwischenziel gewählt wird, agiert diese bei hohem Zins expansiv, was zu stärkerer Inflation und zu einem weiteren Anstieg des Nominalzinssatzes führt, wobei der Realzinssatz nicht sinkt und damit auch die Nachfrage nicht anregt, sondern eher das Gegenteil bewirkt.

Auch eine Konjunkturpolitik über den automatischen Stabilisator des konstanten Geldmengenwachstums ist im monetaristischen Modell selten erforderlich. Grund dafür ist, dass die private Wirtschaft zur Stabilität neigt; somit kann das System auftretende Schocks relativ schnell verarbeiten. Mögliche Abweichungen vom Gleichgewichtspfad können durch diskretionäre Maßnahmen der Wirtschaftspolitik, besonders die der Stabilisierungspolitik, entstehen die infolge ihrer verzögerten Wirkung prozyklisch wirken. Somit wirkt eine gleichmäßig wachsende Geldmenge verstetigt auf die (Preis-)Erwartungen und dient als automatischer Stabilisator, weil eine Geldmengenausweitung bei hohem Wachstum zu knapp und bei niedrigen zu reichlich ist. Des Weiteren kann das Modell nicht zwischen monetären Wirkungen des Preises und des realen Sektors unterscheiden. Es handelt sich somit um eine Theorie des nominellen Volkseinkommens. Dabei ist auch die Kassenhaltungsfunktion nicht wirklich stabil und die Geldmenge kein optimales Zwischenziel der Geldpolitik. Aufgrund dessen wurde das monetaristische Modell zum NCM-Modell weiterentwickelt.[3]

Neue Klassische Makroökonomie (NCM)

Hauptartikel: Makroökonomie

Dieses Modell stellt eine viel radikalere Herausforderung des traditionellen Modells der Wirtschaftspolitik dar als der Monetarismus. Der wesentliche Unterschied zwischen den Modellen besteht zum einen darin, dass die Annahme rationaler Erwartungen noch wichtiger, folgeschwerer sind und zum anderen die der jederzeit vollständigen Markträumung.

In beiden Annahmem der rationalen Erwartungen wird davon ausgegangen, dass die Wirtschaftssubjekte in diesem Modelltyp agents heißen und dass diese alle ihnen zur Verfügung stehenden Informationen nutzen, entscheidende wirtschaftliche Zusammenhänge (des Modells) kennen und dass diese bei der Erwartungsbildung keine systematischen Fehler machen. Zu kritisieren ist hier, dass es in einer Welt mit Unsicherheiten oft die notwendigen Informationen fehlen. Das wird bei den Informationen (bzw. Erwartungen) über die Reaktionen der anderen auf die Schocks im Allgemeinen und des eigenen Verhaltens deutlich. Dabei können unterschiedliche Annahmen zu sich selbst bestätigenden Resultaten führen und damit entgegen den Erwartungen der NCM (Phelps und Friedman) beweisen, dass multiple Gleichgewichte durchaus möglich wären. Somit können auf diese Weise keine eindeutigen rationalen Annahmen getroffen werden. Es ist aber auch davon auszugehen, dass das Modell vielen Wirtschaftssubjekten unbekannt ist und damit sich systematische Fehler dieser nicht vermeiden lassen. In der stochastischen Analogie zur vollkommenen Sicherheit und zur perfekten Voraussicht des Neoklassischen Modells, sind solche rationalen Annahmen, wie die Vernachlässigung dieser genannten Probleme, üblich und könnten daher als stohastic perfect foresight bezeichnet werden.

Entscheidender als Annahmen der Rationalen Erwartungen ist die Annahme des Modells der NCM der jederzeit-vollständigen Markträumung. Diese sagt aus, dass der Preismechanismus so effizient funktioniert, dass Angebot und Nachfrage auch kurzfristig ausgeglichen sind. D.h., dass die agents den Preis, Lohn und Zinssatz so auswählen, dass sie im Entscheidungszeitpunkt mit gegebenen Informationen die Märkte jederzeit vollständig räumen und damit ihren Nutzen sowie Gewinn maximieren können. Des Weiteren wird die Annahme der jederzeit vollständig geräumten Märkte auch auf dem Arbeitsmarkt unterstellt, so gibt es demnach keine unfreiwillige Arbeitslosigkeit. Das würde bedeuten das die Beschäftigungs- und Produktionsschwankungen nur durch Anpassungsverzögerung oder durch falsche Erwartungen entstehen könnten, welche sich aus mangelhaften Informationen ergeben.

Die zwei häufigsten Irrtümer die dabei gemacht werden, sind die permanent/transitorisch-Konfusion und die absolut/relativ-Konfusion. Hier können die agents nicht unterscheiden, ob eine Entwicklung bzw. eine Preissteigerung, langfristig oder vorübergehend ist. Es ist ihnen zunächst unklar, ob das Preisniveau oder nur die (relativen) Preise von einer Störung betroffen sind. Wird hierbei eine falsche Annahme von den agents getroffen, dass es sich um eine ganze oder teilweise permanente bzw. relative Erhöhung der Preise handelt, werden sie ihr Angebot erhöhen, bis sie diesen Irrtum in der nächsten Periode herausfinden. Somit können Produktionsschwankungen auch in einem NCM-Modell entstehen, weil in bestimmten Fällen doch nicht alle Märkte vollständig geräumt werden. Dabei besteht ein Einfaches Modell dieser Art aus einer Angebots-, Nachfrage-, Geldangebots- und Geldnachfragefunktion.[3]

Angebotsökonomie (supply-side economics)

Bei der supply-side-Schule versucht man mittels Steuersenkung die Wirtschaft so anzukurbeln, dass die Steuereinnahmen steigen und das Budgetdefizit reduziert wird. Dabei werden zwei Wurzeln und zwei Schulen unterschieden.

Die erste, theoriegeleitete Wurzel der supply-side economics ist die klassische Tradition. Bei dieser wird ausschließlich die Angebotsseite betont und die Nachfrageseite wird dabei völlig vernachlässigt, weil sich laut dem Sayschen Gesetz, jedes Angebot stets seine eigene Nachfrage selbst schafft, womit das Güterangebot das gleichgewichtige Transaktionsvolumen eines Marktes determiniert. Deshalb wird bei diesem Modell das Angebot als eine entscheidende Größe definiert. Diese Denkweise wird traditionell bei jeder Untersuchung des Einflusses einer Steuerbelastung, der Sozialversicherungen oder der relativen Preise auf das Angebot von Produktionsfaktoren weiterhin fortgesetzt. Diese Position wurde in den Unternehmerparteien Europas ständig vertreten und spielte somit in der Wirtschaftspolitik, vor allem in der Steuer- und Investitionspolitik, eine entscheidende Rolle. Diese, in Europa liberale, Tradition betonte kontinuierlich auch die Rolle des freien Unternehmertums sowie staatsfreier Räume (d.h. innerhalb eines festen ordnungspolitischen und wettbewerbspolitischen Rahmens) für eine günstige Entwicklung von Wirtschaft und Beschäftigung.

Die zweite Wurzel der Angebotsökonomie betonte die anregende Wirkung von Steuersenkung, sie versprach sogar die Budgetdefizite zu verringern. Der ideologische Führer dieser Schule ist G. Gilder und die Leitfigur ist Arthur B. Laffer, dessen Laffer-curve den zentralen Tatbestand popularisierte. Mit dieser stellte er dar, dass jede Steuer bei steigenden Sätzen höhere Erträge und ab einem Maximalpunkt abnehmende Erträge erbringt.

In dieser Schule geht es nicht um neue theoretische Ideen, sondern um die Größenordnung von Effekten, die auch bereits bekannt sein können. Des Weiteren konnte diese Schule keine überzeugenden empirischen Beweise für die Richtigkeit der von ihr postulierten Größenordnungen der supply-side economics vorlegen.

Relevant an den supply-side economis ist das Augenmerk, welches sich auf das Angebot an Produktionsfaktoren, den Kapitalstock und die Arbeitsbereitschaft lenkt. Des Weiteren beziehen sie sich auf die Bedeutung von Steuern und Sozialabgaben für Investieren, Sparen, Erwerbsquote und Arbeitszeit.

Nach der Ansicht der Angebotsökonomik ergeben sich zunächst Gewinnerhöhungen, die zur besseren Produktivität und Wachstumssteigerung und somit zu steigenden Löhnen führen. Eine ungleichmäßige Einkommensverteilung wird als Voraussetzung eines besseren Gesamtwohlstandes angesehen. Nach dieser Auffassung löst der Wachstumsschub auch das Inflationsproblem, weil es vorübergehend zu einem Überschussangebot und damit zu einem Druck auf dem Preis kommt.

Die Angebotsökonomik hatte in den ersten Jahren der Reagan-Administration (Reaganomics) ihren größten Einfluss auf die Wirtschaftspolitik. Auch die von Margaret Thatcher in Großbritannien durchgeführte Wirtschaftspolitik (Thatcherismus) folgte zum größten Teil den Ideen der Angebotsökonomik. In Deutschland wurde eine gemäßigte Form der Angebotsökonomik durch den Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (SVR) bis zum Auftreten der weltweiten Rezession als Folge der globalen Finanzmarktkrise im Jahre 2007 propagiert.[3]

Auf Keynes basierende Weiterentwicklungen

Neue Keynesianische Makroökonomik (NKM)

Hauptartikel: Keynesianismus bzw. Neukeynesianismus

Die Neue Keynesianische Makroökonomik hat sich in zwei charakteristischen Schüben entwickelt. Zeitlich lassen sich diese Entwicklungen einerseits in der zweiten Hälfte der 60er, den 70er und anderseits der 80er Jahre einordnen.

Der erste Schub wird als NKM I bzw. Neue Keynesianische Makroökonomik I bezeichnet und konzentriert sich auf die Ungleichgewichtsmodelle. In diesen werden Transaktionen zu nicht-markträumenden Preisen durchgeführt. Wobei sich aus diesen nominellen Preisrigiditäten die „Keynesiansiche“ Arbeitslosigkeit und damit Aufgaben für die Stabilisierungspolitik ergeben.

Der zweite Schub, NKM II, konzentriert sich seit den achtziger Jahre auf die Frage, wieso nominelle Schocks reale Folgen haben können. Damit sind mikrotheoretische Überlegungen einer kompatiblen Begründung der Preis- und Lohnrigiditäten gemeint. Hierbei wird von einem Modell des unvollständigen Wettbewerbs ausgegangen.[3]

Neue Keynesianische Makroökonomik I

Die Entwicklung dieses Modells wurde u.a. durch Clower, Barro/Grossman und Malinvaud charakterisiert und wird als Ungleichgewichtstheorie bezeichnet und hat mit echten Ungleichgewichten sowie mit echter Unsicherheit nichts zu tun. Es handelt sich hier mehr um Temporäre Gleichgewichte mit Mengenrationierung. Das heißt, fehlen bestimmte Beschränkungen auf den Güter-, Arbeits- und Geldmärkten, dann würde zu den jeweiligen Preisen mehr angeboten bzw. nachgefragt werden. Diese Beschränkungen ergeben daher, weil sich die Preise und Löhne nicht schnell genug anpassen, dass damit die Märkte vollständig geräumt werden. Diese Mengendiskrepanzen können für eine ungewisse Zeit verbleiben und in diesem Zeitraum werden die Transaktionen zu Nicht-Gleichgewichtspreisen durchgeführt (trading at false prices). Wobei ein temporäres Gleichgewicht in dem Sinn bestehen bleibt, dass die Handlungen zwischen den Wirtschaftssubjekte konsistent sind.

Besonders bedeutsam sind die spill-over-Prozesse von einem rationierten Markt auf die anderen. Wird nicht die gesamte angebotene Arbeit zum gegebenen Lohn nachgefragt, so kommt es zu einer Verringerung der Haushalte auf dem Arbeitsmarkt. Des Weiteren müssen sie ihre Transaktionswünsche auch auf den anderen Märkten anpassen. D.h., wenn die Nachfrage sinkt, werden die Unternehmer als Folge am Gütermarkt rationiert und können dadurch ihre gesamte Produktion nicht mehr am Gütermarkt absetzen. D.h. durch die spill-over-Porzesse werden die Ungleichgewichte aufeinander aufgeschaukelt. Im Gegensatz zu der Neoklassischen Synthese wird bei der NKM I eine mirkroökonomisch-entscheidungslogische Fundierung auf der Grundlage des traditionellen Rationalverhaltens geboten und die Konsistenz der wichtigen Hypothesen sichergestellt.

Im Vergleich zur NCM erfolgt hier die Berücksichtigung von Angebotsrestriktionen und die Konzentration auf den Anpassungsprozess, der durch die verzögerte Reaktion der Preise an Bedeutung gewinnt. Das System befindet sich daher ständig in einem Ungleichgewicht, da die Reaktion der Preise und Löhne auf die häufig auftretenden Änderungen exogener Einflüsse (Schocks) zögerlich ist. Damit befindet sich dieses stets in einem Anpassungsprozess, weil es immer gestört wird, bevor es sein Ziel erreichen kann. Auch ist die NKM I gegen die Ansicht, dass es nur ein einziges Gleichgewicht gebe, was für die stabilisierungspolitische Debatte von großer Wichtigkeit ist. Dabei ist an dem Rationierungsmodell für die Stabilisierungspolitik von Bedeutung, dass Arbeitslosigkeit nicht durch überhöhte Reallöhne entstehten muss, sondern diese kann auch entstehen, wenn sich die Nominallöhne und Nominalpreise nicht zeitnah an die nominelle Nachfrage anpassen. Damit wäre in solchen Fällen die Nachfragesteuerung und nicht die Lohnpolitik eine angemessene Politik. Neben dem Arbeitsmarkt oder dem Gütermarkt kann in weiterführenden Modellen sogar der Kreditmarkt, aufgrund von zugrundeliegenden Verhaltensannahmen und Reaktionsmechanismen, rationiert sein.

Die Preise und Löhne werden sich unter dem Einfluss der Rationierung ändern und es kommt zu Bestandsanpassungsprozessen. Dennoch nahm Malinvaud weiter an, dass eine Überschussnachfrage zu Preis- bzw. Lohnsteigerungen auf den entsprechenden Märkten führen würde und dass die Investitionen von den adaptiven Erwartungen der Kapazitätsauslastung und den Faktorpreisen sowie Arbeitsproduktivität abhängig sind. Bei dieser Annahme reagiert das Modell sensibel auf die exakte Spezifikation der Verhaltensgleichung und ist teilweise ad hoc. Es zeigt sich eine Tendenz zu zyklischen Anpassungen durch Regimeswechsel, zu einer Persistenz des keynesianischen Regimes und zu einer Bewegung in Richtung Walras-Gleichung bei zeitnaher Preis- und Lohnanpassung.

Malinvaud versuchte u.a. die mangelnde Preisflexibilität, mangelnde Anpassung, Rationierungsphänomene und besonders das Weiterwirken der Rationierung von einem Markt auf andere (spill-over) zu erfassen, um die Bedeutung der NKM für die Stabilisierungspolitik deutlich zu machen. Kritik an seiner Annahme ist, dass die realistische Formulierung des Modells sehr schnell komplex und nicht mehr Handhaber und damit die Rationierung eher bildhaft als analytisch wird. Es fällt nicht leicht zu verstehen was unter temporär formuliert wird und unter welchen Bedingungen es zu einer Anpassung der Preise und Löhne kommt. Also wird in diesem, wie auch in den anderen Modellen eine echte Unsicherheit vernachlässigt und der Anpassungsprozess der rationierten Wirtschaftssubjekte findet unendlich rasch statt. D.h. es gelten dieselben Verhaltensannahmen für die Wirtschaftssubjekte wie im Klassischen Modell. Auch wenn Transaktionen zu nicht-markträumenden Preisen andere Verhaltensweisen bei Wirtschaftssubjekten und beim System ermöglichen.[3]

Neue Keynesianische Makroökonomik II

Dieses Modell hatte ihre Wurzel zu Beginn der 80er Jahre, in denen man versuchte, eine zentrale Annahme für langsam reagierende Preise und Löhne zu finden, die im Gegensatz zu der Annahme der jederzeit vollständig geräumten Märkte realistischer erscheint, aber Anlass für die Lucas-Kritik bietet.

Lucas-Kritik (von Robert E. Lucas, in den 1970er Jahren entstanden):

„Da die Struktur eines ökonometrischen Modells optimale Entscheidungsregeln der Wirtschaftssubjekte umfasst und da optimale Entscheidungsregeln sich systematisch mit den für die Wirtschaftspolitik relevanten Zeitreihendaten ändern, wird jede Änderung der Wirtschaftspolitik die Struktur des ökonometrischen Modells ändern“.

(„Wenn man nicht weiß, warum die Preise nicht genügend rasch reagieren, lassen sich Verhaltensänderungen nicht prognostizieren, weil man nicht weiß, wann die Preise rascher und wann sie langsamer reagieren.“)[3]

Dabei muss einerseits zwischen Reallohn- und Nominallohnrigiditäten und andererseits realer und nominaller Preisrigidität unterschieden werden.

Reallohnrigidität

Unter Reallohnrigidität versteht man die Starrheit der relativen Löhne. Diese kann u.a. aus impliziten Kontrakten, der Existenz von Gewerkschaften, der Struktur des Arbeitsmarktes oder aus Effizienzüberlegung entstehen.[3]

Lohnrigidität:

Die Lohnrigidität aus implizierten Kontrakten (Baily und Azariadis) besagt, dass die Unternehmer normalerweise weniger risikoavers sind als die Arbeitnehmer und somit bereit sind, die Risiken von Absatzschwankungen zum größten Teil allein zu tragen. So sind z.B. die Lohnzahlungen zum Zeitpunkt des Vertragsabschlusses um eine hypothetische Versicherungsprämie niedriger als markträumende Löhne. Des Weiteren steigt die Varianz der Arbeitslosigkeit aufgrund der Rigidität der Reallöhne (Akerlof/Miyazaki).[3]

Weiterhin kann es zur relativen Stabilität des Reallohns bei starken Beschäftigungsschwankungen anhand der Existenz von formalen Lohnverhandlungen zwischen Gewerkschaften und Unternehmerverbänden kommen, wenn diese sich als Monopolisten gegenüberstehen (McDonald/Solow).

Dazu muss weiterhin noch die Struktur des Arbeitsmarktes zur Erklärung der Reallohnrigidität herangezogen werden (Doering/Piore und Lindbeck/Snower). Bei der Modellbetrachtung muss man zwischen Gewerkschaftmitgliedern und Nichtmitgliedern, Stammbelegschaft und Aushilfskräften, Fachpersonal und angelernten Kräften sowie zwischen Beschäftigten und Nicht-Beschäftigten (Arbeitslosen) unterscheiden. Dabei ist eine starke Vertrauensbeziehung zwischen den Arbeitskräften der erstgenannten Gruppe und dem Unternehmen vorhanden, die sich aus Kenntnis der Qualifikation ergibt und die man nur durch eine längere Beobachtung erkennen kann. Weiterhin wehren sich die Arbeitnehmer der primary labour-force (erstgenannten Gruppe) gegen Neueinstellung von Personal zu niedrigeren Löhnen. Denn sie befürchten, dass ihre eigenen Löhne gesenkt oder sie durch billigere Arbeitskräfte ersetzt werden könnten. Da es aber meistens nur die Personen der zweitgenannten Gruppe (secondary labour-force) betrifft, kommt es zur impliziten Zustimmung der Mehrheit.[3]

Effizienzlohn-Hypothese:

Hier wird von der Annahme ausgegangen, dass die Produktivität der Arbeitskräfte vom Reallohn abhängt. D. h. je höher dieser ist, desto höher ist die Anstrengung und Firmenloyalität der Mitarbeiter. Das führt weiterhin zu einer besseren Auswahl des Personals, zu niedrigeren Fehlzeiten sowie zur geringeren Fluktuation, wobei die Produktivitätszuwächse mit zunehmender Reallohnhöhe wieder abnehmen. Dadurch müssen die Unternehmen den Punkt finden, in dem der Lohn und die marginale Produktivität gleich sind. Auch bei Nachfrageänderungen kann das Unternehmen nicht mit Lohnkürzungen, sondern muss mit Entlassungen reagieren. Wird häufig bzw. ständig entlassen, kann dies dazu führen, dass es den produktivitätssteigernden Faktoren entgegen wirkt.[3]


Nominallohnrigidität

Hier handelt es sich meistens um überlappende Verträge, d.h. ein Arbeitnehmer schließt zum Zeitpunkt t und ein anderer zum Zeitpunkt t+1 einen nicht änderbaren Lohnvertrag ab (Fischer & Taylor). Daraus folgt, dass die Löhne der nächsten verhandelnden Gruppe geringer sind, weil sie durch den monetären Schock gedrückt werden, der Arbeitsmarkt wird nicht geräumt, da die andere Gruppe von der festgelegten Nominallohnhöhe ganz oder teilweise arbeitslos wird. Des Weiteren wiederholt sich dies für die nächste Gruppe, wenn die Arbeitsverträge der Vorgruppe ablaufen. Dadurch kommt es selten zu einer vollständigen Anpassung markträumender Löhne, doch wann diese Situation erreicht wird, ist zeitlich ungewiss. Weiterhin sind Preisrigiditäten sehr wichtig, da diese aufgrund der flexiblen Preise die Nachteile von Lohnrigiditäten hinreichend beseitigen könnten. Die realen Preisrigiditäten sind bei Preisregulierungen, oligopolistischen Strategien, Suchkosten sowie Input-Output-Verflechtungen zu erkennen.[3]

Oligopolistische Märkte:

Preisrigiditäten entstehen hier aufgrund dessen, dass Preisstrategien weniger effizient sein können. Der Grund dafür ist, dass die Konkurrenz Preisänderung leicht beobachten und dementsprechend darauf reagieren kann. Dies gilt aber nicht im selben Maße für andere Strategien (wie für Mengenanpassung, Produktdifferenzierung, Forschung, Werbung usw.) (Schmidt).[3]

Suchkostenansätze:

Hier werden Auktions- und Kundenmärkte unterschieden (Okun). Dabei ist zu erwähnen, dass bei Kundenmärkten die Qualität der Produkte nicht klar zu erkennen bzw. wegen anderen Gründen keine vollständige Marktübersicht zu bekommen ist. Deswegen sind eingespielte Kundenkontakte sehr hilfreich, da diese durch vorübergehende Preisänderungen nicht gestört werden. Folglich bringt eine Preissenkung unter den genannten Voraussetzungen dem Anbieter geringfügig einen weiteren Absatz und kann sich unter bestimmten Bedingungen als problematisch erweisen. Weil durch die Preisänderung der Kunde automatisch den Markt neu erkunden wird, auf der Suche nach einem preisgünstigeren Anbieter.[3]


Input-Outputerklärungen der Preisrigidität (Blanchard und Gordon)

Hier bilden die Anpassungskosten i.w.S. die Grundlage für die Input-Output-Verflechtungen. Hier wird davon ausgegangen, dass es verschiedene Unternehmen mit unterschiedlichen Kostenpositionen gibt und dass diese Positionen zu unterschiedlichen Zeitpunkten geändert werden. Dabei weiß das Unternehmen nicht, welche Änderungen temporär oder dauerhaft sind und welche durch andere Kostenänderungen wieder kompensiert bzw. verstärkt werden. Aufgrund der Unsicherheiten (wie häufiger Preisänderungskosten, langer Durchlaufzeiten der Preisänderungen und der gesamten Input-Outputstrukturen) kann es relativ lange dauern, bis sich die Preisänderung auf den Verbraucher niederschlagen, weil selbst die unmittelbare Preisanpassungen jedes Produzenten dem aggregierten Preisniveau unterliegen (aufgrund der langen Durchlaufzeiten). Auch von einer Indexierung aller Gründe der Preisrigiditäten wird abgeraten, weil man dafür eine Vielzahl von komplizierten Verträgen benötigt, was aus der praktischen Sicht schlecht durchsetzbar und teuer ist. Die Definierung der möglichen Ursachen der Preis- und Lohnrigiditäten ist zwar ein wichtiger Schritt, dennoch bleiben dabei noch zwei Probleme offen.[3]

  1. Das Hauptproblem bei der Konjunkturtheorie liegt darin, dass durch die nominellen Schocks die nominellen Rigiditäten die zentrale Rolle übernehmen/darstellen. Dabei hat die Begründung nomineller Rigiditäten eine geringere Überzeugungskraft als die der Realen. Des Weiteren können die nominellen Rigiditäten durch Indexierung überwunden werden.
  2. Neben den Preisanpassungskosten existieren noch die Mengenanpassungskosten. Des Weiteren ist anzunehmen, dass eine geringe Abweichung der Preise von den gewinnmaximierenden nur einen geringfügigen Verlust dabei bedeutet. Deshalb können kleine Abweichungen toleriert werden, da diese einen gering wirtschaftlichen Effekt bewirken. Ganz anders sieht das bei großen Abweichungen aus. Diese haben einen weitaus stärkeren Effekt und sind kaum tolerierbar.

Eine andere Ansicht vertreten George Arthur Akerlof, Janet Louise Yellen und Nickolas Gregory Mankiw. Sie behaupten, dass die oben genannten Annahmen für den oligopolistischen Wettbewerb nicht zutreffen. Da die Gewinnfunktion nach dem Preis abgeleitet wird, ist bei einem preissetzenden Unternehmen das Optimum = (gleich) 0. Dies bedeutet, dass eine geringe Abweichung des Preises vom Optimum nur geringe (second order) Gewinneinbußen bewirkt, wenn sich auch die anderen nicht anpassen. Weiterhin bewirkt eine geringfügige Erhöhung der Geldmenge bei Existenz von Preisanpassungskosten eine kaum nennenswerte Preisänderung. Demnach erleiden Produzenten nur einen geringen Gewinneinbußen. Andererseits führt eine höhere Geldmenge zu Einkommens- und eventuell Wohlfahrtssteigerungen (first order). Ist die Erhöhung der Geldmenge dauerhaft, so werden sich die Preise früher oder später wieder anpassen.

Weiterhin beeinflussen die Verhaltensweisen anderer Wirtschaftssubjekte, ob nominelle Schocks als nominelle oder als reale gehandhabt werden bzw. wirken. D.h. nehmen andere Wirtschaftssubjekte an einer nominellen Schock-Anpassung nicht Teil und ein Wirtschaftssubjekt erwartet dies, dann hat die relative Preisänderung die Wirkung eines realen Schocks. Die Folge ist, dass nominelle und reale Preis- und Lohnrigiditäten interagieren.[3]

Postkeynesianismus

Hauptartikel: Postkeynesianismus

Es handelt sich hierbei um ein NKM-Modell, welches eine neue Neoklassische Synthese darstellt und echte Unsicherheiten sowie makroökonomische Aspekte der Erwartungsbildung nicht berücksichtigt und somit den Ausgangspunkt des post-keynesianischen Ansatzes bildet. Die Vertreter dieses Modells sind Shakle, Davidson, Minsky, Loasby und Kregel.[3]

Im Mittelpunkt der post-keynesianischen Überlegung stehen natürlich die Unsicherheiten, welche sich durch ihre Nicht-Einschätzbarkeit vom Risiko der NCM-Modelle unterscheiden. Das heißt es herrscht eine absolute Unwissenheit bei der Einschätzung der Ergebnisse. Demnach ist die Unsicherheit, im Gegensatz zum Risiko, nicht berechenbar. Aufgrund dessen sind zukünftige Ereignisse nicht vorhersehbar, worauf die Wirtschaftssubjekte gezwungen werden andere Verhaltensweisen und andere institutionelle Vorkehrungen zu treffen.

So ist z.B. eine Fremdfinanzierung sowohl für Kreditgeber wie auch für Kreditnehmer bei Unsicherheiten höchst gefährlich, denn in so einem Fall hägngt der Konsum in erster Linie vom laufenden Einkommen und im Aggregat zusätzlich von der Einkommensverteilung ab. Hierbei sind die Investitionen vom laufenden Gewinn und den Erwartungen, die oft mit Intuitionen verbunden sind, abhängig. Weil bei Unsicherheit die Folgen von Preisänderungen nicht vorhersehbar sind und weitere Verunsicherungen bei den Abnehmern hervorrufen können, werden die Preise seltener geändert als bei Sicherheit. In solchen Zeiten stehen dann die Investitionen (Akkumulation) im Mittelpunkt der Unternehmensplanung. Die Unternehmen erhoffen sich dabei ein schnelles Wachstum, damit sie zum einen den Gewinn über Größenvorteile und Marktmacht (Oligopolisierung) steigern können und zum anderen die Unsicherheit reduzieren können. Folglich werden oft Verträge ohne einen bestimmten Inhalt abgeschlossen, um spätere Informationen berücksichtigen zu können. Des Weiteren werden hierarchische Organisationsformen (in den Unternehmen) bedeutsamer als marktmäßige Koordinierung. Der Grund hierfür ist, dass der Inhalt von Verträgen (z.B. von Liefer- und Arbeitsverträgen) nicht im Vorfeld festgelegt werden kann. Eine Optimierung bei Unsicherheit ist deshalb schlecht möglich, weil nicht alle Alternativen bekannt sind und bewertet werden können. Das einzig mögliche was auftreten bzw. vorkommen könnte, ist ein satisfizierendes Verhalten. Aufgrund dessen ist ein Ungleichgewicht der Normalfall und kein Übergangsstadium zwischen den Gleichgewichten beim Post-Keynesianismus. Deshalb haben Machtphänomene eine bedeutende Rolle bei diesem Modell, d.h. die Entwicklung wird von historischen, institutionellen, sozialpsychologischen, politischen und anderen Faktoren beeinflusst. Somit wird die Erwartungsbildung durch Ansteckungseffekte geprägt, damit treten Optimismus und Pessimismus, Wirtschaftswunder und Finanzkrisen mit gewisser Wahrscheinlichkeit auf.

Weiterhin lässt sich aus dem post-keynesianischen Modell die Theorie ableiten, dass es keine modellmäßigen Handlungsabläufe gibt aber sich durchaus Hinweise für die Wirtschaftspolitik ergeben. Keynes selbst hat zwei Gruppen von Maßnahmen aufgestellt.[3]

Erste Maßnahme:

  • Mit Interventionen sollen Fehlentwicklungen im Einzelfall verhindert werden, dieses Vorgehen stellt dabei hohe Anforderungen an die wirtschaftspolitischen Instanzen.

Zweite Maßnahme:

  • Beinhaltet, dass stabilisierende Faktoren in das Wirtschaftssystem eingebaut werden, sogenannte „socialization“ der Investition (gesellschaftliche Kontrolle dieser). D.h. eine Beschränkung der internationalen Kapitalbewegungen und die Umverteilung zugunsten niedriger Einkommensschichten.

Bis heute werden unterschiedliche Instrumente und institutionelle Vorkehrungen entwickelt, mit denen man versucht, geregelt in das Wirtschafts- und Gesellschaftssystem einzugreifen.[3]

Zu diesen zählen u.a.:

  • Bemühungen zur Verstetigung der Wirtschaftspolitik
  • Verteidigung der diskretionären Maßnahmen gegen Regelbildungen ohne Rückkopplung
  • Maßnahmen zur Stabilisierung des (Welt-) Finanzsystems
  • Diskussionen um eine funktionierende Mischung von Regulierung und Deregulierung zu erreichen

Neue Politische Ökonomie (NPÖ)

Hauptartikel: Neue Politische Ökonomie

Im Jahre 1958 wurde von Duncan Black das Buch „The Theory of Committees and Elections“ (über Mathematik des Wahlprozesses) veröffentlicht, worauf sich in den 1960er und 1970er Jahren eine Vielzahl von amerikanischen Ökonomen der staatlichen Willensbildung in demokratisch erfasster Gesellschaft widmeten.[3]

Zu diesen zählen u.a.:


Die Neue Politische Ökonomie ist eine Erweiterung der ökonomischen Analyse auf den Bereich der Politik. Im Zentrum der Betrachtung stehen politische Institutionen und das Handeln politischer Akteure. Des Weiteren verwenden die Vertreter der NPÖ unterschiedliche Methoden, wie:

Es wird aber auch auf die klassischen Methoden Politischer Ökonomie zurückgegriffen.[3]


Im Mittelpunkt der NPÖ steht die Untersuchung des Handelns von politischen Akteuren, d.h. der Wähler, Politiker, Bürokraten, Interessengruppen und Medien. Diese besitzen ein ausreichendes rationales Entscheidungsverhalten und agieren wie Privatpersonen, wodurch u.a. die konventionellen neoklassischen, spieltheoretischen, neuen institutionenökonomischen Instrumente der Ökonomik auf den Bereich der Politik anwendbar sind. Weiterhin wird angenommen, dass politische Entscheidungsträger vor allem eigene persönliche Interessen verfolgen, statt am Wohlergehen der Gemeinschaft interessiert zu sein. Damit können die Politiker als Unternehmer und die Wähler als Konsumenten bezeichnet werden. Demnach stellt Bürokratie die öffentlichen Güter zur Verfügung, während die Medien als Anbieter von Informationen agieren. Dieses Zusammenwirken der Interessengruppen, Bürokraten und Politikern wird auch als „Eisernes Dreieck“ beschrieben. Hierbei wird das tatsächliche Verhalten politischer Handlungsträger durch die positive Theorie empirisch dargestellt. Die normativen Ansätze müssen von den entsprechenden Institutionen so bewusst genutzt werden, damit diese gewisse normative Ziele erreichen. Dadurch wird eine enge Verbindung zur Konstitutionenökonomik hergestellt, d.h. hier wird die normative Public-Choice-Theorie und positive Public-Choice-Theorie der NPÖ gegenübergestellt. So steht zwischen der positiven eine normative NPÖ und zwischen der normativen eine positive Konstitutionenökonomik.

Somit hat sich die NPÖ in methodischer und thematischer Hinsicht zu einer weit gefächerten Forschungsrichtung innerhalb der Ökonomik entwickelt und in anderen Bereichen an Bedeutung gewonnen. So sind Public-Choice-Ansätze im Rahmen der Rational-Choice-Theorie in Soziologie und in der Politikwissenschaft zu finden. Es ist auch zu beobachten, dass sich die ökonomische Analyse der Politik zunehmend den vorhandenen und neuen Bereichen öffnet. Damit gilt die ökonomische Analyse der Politik (auch Rechtsökonomik genannt) inzwischen als eine eigenständige Fachrichtung innerhalb der Ökonomik. Zu den aktuellen Forschungsfeldern, in denen die ökonomische Analyse auf den Bereich der Politik angewendet wird, zählen u.a. der Wandel politischer Institutionen, globale Politikphänomene, das Handeln supranationaler Organisationen, individuelle Einstellungen und Wahrnehmungen der Bürger gegenüber der Politik, die Institutionalisierung von Vertrauen, der Einfluss der Medien und die Wirkung von Politikberatung.[3]

Siehe auch

Einzelnachweise

  1. a b c d e f Alfred Maußner: Konjunkturtheorie. Springer Verlag 1994. Berlin/Heidelberg. ISBN 3-540-57790-4. S. 25 ff.
  2. Alfred Müller: Die marxsche Konjunkturtheorie - Eine überakkumulationstheoretische Interpretation. Dissertation 1983, veröffentlicht Köln 2009
  3. a b c d e f g h i j k l m n o p q r s t u v Gunther Tichy: Konjunkturpolitik, Quantitative Stabilisierungspolitik bei Unsicherheiten. 4. Auflage. Sptinger Verlag. Berlin/Heidelberg 1999. ISBN 3-540-65910-2. S. 79 ff.
  4. a b c Jürgen Heubes: Konjunktur und Wachstum. Vahlen Verlag 1991. München. ISBN 3-8006-1485-5. S. 28 ff.

Wikimedia Foundation.

Игры ⚽ Нужен реферат?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Konjunkturtheorie — Kon|junk|tur|the|o|rie, die (Wirtsch.): Teilgebiet der Volkswirtschaftslehre, das die Ursachen u. Verläufe konjunktureller Bewegungen untersucht …   Universal-Lexikon

  • Konjunkturtheorie — 1. Begriff: Teil der ⇡ Volkswirtschaftstheorie, der sich mit dem Erklären des Zustandekommens von zyklischen Bewegungen (⇡ Konjunktur, ⇡ Konjunkturschwankungen) meist makroökonomischer Größen beschäftigt. 2. Modelle: a) Deskriptive… …   Lexikon der Economics

  • stochastische Konjunkturtheorie — Teilgebiet der ⇡ Konjunkturtheorie, das exogen bestimmten stochastischen Faktoren die wesentliche Rolle bei der Auslösung und dem Aufrechterhalten eines ⇡ Konjunkturzyklus zuerkennt. Nach W. Krelle (1959) genügen kleine und daher mit hoher… …   Lexikon der Economics

  • Keynessche Konjunkturtheorie — John Maynard Keynes Keynesianismus [keɪnz ] ist die in den 1930er Jahren von John Maynard Keynes aufgestellte und von seinen Anhängern weiterentwickelte staatliche Wirtschaftstheorie, in der die Globalsteuerung der Nachfrage nach Gütern und… …   Deutsch Wikipedia

  • Bifurkationstheorie — ⇡ Konjunkturtheorie …   Lexikon der Economics

  • Friedrich August von Hayek — (* 8. Mai 1899 in Wien; † 23. März 1992 in Freiburg im Breisgau) war ein österreichischer Ökonom und Sozialphilosoph. Neben Ludwig von Mises war er einer der bedeutendsten Vertreter der Österreichischen Schule der Nationalökonomie und zählt zu… …   Deutsch Wikipedia

  • Konjunkturpolitik — Unter Konjunkturpolitik versteht man wirtschaftspolitische Maßnahmen, die darauf zielen, Konjunkturschwankungen in Grenzen zu halten und ein möglichst gleichmäßiges Wirtschaftswachstum zu erreichen[1]. Die Ziele der Konjunkturpolitik sind in… …   Deutsch Wikipedia

  • Österreichische Schule — Als Österreichische Schule, Wiener Schule, Österreichische Grenznutzenschule[1] oder (selten) psychologische Schule wird eine Gruppe von Theoretikern bezeichnet, die eine bestimmte Lehrmeinung in der Volkswirtschaftslehre vertreten. Zentral ist… …   Deutsch Wikipedia

  • Konjunktur — Wirtschaftslage; Konjunkturlage * * * Kon|junk|tur [kɔnjʊnk tu:ɐ̯], die; , en: gesamte wirtschaftliche Lage mit bestimmter Entwicklungstendenz: eine steigende, rückläufige Konjunktur. * * * Kon|junk|tur 〈f. 20; Wirtsch.〉 1. Wirtschaftslage mit… …   Universal-Lexikon

  • Pseudo-Erklärung — Der Ausdruck Pseudo Erklärung bezeichnet in der Wissenschaftstheorie Abfolgen von Sätzen, die augenscheinlich die Struktur und Funktion von wissenschaftliche Erklärungen aufweisen, die Ansprüche an wissenschaftliche Erklärungen aber dennoch nicht …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”