Werner Krämer

 Methoden: Statistik,  Daten, Mathe, Spiel, Logik, Geschichte  

Wirtschaftsforschung Statistik Economics Data collection Home Impressum Sitemap

"Die gefährlichsten Wahrheiten sind Wahrheiten, mäßig entstellt", Georg Christoph Lichtenberg, dt. Schriftsteller, 1742-1799. Die Kenntnis der Methoden soll der Manipulation entgegenwirken.           

Inhalt: (Übungs-) Modell; Spieltheorie; (Übungs-) Lern-Datenraster (Data collection: die wichtigsten Daten und Informationen mit Quellen);  Methode der Ökonomie und Volkswirtschaftslehre (VWL); Wissenschaftstheoretische Grundlagen  der Ökonomie und VWL; Defizite der VWL, Betriebswirtschaftslehre/ Business Economics als Wissenschaft; Wirtschaftsgeschichte und Ökonomiegeschichte; Markt oder Staat? Einfluss und staatliche Eingriffe (Notwendigkeit einer neuen Ökonomie nach den großen Krisen). Neuere Konzeptionen und Ansätze der Ökonomie; Rolle der Statistik bzw. ÖkonometrieZusammenhang zwischen Modell, Planspiel, Rollenspiel und Simulation; Empirische Forschungsmethoden in der Ökonomie und den Sozialwissenschaften; Prognose der Weltwirtschaft bis 2033; Prognose als Methode; Mathematik und Ökonomie; Statistik: Daten und Methoden; Welche statistische Methode zu welchem Problem?; Stoff von Statistik in der Lehre, Statistik und kognitive Psychologie; Manipulation mit Statistik; Datenethik und Qualität der Statistik; Prognose und Statistik; Statistik in China und ihre Genauigkeit; Statistiksystem in Japan; Statistische Indikatoren in China/ Japan; Corona-Krise und Statistik; Statistik und Prognose: Notwendige Bedingung?; Corona-Krise bzw. Krisen und empirische Wirtschaftsforschung (Konjunkturforschung hochvolatil); Messung der Umwelt/ Nachhaltigkeit; Arbeitsmarktstatistik; Volkswirtschaftliche Gesamtrechnungen (Wohlstand), Statistische Indikatoren makroökonomischer WirtschaftspolitikMessung der Inflation/ Preistatistik, Statistik der Finanz- und Aktienmärkte; Messung der Verteilung bzw. Ungleichheit; Messung der Verschuldung; Messung des KonsumsMessung der Liberalisierung einer Wirtschaftsordnung; Messung der Wettbewerbsfähigkeit; Arbeitsmarkt, Produktivität, Indikatoren im Ausland; Empirische Messung der Digitalisierung wissenschaftlich, analytisches Denken (Daten und Denken); Betriebswirtschaftliches/ ökonomisches Denken schulen für erfolgreiche Unternehmen, Philosophie und Ökonomie (Logik, Denkstrukturen); Psychologie und Ökonomie (Menschliches Verhalten als Kern der Ökonomie); Soziologie und Ökonomie (Einfluss von Kultur und Gesellschaft als Rahmen);  Zehn Regeln der VWL aus unternehmerischer Sicht; Stellenwert des Internet; Ökonomische Aspekte der Präsentation im Internet; Sonstige Gebiete (Blogs,Wikis).

 

Knossos, Palast, auf Kreta. Die minoische Kultur ist die älteste Hochkultur Europas (vor über 4000 Jahren). Damit ist sie letztlich auch die Wiege unseres wissenschaftlichen, auch ökonomischen und volkswirtschaftlichen, Denkens. Der Kontinent "Europa" hat seinen Namen von jener phönizischen Prinzessin Europa, die der Göttervater Zeus in Gestalt eines Stiers nach Kreta entführte (Gründungsmythos). Die Insel beherrschte die Meere mit einer mächtigen Flotte. Die neueste Forschung berichtet aber auch von Menschenopfern und Kannibalismus. Die Minoer waren aber auch Europas erste alphabetisierte Gesellschaft. Erbgutanalysen des Max-Planck-Instituts für Menschheitsgeschichte 2017 zeigen, dass die Hochkultur von ersten jungsteinzeitlichen Bauern aus Westanatolien und Griechenland abstammt. Seit dem dritten Jahrtausend sind Handelsbeziehungen zwischen Anatolien und dem alten Ägypten nachweisbar. Kulturen gab es aber schon weitaus früher in Europa. Davon zeugt auch die Chauvet-Höhle im südfranzösischen Ardeche-Tal. Vor 36.000 Jahren wurden dort mit Holzkohle und Ocker hervorragende Tierzeichnungen hinterlassen. Noch ältere Höhlenzeichnungen hat man 2018 auf Borneo gefunden: Bis zu 52.000 Jahre alt könnten die Zeichnungen in der Höhle Lubang Jeriji Saleh sein. Methoden haben eine Schlüsselfunktion in der Kultur und Wissenschaft. Im Kern liegt ihre Bedeutung darin, Manipulationen aufzudecken, wie es das Zitat oben von Lichtenberg auf den Punkt bringt. Im Oktober 2018 ist ein Buch vom Vorsitzenden der Grünen Robert Habeck erschienen: Wer wir sein könnten. Warum unsere Demokratie eine offene und vielfältige Sprache braucht (Köln, Kiepenheuer & Witsch 2018). Das Buch beschäftigt sich mit der Bedeutung der Sprache in der Kultur. insbesondere der politischen Kultur. Sprache ist eine wichtige methodische Grundlage. Eine zentrale Frage ist, ob das Vordringen der englischen Sprache als Wirtschaftssprache das ökonomische Denken verändert.

Die Minoer beeinflussten viele Nachfolgekulturen wie Mykene, Tiryns, Midea und Theben. Die minoische Schrift wurde mit übernommen. Bis heute ist ungeklärt, wieso diese Kulturen untergingen. Die Schätze von Mykene wurden von dem deutschen Archäologen und Kaufmann Heinrich Schliemann ausgegraben. Von Dezember 2018 bis Juni 2019 läuft im badischen Landesmuseum Karlsruhe eine Ausstellung zu Mykene. Es gab enge Beziehungen zu Santorin, Vorderasien und Afrika, so dass von da auch viele kulturelle Einflüsse kamen.

Die "Site" enthält alle Methoden, die für die Sozialwissenschaften wichtig sind.

 

   Fortis fortuna adiuvat

Das Schiff hängt mehr am Ruder denn das Ruder am Schiff (Sprichwort)

Ökonometrisches Übungsmodell für Deutschland:

Gliederung: I. Basisdaten, II. Logische Struktur, III. Wirtschaftspolitische Steuerung, IV. Erläuterungen, V. Wichtige Grundlagen eines Modells und der Spieltheorie, VI. Lernhilfe.

 

I. Basisdaten  ( erhalten Sie unter anderem über die Institutionen in "Links")

Wirtschaftswachstum (BIP ), Außenwirtschaftliches Gleichgewicht (AG)

Arbeitslosenquote   (AL)

Inflationsrate    (IR)

Exporte (X) + Importe (M)

Investitionen  (I),    Konsum (C)

Leitzins (i),     Preise (P)

Wechselkurs (WK)

Löhne (L oder W)

II. Logische Struktur:  (Einfachstkonjunkturmodell als Denkstruktur)

Finanzpolitik                                                                    Wirtschaftswachstum

                        Wechselkurs           Exporte (+ M)         Außenwirtschaft

                            Löhne                                                  Arbeitslosenquote

                          Zins                      Investitionen

Geldpolitik           Preise                  Konsum                     Inflationsrate

 

III. Wirtschaftspolitische Steuerung (spieltheoretische Auszahlungsmatrix)

                                                          Finanzpolitik (Staatshaushalt)

                                               hohe HH-Defizite     geringe HH-Defizite

                  niedrige Zinssätze    sehr niedrige AL       mäßig hohe AL

                                                 sehr hohe IR             mäßig hohe IR

Geldpolitik (EZB)                      mäßig hohe I             hohe I

                  hohe Zinssätze         mäßig hohe AL          hohe AL

                                                 mäßig hohe IR           geringe IR

                                                 geringe I                    mäßig hohe I              

Hauptziel der Europäischen Zentralbank ist die Geldwertstabilität. Der Staat muss im Rahmen des Stabilitätspaktes handeln.

IV. Erläuterungen

Dieses kleine Modell soll nur die Methode der Volkswirtschaftslehre verdeutlichen. Es setzt die Kenntnis der Grundlagen der VWL voraus. Für praktische Prognose- und Analysezwecke ist es natürlich nicht geeignet. Die Variablen können spielerisch beliebig geändert werden. Empirische Informationen und Daten erhalten Sie, wenn Sie den Links nachgehen. Dies sollte aber nicht als Data-Mining ("automatisches" Durchforsten riesiger Datenmengen) gesehen werden, denn dies liefert immer mehr zweifelhafte Resultate.  Jeder Student bzw. Ökonom sollte sich sein persönliches Info - Netzwerk zulegen, da man einige wichtige Daten auch für Prüfungen parat haben sollte.  Ein komplexes Simulationsmodell finden Sie unter anderem  in Clement u. a.: Praxis der Wirtschaftspolitik, München 2001. Auch Kollege Prof. Dr. Ulli Guckelsberger bietet ein Modell der Konjunkturprognose als Download auf seiner Homepage an (Pfad: Home HS LU, Studium, Professoren). Weitere, neuere Modelle können Sie einsehen unter: www.macroeconomicbase.com .

"Der Mensch hat Hoffnung, der Wirtschaftsweise Zahlen. Und deren Botschaft ist klar: Es wird alles schlechter, wenn nicht in diesem Jahr, dann wenigstens im nächsten. Die Statistik ist die Religion der Marktwirtschaft", Martin Gerstner, in: Sonntag Aktuell, 22. 10. 2006, S. 1.

V. Wichtige Grundlagen eines Modells und der Spieltheorie

"Nichts in der Welt ist schwierig, es sind nur die eigenen Gedanken, welche den Dingen diesen Anschein geben", Wu Cheng`en.

Modell:

"Wir sehen die Dinge nicht, wie sie sind, sondern so, wie wir sind", Talmud.

Die Methoden der VWL werden in ökonomische Modelle eingebracht. Diese sind  Gedankenexperimente, die oft mit der Ceteris-paribus-Annahme arbeiten (siehe unten). Sehr bekannt sind die Produktionsmöglichkeitskurve und das Konzept des komparativen Vorteils . Ein ökonomisches Modell ist die kompakte, vereinfachte Abbildung der ökonomischen Realität (Beispiel: Wirtschaftskreislauf, vom Physiokraten Francois Quesnay, 1694-1774, "Tableau economique" erschien 1758; am bekanntesten ist das IS/LM-Modell, das durch Analyse des Zusammenwirkens von Güter- und Geldmarkt die Bestimmung des Gesamteinkommens bei gegebenem Preisniveau zeigt). Das GINFORS (Global Interindustry Forecasting System) ist ein aktuelles Modell, das auch die Umwelt einbezieht. Alle vorliegenden Modelle sind noch nicht in der Lage, alle ökonomischen Phänomene zu erklären oder zuverlässige Prognosen abzugeben. "Das ist eine Mahnung, dass jedes Modell nur eine grobe Annäherung an die Realität sein kann", Spencer Dale, Chef - Volkswirt, Bank of England.

Computable General Equilibrium Models (CGE, berechenbare allgemeine Gleichgewichtsmodelle): Auf der neoklassischen Wirtschaftstheorie beruhende, numerisch spezifizierte gesamtwirtschaftliche Modelle mit einer Gliederung  (mehr oder weniger tief) nach Märkten und Branchen.

VAR-Modelle: Vectorautoregressionen. Sie untersuchen lange Zeitreihen aus der Realität ohne bestimmten theoretischen Rahmen. Sie können auf annahmen über Präferenzen oder Entscheidungsregeln von Konsumenten verzichten.

Exogene Variable: Parameter, der in einem Modell vorgegeben ist und von dem die Lösung des Modells (Gleichgewicht) abhängt; die Akteure müssen sich an diese Parameter anpassen. Wird auch als Schock bezeichnet. Das Gegenteil ist eine endogene Variable, die im Modell bestimmt wird und u. U. von den Akteuren kontrolliert wird.

Ceteris-paribus-Klausel: Analyse eines Zusammenhangs unter der Annahme, dass sich nur die betrachtete (unabhängige) Variable ändert, während alle anderen konstant sind. Eine extreme Anwendung ist die geschlossene Volkswirtschaft (die sich nicht am internationalen Handel beteiligt, "Closed Economy"). Das Gegenteil ist eine große offene Volkswirtschaft, die Einfluss auf die Weltmärkte und insbesondere auf den Weltzinssatz hat.

Business as usual: Annahme über das Verhalten des politischen Systems in Modellrechnungen. Es wird unterstellt, dass die Politik im Simulationszeitraum gegenüber dem aktuellen Stand nicht verändert wird.

Komparative Statik: Untersucht, wie sich die Änderung exogener Größen auf die endogenen Größen eines Modells auswirken. Es ist der Vergleich zweier Gleichgewichtszustände.

Gleichgewicht: Zustand, in dem kein Akteur glaubt, durch Änderung seines Verhaltens seine Lage verbessern zu können. Die Volkswirtschaftslehre nimmt das Gleichgewicht in der Regel als Bezugspunkt. Man geht in der modernen Makroökonomik nicht mehr nur von einem stabilen Gleichgewicht aus, sondern betrachtet mehrere Gleichgewichte (multiple Gleichgewichte). Nach der Finanz- und Weltwirtschaftskrise 2008/2009 gerät der Begriff immer mehr in die Kritik. Evolutionsprozesse, die auf menschlicher Kreativität, Neugierde und Nachahmung beruhen, rücken in den Vordergrund. Zuerst in der Ökonomie hatte Thorstein Veblen (1857-1929) die Ideen von Darwin aufgegriffen. Immer wichtiger wird auch die Einbeziehung des Zeitfaktors, so dass simultane Gleichgewichte in kurzer und langer Frist unterschieden werden. Vgl als grundlegendes Werk: Koopmans, Tjalling Charles: Activity Analysis and its Applications, in: American Economic Review 2/43, 1953, S. 406-414. Koopmans (1910-1985) war in den Niederlanden geboren. Als Ökonom lebte er in den USA und bekam 1975 den Wirtschaftsnobelpreis. 

Allgemeine Gleichgewichtsanalyse: Ermittlung von Preisen und Mengen zur gleichen Zeit auf allen relevanten Märkten, wobei rückwirkende Einflüsse einbezogen werden. Sie bildet immer noch ein Herzstück der ökonomischen Theorie. Sie geht auf Ende des 19. Jahrhunderts in Lausanne wirkenden französischen Ökonomen Leon Walras zurück. "Die mathematische Ökonomie wird dadurch den Status der mathematischen Wissenschaften Astronomie und Mechanik erreichen. Und an diesem Tag wird unsere Arbeit gebührend gewürdigt werden", Leon Walras (er präsentierte 1874 sein mathematisch formuliertes Modell der Tauschwirtschaft).

Totalanalyse: Alle relevanten Zusammenhänge werden vollständig berücksichtigt. Das Gegenteil ist eine Partialanalyse (z. B. wird nur der Gütermarkt analysiert). Hier werden Gleichgewichtspreise und -mengen auf einem Markt unabhängig von den Einflüssen anderer Märkte untersucht.

Ex-ante-Analyse: Analyse einer Transaktion aus dem Blickwinkel einer Periode, die vor der Ausführung der Transaktion liegt. Dass Gegenteil ist eine Ex-post-Analyse.

Kurzfristige Analyse der geschlossenen Volkswirtschaft: dies wird nur noch zu didaktischen Zwecken gemacht (Grundstudium), weil es zu weit von der heutigen Realität entfernt ist. Die kurzfristige Analyse der offenen Volkswirtschaft ist realitätsnäher, aber formal schwieriger.

Rationale Erwartungen: die Wirtschaftssubjekte nutzen bei der Prognose zukünftiger Entwicklungen alle verfügbaren Informationen über die Wirtschaftspolitik optimal.

Repräsentativer Agent: Analyse des Verhaltens eines einzigen Akteurs in einem Modell. Damit wird die Anwendung der Mathematik einfacher.

Hysterese-Effekt: Fortdauer einer Wirkung bei Wegfall der Ursache, also ein lang andauernder Einfluss der Vergangenheit (z. B. Entstehung struktureller Arbeitslosigkeit aus der konjunkturellen).

Random walk: Pfad einer Variablen, deren Änderungen im Zeitablauf nicht vorhersehbar sind.

Steady state: Zustand eines dynamischen Systems, in dem sich die endogenen Variablen nicht mehr ändern (häufig auch Wachstumsgleichgewicht genannt).

Risiko: Hier tun sich Modelle, vor allem mathematische, sehr schwer. Der wichtigste Grund ist: Statistiken bilden die Vergangenheit ab. Was niemals vorkam, kann nicht in Berechnungen eingehen. Die Risikomodelle der Banken unterscheiden sich stark, auch in ihrer Qualität. Als gut gelten die von Goldman Sachs und der Deutschen Bank.

Beta-Faktor: Eine Konstante misst die Empfindlichkeit einer Anlage auf Marktschwankungen. Dies ist das nichtdiversifizierbare Risiko jeder Anlage. Hier kann nicht in verschiedene Projekte investiert oder Aktien vieler Unternehmen besessen werden.

Edgeworth-Box: Diagramm, das alle möglichen Allokationen zweier Produktionsfaktoren zwischen zwei Produktionsprozessen darstellt. Es ist auch auf Güter und Konsumenten anwendbar.

Varianz: Mathematisches Maß für das Risiko (Situation mit ungewissem Ausgang). Der Erwartungswert bewertet das durchschnittliche Ergebnis einer riskanten Situation (Summe der Wahrscheinlichkeitsergebnisse mal Wert).

Ockham´s Razor (Rasiermesser, Wilhelm von Ockham, 1287-1347): Es ist nicht zulässig, Theorien aufzustellen auf der Basis von Annahmen, die weder offensichtlich noch im Einklang mit den empirischen Tatsachen sind.

Heuristiken: In der Ökonomie sind dies "Daumenregeln" oder Abkürzungen, die bei Entscheidungen verwendet werden.

Aggregationsproblem: Die aggregierten Daten der Volkswirtschaftlichen Gesamtrechnungen und die Makroökonomik unterscheiden sich oft von mikroökonomisch festgestellten Entwicklungen. Eine einfache Aufsummierung mikroökonomischer Einheiten ist nicht möglich. So stellte der Nobelpreisträger 2015 Angus Deaton z. B. fest, dass der Konsum stärker schwankte als das Einkommen, weil die Menschen auf erwartete Einkommenszuwächse mit einem überproportionalen Konsumanstieg reagieren. Werden die Daten aggregiert, gleichen sich die Unterschiede zum großen Teil aus. "Ich bin jemand, der sich mit den Armen der Welt befasst, zudem damit, wie sich Menschen verhalten und was sie glücklich macht", Angus Deaton, Träger des Wirtschaftsnobelpreises 2015.

Modelle und Daten: Modelle bilden die Realität vereinfacht ab und dienen zur Analyse vorliegender Probleme. Nicht alle, aber viele Modelle, können empirisch überprüft werden. Dazu müssen die Variablen des Modells zu Hypothesen geformt werden, operationalisiert werden und dann mit empirischer Evidenz überprüft werden. Empirische Evidenz heißt, dass man Zahlen, Fakten und Daten heranzieht, die die Hypothesen quantifizieren und statistisch messbar machen. Einfachere Zusammenhänge können durch Mittelwerte und Korrelation, kompliziertere durch Kausalität gemessen werden.

Inneres Modell: Der Modellbegriff spielt in der KI eine große Rolle. Wenn ein statistisches Modell trainiert wird, wird das Gelernte zu einer spezifischen Struktur (zum Beispiel einem neuronalen Netzwerk) festgehalten. Damit wird dei Sicht des Computers auf dei Welt festgelegt. Dieses "innere Modell" kann nur von außen untersucht werden in seinem Verhalten, aber nicht vom Computer in einer Weise beschrieben werden, die der Mensch versteht.  Katharina Zweig: Die KI war `s, München 2023, S. 281.

"Die Aussage, mathematische Modelle seien ideologiefrei, kann man bestenfalls als naiv beschreiben", Michael Hüther, Direktor IW, Köln.

Spieltheorie:

"Das Spiel ist die höchste Form der Forschung", Albert Einstein.

"Was die Leute das Schicksal nennen, sind meistens ihre eigenen dummen Streiche", Arthur Schopenhauer, Philosoph, 1788-1860.

Spieltheorie: Theorie oder  Methode zur Analyse und zum Verstehen menschlichen Verhaltens in strategischen Situationen (die eigenen Aktionen beeinflussen das Verhalten anderer und umgekehrt). Die Spieltheorie erlaubt die Analyse von Situationen mit zwei und mehr Entscheidungsträgern, die entgegen gesetzte Ziele verfolgen, und sich in einer strategischen Interaktion befinden. Strategisches Verhalten ist ein Entscheidungsverhalten, das die möglichen Reaktionen anderer mit einbezieht (für solche Situationen eignen sich Mathematik und Geometrie weniger). Berühmte Vertreter sind von Neumann/ Morgenstern, Harsanyi/ Nash/ Selten, Auman/ Schelling, Hurwicz/ Maskin/ Myerson. Reinhard Selten erhält als einziger Deutscher 2004 den Nobelpreis für Ökonomie für seinen Beitrag in der Spieltheorie. Selten, 1930 geboren, studiert in Frankfurt Mathematik. 1968 habilitiert er sich in VWL in den USA. Zuletzt war er Professor in Bonn. "Bei der Spieltheorie geht es um rationales Verhalten in sozialen Situationen", John  Harsanyi, 1020-2000, US-Ökonom. An der US-Elite-Uni MIT lernen Studenten das Pokerspiel ("Wie man zockt, wenn man muss"). Es steht in der Tradition des MIT-Black Jack Teams. Sie sollen so für die Karriere als Investmentbanker üben.

Exkurs. Grundlegende Literatur: Harsanyi, John C./ Selten, Reinhard: A General Theory of Equilibrium Selection in Games, Cambridge/ MA, London 1988. Nash, John Forbes Jr: Non-Cooperative Games, in: Annals of Mathematics, 54/2, 1951, S. 286-295. Neumann, John von/ Morgenstern, Oskar: Theory of Games and Economic Behavior, Princeton UP 1944.

Logik und Spieltheorie: In den Veranstaltungen der Bachelor - Studiengänge komme ich über logische Erwägungen in der Spieltheorie nicht hinaus. Insofern schult aber die Spieltheorie hervorragend logisches Denken. Ich behandele die Spieltheorie deshalb zusammen mit einer Einführung in die Logik (samt logische Symbole).  "Das System der Logik ist das Reich der Schatten, die Welt der einfachen Wesenheiten, von aller sinnlichen Konkretion befreit", Hegel, Logik (1832).

Gefangenen-Dilemma: Situation (Prisoner`s Dilemma), in der individuelles Rationalverhalten zu einem kollektiv abträglichen Ergebnis führt. Ausgangsposition der Spieltheorie: Zwei Gefangene entscheiden unabhängig voneinander, ob sie ein Verbrechen gestehen sollen. Wenn nur ein Gefangener gesteht, wird er eine milde Strafe erhalten, der andere dagegen eine harte. Gesteht keiner der beiden, wird die Strafe milder ausfallen als bei einem Geständnis beider Gefangener. Mittlerweile wurde das Dilemma auch an realen Gefangenen getestet. Offenbar sind Häftlinge solidarischer als andere Versuchspersonen.

Park-Version des Gefangenen-Dilemmas mit öffentlichen Gütern: Vgl. Beeker, Detlef: VWL für dummies, Weinheim 2017, S. 160ff.

Spiele: Für das Verstehen der Spieltheorie ist es hilfreich, verschiedene Spiele zu kennen. So helfen Schach (Antizipation), Doppelkopf (Psychologie, Kooperation), Poker (Bluff), Skat (verschiedene Milieus; Mischung Glück und Können), Mensch ärgere dich nicht (Glück, Verlieren), Monopoly (Wirtschaft), Würfelspiel (Wahrscheinlichkeit).

Homo ludens: Der durch das Spiel sich entwickelnde Mensch. Diese Sichtweise ist nicht neu (Schiller: "der Mensch ist nur ganz Mensch, wo er spielt"). Die Digitalisierung fördert dieses Menschenbild wieder. Dahinter steckt die Vorstellung, dass Spielen die primäre Kulturtechnik ist und es der wichtigste Grund für Gesellschaften ist (das wusste schon Niklas Luhmann:  Art der Kommunikation). Heute spricht man von einer Weltgesellschaft, die in ihrer Komplexität noch nicht ausreichend erforscht ist. Das Spielerische in der digitalen Welt kann motivieren. Man spricht auch von einem Trend zur "Gamifizierung". Vgl. Manouchehr Shamsrizi, Interview in: bdvb aktuell, Nr. 137, S. 6f.

Pay-off: Gewinn (Auszahlung), den der Spieltheorie zufolge die Teilnehmer an einem Spiel erspielen. Die komplexe Darstellung der Auszahlungen wird in einer Pay-off-Matrix dargestellt (in der Regel eine Vierfeldertabelle).

Auszahlungsfunktion (payoff function): eine Funktion, die jedem Strategieprofil einen Auszahlungsvektor zuweist. Die Auszahlungen können ordinale oder kardinale Nutzenwerte sein. Der Auszahlungsvektor enthält für jeden Spieler einen  Wert (Auszahlung, Nutzen, Profit in Euro).

Common Knowledge: Die Informationen über Spielregeln und Auszahlungen, über die die Spieler vor Beginn des Spiels verfügen. Dazu zählen auch Kenntnisse über die Informationen, die die Mitspieler haben. Vgl. Diekmann, Andreas: Spieltheorie, Hamburg 2013, S. 231.

Strategie: Aktionsplan bzw. Regel für ein Spiel. Bei einer strategischen Handlung wird einem Spieler ein Vorteil verschafft, sein Verhalten aber eingeschränkt. Bei einem Spiel treffen die Spieler strategische Entscheidungen, die die Reaktionen der Mitspieler mit einbeziehen. Spiele können nach den verschiedenen Strategien unterschieden werden: Z.B. Evolutionär stabile Strategie, gemischte Strategie, Maximin - Strategie.

Dominante Strategie (dominant startegy) Eine Strategie ist dominant, wenn sie die beste Antwort auf das Verhalten des Gegenspielers ist, unabhängig davon, welche Strategie der Gegenspieler wählt. Von dieser Strategie sind dominierte Strategien zu unterscheiden: bei dominanter Strategie eines Spielers wird er keine dominierte wählen. So werden  vielmehr dominierte Strategien iterativ eliminiert.

Nash-Gleichgewicht (1951 von dem Mathematiker John Nash, geb. 1928,  bewiesen): Dieses tritt in der Spieltheorie ein, wenn kein Spieler bei einer gegebenen Strategie der anderen Spieler seine Auszahlungsfunktion verbessern kann (oft schlechteste Situation für beide Spieler). "Das Nashgleichgewicht ist ein stabiler Zustand, der sich nicht aus sich selbst heraus zerstört", (Christian Rieck). Es ist ein nichtkooperatives Spiel, in dem die Spieler keine glaubhaften und verbindlichen Vereinbarungen treffen können (pragmatisch und am leichtesten umzusetzen: nicht kooperativ und geringster Nutzen für beide Spieler). Nash erhielt 1994 dafür den Wirtschaftsnobelpreis. Der Wissenschaftler stirbt im Mai 2015 (zusammen mit seiner Frau bei einem Taxiunfall). Er machte die Spieltheorie zu einer zentralen Analysemethode in den Wirtschaftswissenschaften. "Die Realität ist immer eine Art von Fiktion, der alle zustimmen", John Nash. Nash nutzte 1950das vereinfachte Modell eines Pokerspiels mit drei Personen: Das Gleichgewicht ist erreicht, wenn alle Spieler eine individuelle Strategie gewählt haben, welche die jeweils bestmögliche Antwort auf die Strategie des Gegenspielers ist - und umgekehrt. Der Hollywood-Film "A Beautiful Mind" zeichnet sein Leben wieder. Vgl. auch: Nasar, S. A.: A Beautiful Mind, London/ Faber 1998.

Informationen: Perfekte Information, bei denen jeder Informationsbezirk genau einen Entscheidungsknoten hat (der Spieler am Zug kennt immer den vorangehenden Zug des Mitspielers). Bei unvollständige Information hat mindestens ein Spieler keine vollständige Kenntnis über die Auszahlung. Gegenteil ist die vollständige Information (complete information).  Ein Informationsbezirk (information set) umfasst eine Menge von Knoten auf einer Entscheidungsebene. Vgl. Diekmann, Andreas: Spieltheorie, Hamburg 2013, S. 232, 233.

Wahrheit und Vertrauen: Koordination zwischen Einzelnen findet typischerweise auf Märkten durch das Aushandeln von Preisen statt. Doch sogar wo Kommunikation zwischen Beteiligten möglich ist, gibt es Fehler in der Interaktion. Die Koordination kann verbessert werden, wenn Teilnehmende an Spiel-Experimenten sich durch einen Eid zur Wahrheit verpflichten, bevor sie ins Labor gehen. Dahinter steckt die sozialpsychologische Theorie der Verpflichtung. Dieses Spiel-Experiment geht auf Robert W. Rosenthal und Reinhard Selten zurück. Vgl. Stephane Luchini: Menschen auf Märkten. können wir uns besser koordinieren, wenn wir die Wahrheit sagen? in: WZB Mitteilungen, Heft 159, März 2018, S. 38ff.

Praktische Anwendungsgebiete der Spieltheorie, insbesondere des Nashgleichgewichts (auch in Klausuren; entsprechende Aufgaben eignen sich hervorragend zur Überprüfung der Transferfähigkeit): Während des Kalten Krieges wurde die Spieltheorie militärisch verwertet (konkret etwa in der Kuba-Krise). In der Ökonomie finden sich viele Beispiele in der Wettbewerbstheorie (Markteintritt) und der Theorie der Preisbildung ("Friedhofsruhe"; ruinöser Preiskampf). Anwendungen finden sich auch in der Umweltökonomik (Begründung staatlicher Umweltpolitik; Fischerei und Wasserqualität), der Arbeitsökonomik (Tarifverhandlungen) und der Globalökonomik (Krisenlösung). Die Spieltheorie eignet sich besonders, wenn es um Fragen der Kooperation geht. Möglich ist auch die Übertragung auf den Konflikt zwischen EU und Griechenland nach dem Wahlsieg von Syriza. Die Situation entspricht dem Nash-Gleichgewicht: Keine Partei kann sich verbessern, wenn sie - als Einzige - ihre Strategie ändert (Beispiel Hasenfußrennen bei James Dean "Denn sie wissen nicht, was sie tun"). Wenn keiner ausweicht, könnten sich beide durch Strategiewechsel verbessern. Anwendbar ist die Spieltheorie auch auf die Verhandlungen zwischen EU und GB um den Brexit. So kann nachgewiesen werden, dass die EU langfristig von einer eher kompromisslosen Verhandlungsführung profitiert (Vgl. Busch/ Diermeier/ Hüther: Brexit und die Zukunft Europas - eine spieltheoretische Einordnung, in: Wirtschaftsdienst 2016/12, S. 883ff.) . Man versucht auch mit der Spieltheorie den Konflikt zwischen den USA und Nordkorea 2017 zu analysieren. "Das Spiel findet am Abgrund statt. Keiner weiß, ob nicht etwas Unvorhergesehenes passiert und in die Katastrophe führt", Benny Moldovanu, Spieltheoretiker, Uni Bonn; vgl. Handelsblatt, Mo. 09.02.2015, Nr. 27, S. 10. "Wenn die Griechen zu ihren Zusagen stehen, dann stehen die Geldgeber zu ihren Finanzzusagen. Steigt eine Seite aus, steigt auch die andere aus", Martin Schulz, EU-Parlamentspräsident.

Ein anderes Gleichgewicht ist das Bayessche. Es erhält man, wenn die Spieler ihre erwartete Auszahlung maximieren, rationale Erwartungen besitzen und die Bayessche Regel anwenden (aus der statistischen Wahrscheinlichkeitstheorie bekannt). Treffen die dominanten Strategien beider Spieler zusammen, erhält man ein dominantes Gleichgewicht. Die Baysianische Statistik hat sich in den letzten Jahren sehr stark weiterentwickelt. so gibt es eine Reihe simulationsbasierter Verfahren. Das bekannteste ist die Markov Chain Monte Carlo.

Weiterentwicklung des Nash-Gleichgewichts durch R. Selten (geb. 1930, 1994 einziger deutscher Wirtschaftsnobelpreisträger): nicht nur ein Spiel als Ganzes, sondern auch einzelne Teile erreichen ein Nash-Gleichgewicht. Vgl. Ders., Reexamination of the Perfectness Concept for Equilibrium Points in Extensive Games, in: International Journal of Game Theory, 4(1), 1975. Einer der Begründer der experimentellen Wirtschaftsforschung in Deutschland.

Teilspiel-Perfektheit: Verfeinerung des Nash-Gleichgewichts durch R. Selten (einziger deutscher Nobelpreisträger der Ökonomie). Das Gleichgewicht muss nicht nur im Spiel als Ganzem, sondern auch in all seinen Teilen bestehen. "Man weiß, was man denkt, aber man weiß nicht, warum man es denkt", Reinhard Selten.

Symmetrisches Gleichgewicht: Die Gleichgewichtsstrategien und Auszahlungen der Spieler sind identisch.

Kooperatives Spiel: Die Spieler können verbindliche Vereinbarungen treffen und sich so gegenüber Dritten oder gegenüber sich selbst glaubhaft festlegen.

Kooperation im Eigeninteresse: Die Kooperation "Wie du mir, so ich dir" ist für beide Seiten positiv (Robert Axelrod). Kooperationsstrategien können sich bei wiederholten Spielen ändern. So kann man die Entwicklung der Moral spieltheoretisch erforschen (Kenneth Binmore). Mit der Zeit kooperieren also auch Egoisten.

Einmalige simultane Spiele: Ein Spiel wird nur einmal durchgeführt, wobei die Akteure ihre Entscheidungen gleichzeitig treffen. Ein Spiel kann auch mehrfach bestritten werden, oder die Akteure treffen ihre Entscheidungen nacheinander (sequentielle Spiele).

Bei sequentiellen Spielen wird besonders der Spielbaum mit Wahrscheinlichkeiten eingesetzt (ist auch aus der Wahrscheinlichkeits-theorie bekannt). Bei der Bewertung der Alternativen spielt das Moral Hazard und das Monitoring eine wichtige Rolle. Gelöst werden sie oft durch die Methode der Backward Induction (gesucht wird die Nash-Strategie für das letzte Teilspiel).

Das Reversal Paradoxon (Umkehr-) macht deutlich, das für einen Wahlausgang entscheidend sein kann, ob eine Wahlalternative entfällt während eines Wahlprozesses. Dies gilt auch, wenn die entfallende Wahlalternative die geringste Präferenz aufweist.

Sehr wichtig ist bei Spielen die Informationsstruktur. Sind jedem Spieler alle Bestandteile des Spiels (Spielerzahl, Auszahlungen, Strategien) bekannt, herrscht vollständige (complete) Information. Konnte jeder Spieler bei jeder seiner Aktionen die bis dahin ausgeführten Aktionen der Gegner beobachten, ist die Information vollkommen (perfect).

Nach der Geschwindigkeit werden statistische und dynamische Spiele unterschieden. Beide können mit vollständiger und unvollständiger Information verbunden werden. Bei beiden können Bayessche Gleichgewichte erreicht werden.

"In einem Nullsummenspiel (zero-sum game) erhält bei jedem Ereignis ein Spieler eine Auszahlung, die der andere Spieler bezahlen muss. Damit addieren sich die Auszahlungen der Spieler immer zu null", Sieg, G.: Spieltheorie, München/ Wien 2005, S. 25.

Minimax-Regel: Sie wurde 1928 von John von Neumann formuliert: Die beste Strategie ist, bei jedem Zug den maximalen Verlust zu minimieren.

Maximin-Theorem: Der Akteur wählt jene Strategie, die ihm das (garantierte) Minimum, das ihm der Gegenspieler nicht nehmen kann, maximiert.

Commitment - Strategie (Aumann/ Schelling, Nobelpreis 2005): Alle Brücken hinter sich abbrechen, um den Verhandlungsgegner glaubhaft zu bedrohen.

Tit for Tat: eine effektive Strategie für das wiederholte Gefangenendilemma. Der Agent folgt seinem Gegner. Wenn der Gegner vorher kooperativ war, ist der Agent auch kooperativ. Wenn nicht, ist der Agent nicht kooperativ. Er kann mit kooperativen Gegnern zusammenarbeiten und unkooperative Gegner angreifen.

Mechanismus-Design (Hurwicz/ Maskin/ Myerson, Nobelpreis 2007): Zwei Kinder streiten sich um ein einziges verbliebenes Stück Kuchen. Lösung: Kind 1 teilt das Kuchenstück in zwei Teile. Anschließend wähle Kind 2 eines der beiden Kuchenteile, das andere behält Kind 1. Vgl. Hehenkamp, B.: Die Grundlagen der Mechanismus-Design-Theorie, in: Wirtschaftsdienst, 11/ 2007, S. 770.

Hochzeitsproblem (Lloyd Shapeley, Wirtschaftsnobelpreis 2012): Taucht beim Globalen Matching auf. Zwei Schemas sollen aufeinander abgebildet werden und dafür muss ein Verfahren gefunden werden. Man hat eine Liste von Männern und Frauen, wobei jeder eine Rangliste von allen Personen des anderen Geschlechts besitzt. Die Personen werden verheiratet, so dass jeder mit einem Partner verheiratet ist, der die höchstmögliche Stellung in der Rangliste hat.

Zukunftsformel: Der Spieltheoretiker Bruce Bueno de Mesquita sagt mit spieltheoretischen Formeln wirtschaftliche und politische Ereignisse voraus. In nahezu 90% der Fälle sollen seine Aussagen eintreffen.

Der Nettere und Integere siegt langfristig: In einer Welt der nicht perfekten Information gibt es eine Strategie der Disinterpretation der Signale. Diese Strategie hat zudem eine rekursive Tendenz und ist häufig mit einem Spiraleffekt verbunden. Zuletzt ist der nettere und integere Spieler am effektivsten.

Brinkmanship-Theorie: Sie beruht auf der Idee, dass ein Akteur den anderen in die Enge treibt, um ihn zu Zugeständnissen zu bewegen.

Griechenlandkrise und Spieltheorie: Der ehemalige griechische Finanzminister Varoufakis hat sich als Universitätsprofessor intensiv mit der Spieltheorie beschäftigt. Er wollte wohl auch spieltheoretisch gegen die Euroländer antreten. Allerdings scheiterte er, weil Grundregeln missachtet wurden. Strategische und psychologische Erwägungen wurden nicht zu einer guten Verhandlungsstrategie kombiniert (Selbstbindung, Delegation). Wichtigste Einsicht für die Zukunft ist, dass die Spielregeln stimmen müssen. Vgl. Ockenfels, Axel: Spieltheorie für Anfänger, in: Wirtschaftswoche 30, 17.07.15, S. 59.

US-Strafzölle und Vergeltungszölle, Handelspolitik: Die Grundstruktur entspricht dem Gefangenendilemma. Zölle bescheren dem Land A den höchsten Gewinn, wenn Land B auf Gegenzölle verzichtet. Erhebt B dagegen Zölle, sinkt der Handelsgewinn von A, und der von B steigt. Allerdings ist der Gesamtgewinn von A und B in dieser Konstellation am geringsten. Den höchsten Gesamtgewinn machen A und B, wenn sie auf Zölle verzichten. Je nach Setzen der Rahenbedingungen sind andere Konstellationen möglich.

"Die Ökonomen haben die Disziplin in eine Art soziale Mathematik verwandelt, in der analytische Schärfe alles und praktische Bedeutung nicht zählt", Mark Blaug, berühmter britischer Wirtschaftshistoriker, über weite Teile der Spieltheorie. Vgl. auch kritisch: Guala, F.:  Game Theory been Refuted?, in: Journal of Philosophy, 103/2006, S. 239-263.

Zu den Pionieren der Ökonometrie und quantitativen Wirtschaftsanalyse in den Wirtschaftswissenschaften gehört Jan Tinbergen (1903 - 1994). Er erhielt zusammen mit Ragnar Frisch den ersten neu gestifteten Nobelpreis für Ökonomie 1969. Zu seinen Hauptwerken zählt: Statistical Testing of Business Cycle Theories, 1939. Ökonometrie überprüft mit Hilfe statistischer Daten wirtschaftstheoretische Aussagen.

VI. Lernhilfe

Das dargestellte Modell eignet sich auch, um fundamentale  ökonomische Übertragungsmechanismen, die immer wieder vorkommen,  zu lernen und zu üben. Als wichtige Beispiele seien die Zinselastizität der Investitionen, "Crowding-out", Löhne und Arbeitsproduktivität, Zahlungsbilanz-Preiseffekt und der Wechselkursmechanismus genannt. So kann das Modell  durchaus auch mit der Makroökonomik einer offenen Volkswirtschaft interpretiert werden (z. B. Einfluss der Geldpolitik aus dem Ausland bei flexiblen Wechselkursen, etwa USA). In der Einbindung in die Globalisierung liegt zugleich die Schwäche aller nationalen Modelle und ein Weltmodell gibt es noch nicht. Im Hauptstudium bzw. 2. Studienabschnitt arbeite ich überwiegend mit logischen Partial - Kausalmodellen, die jeweils für bestimmte Problemstellungen konstruiert sind. Mit dem obigen Modell  kann man sich auch in die Grundzüge der Spieltheorie einarbeiten. Transfereffekte ergeben sich auch mit der Statistik: Korrelation und Regression sowie Pfadanalyse, zeitabhängige Daten (Prognosetechniken), Fehlermöglichkeiten und Grenzen statistischer Untersuchungen können beispielhaft behandelt werden. Die Übungstheoreme und das empirische Datenraster weiter unten sollten in enger Beziehung gesehen werden: sie bieten eine weitere Vertiefung in einer anderen Logik als die bekannten Lehrbücher (mit den mir zur Verfügung stehenden Ressourcen kann ich das Buch von Mankiw z. B. nicht mehr optimieren, obwohl die Umwelt hier explizit fehlt). Die ganzen hier angebotenen Bausteine sollten als Ergänzung zu Büchern und der Vorlesung genutzt werden.

Die Finanz- und Weltwirtschaftskrise, die von Ökonomen nicht vorhergesagt wurde, zeigt, dass die Modelle und Theorien der Volkswirtschaftslehre grundlegend überarbeitet werden müssen. Nicht ökonomische Motive und psychologische Faktoren (Emotionen) müssen in die Modelle eingebaut werden. Wichtige bisherige Theoriestränge sind unhaltbar.

"Alle Modelle sind falsch. Aber manche sind nützlich", N. N.

 

Experto credite!  P. V. MaroAktuellen Daten sollte man systematisch hinterher eilen (vgl. Internationale Wirtschaft bei Aktuelles)

"Die Ökonomie ist wie ein gigantischer Computer, der die numerische Lösung einer großen Anzahl von Preisgleichungen durch schrittweisen Vergleich errechnet", Wassily Leontief  (Konstrukteur der Input-Output-Analyse, Input-output economics, New York 1986).

"Gerade in wirtschaftlich schwierigen Zeiten sind einigermaßen valide Zahlen unverzichtbar. Allerdings wird die Wirtschaft immer schnelllebiger. Neue Informationen können mittlerweile schnell die Gemengelage verändern", Christoph Schmidt, Vorsitzender des Sachverständigenrats für Wirtschaft, 2019.

Empirisches Lern-Datenraster (Indikatoren, relevante aktuelle Daten, Informationen mit empirischen Quellen), Data collection, (vgl. als Muster Ostasien, Ökonometrie = Einsatz der Statistik in der Ökonomie und ihre Analyse; viele rein betriebswirtschaftliche Daten finden sich auf der Seite Uebung/ Empirische Erhebungen):

Gliederung: Magisches Viereck, Parameter der Finanzmärkte, Schlüsseldaten, Grundtendenzen in der Welt, institutionelle Rahmenbedingungen, empirische Wirtschaftsforschung (mit Prognose), Messung von Wohlstand, Messung von Verschuldung und Haushaltstransparenz, Messung der Verteilung, Messung von Wettbewerbsfähigkeit, Messung der Digitalisierung Messung der Freiheit einer Wirtschaftsordnung. Messung der Nachhaltigkeit. Wichtige Indikatoren im (Extra-) Ausland, Spezielle Indikatoren für China und Japan.

"Jeder hat das Recht auf eine eigene Meinung, aber nicht auf eigene Fakten", US-Senator P. Moynihan (1927-2003).

- So sollte man mindestens die Daten zum magischen Viereck (makroökonomische Grundzahlen, Wirtschaftskraft messen) der Wirtschaftspolitik für die wichtigsten Länder der Weltwirtschaft parat haben: Wachstumsrate des Bruttoinlandsproduktes (BIP/ Gross domestic product, es ist der Gradmesser für den Erfolg und das Wachstum einer Volkswirtschaft. Die Wachstumsrate des Bruttoinlandsproduktes betrug 2010 in Deutschland 3,6% (höchster Wert seit deutscher Einheit). Für 2011 werden wieder 2,8% erwartet. Im Juni 2011 schrauben mehrere Institute ihre Erwartungen auf 3,7% hoch (im dritten Quartal 2011 +0,5%). Größte Komponente ist der private Konsum mit 58%, die Investitionen umfassen 18%. Der Außenbeitrag liegt bei rund 5%, die Ausgaben des Staates liegen bei 19,5%. Tatsächlich betrug die Wachstumsrate 2011 3,0%. Im letzten Quartal 2012 fällt Europa in die Rezession (Euroraum -0,6% gegenüber dem Vorquartal, auch D; noch stärker im Minus Italien und Portugal). Die Prognose für 2014 liegt bei 1,2 bis 1,5%. Absolut war das BIP 2012 2,6666 Billionen € hoch. Ermittelt wird der Wert (aktuelle Marktpreise, real: Inflationseffekte herausgerechnet) aller Waren und Dienstleistungen, die innerhalb eines Jahres im Inland hergestellt werden. Die Vorleistungen werden von den Endprodukten abgezogen. Unbezahlte Heimarbeit und Schwarzarbeit finden keinen Eingang. Früher wurde Computersoftware als Vorleistung, heute als Investitionsgüter betrachtet. Die Wachstumsraten des BIP werden international nicht einheitlich berechnet, z. B. rechnen die US-Statistiker die Zuwachsraten auf das Jahr hoch (annualisieren). Unterschiede gibt es auch in der Saisonbereinigung. Ende 2010 schlagen die Wirtschaftsweisen in Deutschland und Frankreich neue BIP-Indikatoren vor. Bei der Berechnung sind zwei Methoden am wichtigsten: Die Entstehung und die Verwendung. Die US-Statistiker haben auch einige Tricks auf Lager: Einrechnung des technischen Fortschritts, quadratische Gewichtung in der Inflation, mehr Buchung bei Investitionen (Erhöhung durch Abschreibungen), keine Qualitätsbereinigung bei Bildung, Bankdienstleistungen nicht als Vorleistung sondern Endprodukt. Das Konzept der USA wurde von Simon Kuznets 1937 entwickelt.1942 wurde es in die Praxis umgesetzt (Galbraith berechnete die erste Zahl für Deutschland). Beim Haushaltsstreit 2013 werden die volkswirtschaftlichen Akteure ausgebremst. Die US-Notenbank und die Ministerien können keine Daten mehr erheben. Kreativ gehen auch chinesische Statistiker an die Wachstumsrate. Die Provinzen schönen wie in Zeiten der Planwirtschaft, der Dienstleistungssektor wird unzureichend erfasst. Wahrscheinlich ist die offizielle Wachstumsrate einige Prozentpunkte zu hoch. Berechnet wird vom Bureau of Economic Analysis. 2013 werden einige Methoden geändert: Forschung und Entwicklung nicht mehr als Vorleistung, sondern als Investition betrachtet.  Deutschland ist mit ca. 2489,4 Mrd. € 2008 die drittgrößte Volkswirtschaft der Welt. Davon waren die Konsumausgaben mit 1,4 Bill. € der größte Batzen. Beim Pro-Kopf-Einkommen, einem internationalen Maßstab für Wohlstand, ist Deutschland auf Platz 19 unter 30 OECD-Staaten zurückgefallen. Der Umfang der Schattenwirtschaft liegt bei ca. 350 Mrd. €. Nach der Entstehungsrechnung hatte bei der Wirtschaftsleistung 2010 das stärkste Wachstum das Produzierendes Gewerbe mit 10,3%.  Das Bruttonationaleinkommen (bis 1999 Bruttosozialprodukt) wird im Rahmen der Verwendungs- und Verteilungsrechnung der VGR des StBA ermittelt und dient als Maßstab für den Wohlstand eines Landes. Über die Einkommensströme an die übrige Welt und von der übrigen Welt ist auch eine Berechnung vom Bruttoinlandsprodukt aus möglich (der Unterschied Brutto - Netto beruht auf den Abschreibungen; der Unterschied Marktpreis - Faktorkosten ergibt sich aus den addierten Subventionen minus den indirekten Steuern).  Genauer ist der Net Economic Welfare (-externe Kosten, + private Dienste). Frankreich will zukünftig die Umweltverschmutzung und den Bildungsstand einbeziehen. Das Frankfurter Zentrum für gesellschaftlichen Fortschritt hat einen alternativen Maßstab für Fortschritt entwickelt. Vgl. zur Kritik auch: Schlaudt, Oliver: Die politischen Zahlen. Über Quantifizierung im Neoliberalismus, Klostermannverlag 2018. Die Schattenwirtschaft (inoffizielle, verborgene Untergrundwirtschaft; illegal oder um Steuern zu vermeiden) wird gesondert von einigen Wirtschaftswissenschaftlern geschätzt. Dazu gehören Nachbarschaftshilfe, Schwarzarbeit, Steuerhinterziehung, Arbeiten ohne Rechnung und  Einkommen aus illegalen Geschäften (Prostitution, Rauschgifthandel). In Deutschland lag der Umfang der Schattenwirtschaft 2010 bei ca. 14,6% (353 Mrd. €) des offiziellen BIP (in Europa ist Griechenland mit 25% Spitzenreiter). 2011 lag der Gesamtumsatz der Schattenwirtschaft darunter mit 343 Mrd. € (13,4%). Grund ist die steigende Beschäftigung (Institut für angewandte Wirtschaftsforschung, Tübingen, IAW). 2013 sinkt die Schattenwirtschaft auf 13,2% des BIP (340 Mrd. €).   Arbeitslosenquote (ALQ/ Unemployment rate: Gliederungszahl mit gemeldeten Arbeitslosen im Zähler und Erwerbspersonen, d. h. Arbeitslose + Erwerbstätige, im Nenner). Zusätzlich werden als Indikatoren für Vollbeschäftigung verwendet die Zahl der offenen Stellen (ungenau, da kostenlose Meldung) und die natürliche Arbeitslosenquote (Höhe der friktionellen AL). Preissteigerungsrate, Handelsbilanz (Exporte, Importe)  für die USA, Japan, und Deutschland (je nach Problembereich auch  für die G9-Länder) sollten bekannt sein. Die Preissteigerung wird mit dem Preisindex für die Lebenshaltung gemessen. Dabei handelt es sich um die Kosten eines festen Warenkorbs (Ergebnis der Verbrauchsstichprobe, EVS) im Vergleich zu den Kosten desselben Warenkorbs in einem Basisjahr (Basisjahr der Vergangenheit, Laspeyres-Index). International nicht einheitlich werden Qualitätsveränderungen bei der Preissteigerung berücksichtigt. Die USA rechnen diese relativ stark ein, so dass bei Qualitätssteigerung, z. B. Rechenleistung eines PC, das Produkt de facto billiger wird (so genannte hedonische Preisindizes). Wegen der hohen Schwankungen der Nahrungs- und Energiepreise werden diese bei der Berechnung der so genannten Kerninflationsrate nicht berücksichtigt. Der Vermögenspreisindex wird vom Finanzdienstleister Flossbach und Storch ermittelt. Er ermittelt die Preisentwicklung von Vermögensgütern deutscher Privathaushalte. Die Gewichtung der Vermögensteile stammt von der Bundesbank. Das größte Gewicht haben Immobilien. Es folgt das Betriebsvermögen.  "Die deutsche Wachstumsrate von 2,2% im zweiten Quartal wäre nach amerikanischer Lesart - also annualisiert beziehungsweise für das Gesamtjahr einfach mit vier multipliziert - rund 9 Prozent", Axel Weber, Präsident der Bundesbank im Herbst 2010.

"Wer unsere Gesellschaften mit Hilfe des BIP lenkt, agiert wie ein Pilot ohne Kompass", J. Stiglitz und A. Sen, Nobelpreisträger. Joseph Stiglitz wurde 1943 geboren. Er wurde bekannt durch Arbeiten zur Informationsökonomik. Er war Wirtschaftsberater von Bill Clinton und danach Chefökonom der Weltbank. Sen erhielt 1998 den Nobelpreis.

Börse Kopenhagen,  vom Wasser aus fotografiert 2018. Die Börse wurde 1624 von König Christian IV. eingerichtet. Ursprünglich war sie auch für Schweden und Norwegen zuständig.  Die Länder arbeiteten im Finanzbereich zusammen. Die schwedische Notenbank ist die älteste Notenbank der Welt (auch ungefähr zu der Zeit gegründet; Schwedische Riksbank). Die zweitälteste Notenbank, die Bank von England, wurde erst 1694 gegründet als Privatbank für Wilhelm III., damit er Kriege gegen Ludwigs XIV. führen konnte. 1998 bildeten Dänemark und Schweden wieder mit der NOREX einen gemeinsamen Index. Bis ins 19. Jahrhundert war die Börse Warenbörse. Bis 1974 dann Aktienbörse. Die Aktienbörse Kopenhagen hatte 2020 die dynamischste Entwicklung. Das hängt natürlich mit den dort vertretenen Unternehmen in der Corona-Krise zusammen.

Ebenso sollte man die wichtigsten Parameter der Finanzmärkte  verfolgen: Wechselkurs €/$, Leitzins in der EU (für Hauptrefinanzierungsgeschäfte) und in den USA ("federal funds rate"), Aktienkurse "Dow Jones" (NYSE) und  "DAX"  (für OAI noch "Nikkei" und "Hang Seng" sowie mittlerweile Shanghai-Index mit Shenzhen, die Anfänge gehen auf das Ende der Qing-Dynastie im Jahre 1890 zurück). Als weltweit erste Aktiengesellschaft gilt der schwedische Forst- und Papierkonzern Stora, der schon 1288 Aktien ausgibt. Momentan ist der Bovespa (Brasilien) wegen seiner Wertentwicklung besonders interessant. Er liegt Ende Oktober 2018 bei 85720 Punkten (relativ hoch). 2022 hat er bis Ende September 2022 schon +32% gewonnen. Der Dow Jones, der US-Akteinindex, vereint die Aktienkurse von 30 Konzernen. Firmen aus der IT - Branche stehen für 22% seies Wertes. Dow Jones: 2008 war ein Jahr der Verluste: am größten in Island und der Ukraine. Gewinne gab es nur in Ghana, Ecuador und Tunesien.  In New York war das schlechteste Börsenjahr seit 1931 (Rückgang des Dow Jones um 777,68 Punkte an einem Handelstag, Rekord, am 05.03.2013 erreicht er ein Allzeithoch mit über 14.200, später sogar über 14.500 und über 15.000 im Mai 13). Einbrüche gibt es im August 2015 wegen der schlechten Konjunkturlage in China (am 24.08.15 wieder -3,6%; danach wieder nach oben). Weitere Einbrüche erfolgen zu Beginn des Jahres 2016 (wieder sind die Volatilitäten in China die Auslöser). Die Kurse von Internet-Firmen sind im Februar 2016 besonders vom Einbruch betroffen. Platzt eine Tech-Aktien-Blase? Nach dem Brexit am 23.06.16 fällt auch der Dow Jones zunächst (steigt dann aber um 0,02%). Deutlich bricht der Index nach dem Wahlsieg von Trump ein. In der Folge erreicht er aber dann ein Rekordhoch (über 20.000). Am 05.02.18 bricht der Index massiv um 4,6% ein (-1600 Zähler; Flash Crash: höchster Einbruch seit Bestehen des Index, "Wer höher fliegt, fällt auch tiefer"). Grund dürfte die Sorge um die schneller als vermutet verlaufende Zinswende sein, aber auch eine Überhitzung (Inflationsangst). Manche vermuten eine Manipulation durch Algorithmen von Händlern (Finra untersucht). Nach über hundert Jahren fliegt 2018 GE aus dem US-Leitindex. Microsoft, Apple und Alphabet sind die wertvollsten Unternehmen 2018. Der Dow Jones verliert 2018 -5,6%. Ende 2019 und 2020 steht es über 28.000 (28.823 Mitte Januar 2020). In Folge von Corona sinkt der Dow Jones dramatisch. Am 09.03. ist der Einbruch mit über 8% am stärksten, er bricht weiter am 16.3. ein und in der Folge. Am 24.3. kommt es zum höchsten Jahresgewinn (+10%, Hilfspaket). Er sinkt wieder stark nach der Corona-Infektion von Trump Anfang Oktober 2020. 2021 nimmt die Nervosität an den Börsen zu: Inflationssorgen, überbewertete Aktien und Kredit finanzierte Wertpapierkäufe. Der größte Börsencrash in der Geschichte war am 19. Oktober 1987 um -22,6% auf 1739 Zähler. Seit diesem Tag bis Ende Oktober 2021 hat der Index um 2000 Prozent zugelegt. Durch den Ukraine-Krieg bricht der Index ein wie alle anderen auf der Welt auch. 2022 hat der Dow Jones Index nur -2% eingebüßt. Im März 2024 steht der Index bei 39.005.    Es gibt auch einen MSCI-Welt-Aktienindex.  Der Wechselkurs bzw. Devisenkurs setzt 1 € in Relation zu x$. Der Leitzins wird von der Zentralbank festgelegt und bestimmt die Konditionen, zu denen sich Banken kurzfristig Geld bei der Notenbank leihen können. Insofern achten institutionelle Investoren sehr auf diesen Index. Der MSCI World ist sehr populär. Man muss aber wissen, dass dahinter der gleichnamige US-Finanzkonzern MSCI steht. Der ist Grundlage vieler Index- und Aktienfonds. Mit rund 1500 Aktien (genau 1479) im Depot täuscht der Indexanbieter eine weltweite Streuung vor. Doch 65% stecken in US-Aktien (16% in Apple, Microsoft, Amazon, Alphabet, Tesla, Meta). Fünf Prozent sind in Apple, was mit zu dem hohen Aktienwert beiträgt. 3/24 liegt der Index bei 3.367. Weitere Welt-Indizes sind: FTSE All-World, MSCI All Countries. Alle Aktienindizes eignen sich nur recht begrenzt als Wirtschaftsindikatoren. Zusätzlich gibt es einen Dow Jones Sustainability Index World (DJSI World). Es sind die 250 nachhaltigsten Unternehmen der Welt (dazu sollen auch Nestle, Johnson&Johnson und Microsoft gehören?). Der Dow-Jones Stammindex schloss 1906 mit 100 Punkten, 1956 mit 500 und war 2006 erstmals über 12.000 Punkte. Im März 2013 geht er sogar erstmals über 14.300 und später über 15.000. Sein Ursprung kann bis zum 17. Mai 1792 zurückverfolgt werden, als das Buttonwood-Abkommen von 24 Börsenmaklern vor dem Haus Wallstreet 68 in NY unterzeichnet wurde. Ursprünglich diente er dazu, die Effizienz des industriellen Sektors in Amerika zu überwachen. Nach dem chaotischen Absturz 2010 ohne erkennbaren Grund werden Regeln gegen Panikreaktionen aufgestellt (Handelsstopp). 70% des täglichen Aktienhandels in den USA gehen auf High-Frequency-Trader zurück. Am 8. Februar 1971 wurde in New York die erste elektronische Börse der Welt gegründet, die NASDAQ (National Association of Securities Dealers Automated Quotation System). Sie ist die größte amerikanische Börse mit über 3200 Firmen. Sie hat die Handelssysteme OTC und Curb Exchange ersetzt. Der Nasdaq 100 enthält die 100 größten Unternehmen. Der Nasda Composite enthält über 3000 Aktiengesellschaften. Im September 2020 kommt es zu einem Einbruch an der Nasdaq. Die Tech-Giganten verlieren. Experten sprechen von einer Milchmädchen- oder Taxifahrer-Hausse. Konsumenten haben gekauft, was sie konsumieren (Apple, Tesla, Spotify).  Jetzt geht Luft raus. Mitte 2022 bricht der Nasdaq ein: -33% . Gründe: Inflation und Zinsanstieg. 2022 hat der Nasdaq -29% verloren. Die Toronto Stock Exchange (TSE) in Kanada gehört der TMX Group. Außerdem gibt es in Kanada noch den S&P TSX.  Der Volatilitäsindex Vix misst die Kursschwankungen des US-Börsenindex S&P 500. Er gilt als Angstbarometer der Aktienmärkte insgesamt. Eine Manipulation des Vix könnte den Februar-Absturz 2018 ausgelöst haben.

 Der DAX setzt sich aus Deutschlands 30 größten und liquidesten börsennotierten Firmen zusammen (Basiswert 1000 1987, umfasst auch Dividenden; Berechnung der Börsenzeitung fortgesetzt). Der Dax-Kursindex kann auch ohne Dividenden berechnet werden und ist so eher mit anderen Indices vergleichbar. 425 Jahre ist Frankfurts Börse alt. Schon 1605 entwickelten Kaufleute Wechselkurse für Währungen (1150 wurde erstmals die Messe Frankfurt erwähnt).  Im Mai 2011 wird der Parketthandel eingestellt. Das Xetra-System bringt es auf mehr als fünf Mrd. Euro. Im September 2018 ordnet die Deutsche Börse den Aktienindex neu: Commerzbank fliegt aus dem DAX (der Hochfinanz nicht gewachsen). Dann folgt ThyssenKrupp (Missmanagement, Dumping aus China). Im Juni 2020 muss die Lufthansa raus (in der Pandemie zu wenig Cash), dafür kommt die Deutsche Wohnen rein. Es ist der zweite Immobilienkonzern nach Vonovia. Im DAX gibt es 2020 noch keine weibliche CEO, auch keinen digitalen Newcomer. Der M-Dax bekommt zehn Werte mehr als bisher. Der Tec-Dax wird neu zusammengesetzt. auch die Regeln für den DAX sollen reformiert werden. Auslöser ist der Wirecard -Skandal. Dei Zusammensetzung soll aktionärsfreundlicher und zukunftsträchtiger werden (auch gesünder und innovativer). Dann  müssten aber 15 Unternehmen ersetzt werden. Es soll eine DAX-Erweiterung um 10 Firmen geben. Es soll auch neue Qualitätskriterien geben. Der Rauswurf soll schneller möglich sein. Das Beratergremium soll eine größere Bedeutung bekommen. Ab September 2021 wird der Kreis auf 40 Unternehmen erweitert. Verzögerungen in der Finanzberichterstattung werden härter bestraft. Die zehn neuen DAX-Konzerne sind zu Beginn: Airbus, Zalando, Siemens Healthineers, Symrise, Hello Fresh, Sartorius, Porsche Automobil Holding, Brenntag, Puma, Qiagen. Hinzu kommen später Daimler Truck und Hannover Rück. Die wichtigsten Investoren im DAX haben ihren Sitz im Ausland (Blackrock/USA/ 10%, Vanguard/USA/5,7%, Amund/Lyxor/ Frankreich, Norges Bank/ Norwegen). Der DAX ist mehrheitlich in der Hand von Ausländern. Größter deutscher Investor ist die Deutsche Bank/ 3,1%.  In den USA sind Anleger vorsichtig und sichern sich gegen fallende Kurse ab. Das ist im deutschen Markt anders (Sicherheitsnetz fehlt). Deswegen ist hierzulande das Risiko höher. Nach dem Rekordwert 2022 sank 2023 die Anzahl der Aktionäre in Deutschland wieder: 12,32 Mio. Menschen (gegenüber 2022  12,89 Mio.). Die DAX-Konzerne haben sich von der deutschen Konjunktur emanzipiert. Dei meisten machen den Großteil ihres Umsatzes im Ausland und hängen vor allem an der Wirtschaft in den USA und China.  Im Februar 2013 erreicht der DAX mit über 8000 ein Fünfjahreshoch (am 14.03. sogar drüber geschlossen). Am 07.05.13 wird ein 25 Jahreshoch erreicht (8200, später über 8500; im Oktober 13 mit über 9000 Rekordwert; dann auf über 9500). Die Krim-Krise und schlechten Daten aus den USA treiben ihn im März 2014 unter 9000. Nach der Europa- und Ukraine-Wahl 2014 wird mit über 9800 ein Allzeit - Hoch erreicht, das nach der Leitzinssenkung auf 0,15% über 10.000 geht. Die Verschärfung einiger Krisen in der Welt und Konjunktureinbrüche treiben den Dax wieder unter 9000 im August 14 und Oktober 14. Nach der Aufgabe der Kursbeschränkung für den Schweizer Franken und der Ankündigung von Anleihekäufen der EZB steigt er wieder weit über 10.000 (neues Verlaufshoch 10.810 am 27.01.15; dann Allzeit - Hoch über 11.000 am 13.02.15 und weiter über 12.000 am 16.03.15). Im April 2017 nach der Frankreichwahl wird wieder ein neues Rekordhoch erreicht mit 12.455. 2014 hat die Ausschüttung an Anteilseigner (Dividende) mit 41,7 Mrd. € einen neuen Rekordwert erreicht. Am 29.06. vor der drohenden Staatspleite Griechenlands erfolgt ein Absturz um fast 500 Punkte (auch die anderen europäischen Börsen FTSE  in London, Ibex in Madrid, CAC in Paris geben nach). Ein weiterer großer Einbruch erfolgt am 24.08.15 nach dem Kurssturz in China (vorübergehend unter 10.000 Punkte). Im September 2015 kommt erstmals eine Immobilienfirma in den Leitindex (Vonovia, ehemals Deutsche Annington). Die Manipulation bei den Abgaswerten von VW drückt den DAX Ende September 2015 insgesamt nach unten (Automobilaktien). Zu Beginn von 2016 sinkt er unter 10.000 durch die Volatilitäten in China. Am 08.02.16 fällt der DAX unter 9000 (-16% seit Jahresbeginn; schlechte Weltkonjunktur; später runter auf 8700, Bankwerte, Anleger fliehen).  Durch den Brexit am 23.06.16 kommt es zwar zu einem Minus des DAX, das aber sehr moderat ausfällt (-0,7%). Ebenso gibt es zunächst ein Minus nach dem Wahlsieg von Trump. Nach dem Beibehalten der Geldpolitik der EZB Ende 2016 erreicht der DAX mit über 11.000 Punkten ein neues Jahreshoch. Am 2. Juni  2017 kommt der DAX auf 12878. Am 12.10.17 überschreitet der DAX kurz die 13.000 Marke; am 16.10.17 schließt er erstmals über 13.000. Im Jahre 2017 ist der DAX um 12,5% gestiegen. Am 05.02.18 bricht der Index um 2,3% ein, sinkt aber nicht unter 12.000. Er folgt dem Dow Jones. Ende 2018 haben die DAX-Konzerne eine Euro-Blase: Einige haben sich bei Übernahmen übernommen. Die Quittung kommt, wenn sich die Konjunktur abschwächt. Im Dezember 2018 bricht der Dax um 3,5% ein nach der Verhaftung der Huawei Finanz-Chefin  (unter 11.000, Zweijahrestief). 2018 war kein gutes Börsenjahr: der DAX sank um über 18%. Nur noch zwei deutsche Konzerne sind unter den Top 100: SAP und Siemens. Ende 2019 und Anfang 2020 ist der DAX über 13.000 und hält sich da. Am 21.01.20 erreicht der DAX ein neues Rekordhoch: 13.615 (Konjunkturoptimismus, Billiggeld der Zentralbanken, Entspannung Nahost). Trumps Drohung in Davos mit Zöllen gegen die EU lässt ihn wieder nach unten gehen. Ein Schock löst das Corona-Virus (Covid-19) aus: Der DAX sinkt zwischen 20.02. und 25.02.20 um 7,4%. Noch schlimmer trifft es den FTSE MIB, den italienischen Leitindex: -9,2%. Am 09.03. kommt es wegen Corona zu einer Börsenpanik weltweit: Der Dax sinkt um 8% (noch über dem Stand von Ende 2018). Am 16.03.20 fällt er sogar unter 9000. Bis zum 17.3.20 ist der DAX 2020 um 33% gefallen. Am 18.3. kommt es zu einer Wende. Am 23.3. kommt es erneut zur Talfahrt. Am 24.3. klettert er wieder nach oben (10%, Hilfspaket). In der Folge steigt er wieder über 13.000 (Rekordhoch 2020 17.2.20: 13.795). Am 28.12.20 erreicht der DAX ein neues Rekordhoch (13.819; Gründe: Brexit-Abkommen, Trumps Ja zum US-Konjunkturpaket). Der DAX schließt das Jahr 2020 mit einem Plus von 3,5% ab. Am 07.01.21 knackt der Index die historische Marke von 14.000 (13.000 vor drei Jahren). Nullzinsen und niedrige Kurse haben im Jahre 2020 Millionen Junge an die Börse gelockt. Am 30.3.21 überschreitet der Dax die historische Marke von 15.000. Am 18.05.21 erreicht er mit 15502 ein neues Allzeithoch. Wegen der Corona-Sorge (4. Welle?, Delta) verbucht er am 18.7.21ein Rekordeinbruch für 21 um 2,62%. Am 13.8.21 überschreitet der Index erstmals 16.000 Punkte. Am 20.9.21 wird der DAX erstmals mit 40 Mitgliedern berechnet. Prompt erlebt er den schwächsten Handelstag des Jahres. Rekordverlierer war der alte Bekannte Deutsche Bank mit über -7%. Am 04.11.21 steigt der Leitindex auf den Rekordwert von 16.065. Am 26.11.21 bricht der DAX ein (Corona und Variante aus Süd-Afrika). Andere Börsen in Europa und der Welt folgen dem Trend. Ende Januar 22 beschleunigt sich der DAX-Ausverkauf (unter 15.000, Sorgen um Ukraine, Zinsängste). Die Kriegsangst um die Ukraine treibt den DAX immer wieder nach unten. Beim Einmarsch Russlands  in die Ostukraine sinkt er um 2% unter 15.000. Er entwickelt sich weiter nach unten Richtung 14.000 und 13.000 bei einzelnen Erholungsphasen. Dann bleibt er länger über 14.000 (fallende Rendite der Staatsanleihen). Im Juni 2022 bricht er um -19% ein, Zinserhöhung. Er geht unter 13.000. Die 40 Konzerne im Dax sind aber auf Rekordkurs (Nettogewinn), weil viele vom schwachen Euro profitieren. 2022 hat der DAX 40 -15% verloren. Die Commerzbank hat 2023 Chancen auf die Linde-Nachfolge und schafft es. 120 Mrd. € haben die DAX-Konzerne 2022 zusammen an Gewinn erwirtschaftet (Schätzung). Im März 2023 kommt Rheinmetall in den DAX. Das Unternehmen macht einen Kurssprung nach oben. Am 21.5.23 erreicht der DAX ein neues Allzeithoch: 16.331 Punkte. Am 31.7.23 kommt das nächste Hoch: Erstmals geht der DAX über 16.500 Punkte. Am 06.12.23 werden sogar 16.533 erreicht. Kurz darauf am 8.12.23 ist das Rekordhoch bei 16.763. Manche Experten rechnen für Ende 24 mit 18.000. Am 16.2.24 gibt es vorübergehend ein neues Hoch trotz Konjunktursorgen. Schon am 13.3.24 geht der DAX erstmals über 18.000 Punkte (18.001,42). Dafür gibt es zwei Gründe:  Hiesige Konzerne verdienen ihr Geld im Ausland. Die Technologiewerte Infineon und SAP machen 15% des Wertes aus (KI).  Interessant ist in Deutschland auch der NAI (Naturaktienindex; 30 Unternehmen; aber seltsame Zusammenstellung). Ebenfalls für ökologische Geldanlagen gibt es den ÖkoDAX (seit 2007; nur erneuerbare Energien; keine Gewichtung). Sehr aussagefähig ist in Deutschland mittlerweile auch der MDax. Hier sind viele mittelgroße, exportstarke Firmen (50 Unternehmen, 62% der Umsätze im Ausland) vertreten, die gleichzeitig Weltmarktführer sind. Seit Mitte 2012 bis April 2013 ist er um 17 Prozent gewachsen. Der kleine DAX-Bruder SDax ist auch interessant (eingerichtet 1999). Viele Nebenwerte entwickeln sich besser als bei den DAX - Unternehmen. Man braucht allerdings einen längeren Atem. Der TecDAX ist der Nachfolger des Neuen-Markt-Index (NEMAX 50). Hierin sind 30 Technologie-Unternehmen. Die Deutsche Börse will ab 2018 ihre Index-Welt unterhalb des DAX umbauen. Es gibt auch noch spezielle Börsen-Indices. Einer davon ist der Gebert-Börsenindikator. Er baut auf vier Kennzahlen auf (Zinsen, Dollar, Inflation, Saisonalität). Weiterer deutschsprachiger Raum: Die Schweizer Indizes SMI (Swiss Market Index) und SLI (Swiss Leader Index). Der SMI bildet die Kursentwicklung der 20 größten Schweizer Unternehmen ab (reiner Kursindex ohne Dividenden). Allerdings werden Nestle, Novartis und Roche zu stark gewichtet. Insofern ist der SLI aussagefähiger (seit 2007; 20 große, 10 mittelgroße Unternehmen; geringere Gewichtung der drei großen). Der österreichische Leitindex heißt ATX (Austrian Traded Index). Hier sind 20 Unternehmen eingerechnet. Im CECE Composite Index in EUR sind die Leitindizes von drei osteuropäischen Ländern zusammengefasst: Der ungarische HTX, der tschechische CTX und der polnische PTX. Ein besonders erfolgreicher Aktienmarkt ist die Börse Warschau GPW (sie startete 1991). Sie gilt als Geheimtipp, weil sie eine Erfolgsstory ist. Großbritannien hat den FTSE 100. Frankreich hat den CAC 40. 2021 ist ein Rekordjahr an der Börse, weil die Wirtschaft floriert. Der Leitindex der Börse Kopenhagen OMX hat 2020 alle anderen abgehängt. Das liegt an den Schwergewichten der Börse (Pandora, Genmab, Ambu). In Griechenland ist der Athex Copmposite. Man muss dort starke Schwankungen aushalten können. 2021 gibt e sgute Bewertungen und Perspektiven.  Weiterhin gibt es Branchenindizes des Stoxx Europe 600. Es handelt sich um reine Kursindizes. Für die ganze Europäische Union gibt es Euronext: Euronext hat Zentralen in Amsterdam, Brüssel, Lissabon, London, Dublin, Oslo  und Paris. Im Oktober 2020 kauft sie die Borsa Italiana in Mailand (vorher bei London Stock Exchange). Weiterhin gibt es den E-Stoxx 50. In ihm sind die 50 größten, börsennotierten Unternehmen des Euro-Währungsgebietes enthalten.  Interessant ist auch das Angstbarometer VDAX. Es misst Kursturbulenzen beim DAX. Im Februar 2018 wurden 40% erreicht, den höchsten Stand seit 2011 (das wäre umgerechnet ein erwarteter Rückung um 1400 Punkte). Der VDAX ist besser gegen Manipulationen abgesichert als der Vix in den USA. Klima-Aktienindex: Aufgestellt von Fintechs right, Frankfurt. 260 der 600 größten börsennotierten Unternehmen Europas schaffen es hinein. Mit dem Brexit verliert GB den Zugang zum EU-Binnenmarkt. Viele Banken haben Filialen in Amsterdam, Paris oder Frankfurt gegründet. Im Februar 2021 übertrifft die Börse Amsterdam schon London im Volumen: Terminbörse Choe Europe Aktien.

Der Hang Seng Index (H-Index) hat seinen Namen von Hongkongs Hang Seng Bank, die den Index 1969 ins Leben rief (chinesisch, "stets wachsend"). Der Hang-Seng hatte 2017 einen Rekordzuwachs (wie seit 2007 nicht mehr, +36%). Er bricht in der Corona-Krise 2020 stark ein. Dann noch mal am 22.05.20 (Sicherheitsgesetz für Hongkong im Volkskongress). 2021 verliert der Index -15%. Grund sind die Regulierungsmaßnahmen der Regierung2022 geht es in den Keller durch den Ukraine-Krieg. Hongkong droht auch an Bedeutung zu verlieren. Die Börsenkurse sinken und die Expats flüchten in Scharen. Es setzt im März 22 ein Kurssturz bei den China-Aktien ein: Ukrainekrieg und Corona (Lockdown: z. B. Shenzhen). Mittlerweile ist auch der CSI-300 in Shanghai (zusammen mit dem Component Index in Shenzhen) etabliert. Ein Index für die Börse in Tianjin wird noch eingerichtet.  2014 legt er um 50% zu (nach dem Verbot bestimmter Finanzprodukte sackt er am 17.01.15 um 7% ab). In der Folge fällt er sehr stark (bis zu 8%; Blase platzt; Regierung nimmt Unternehmen aus dem Index). Weiterer Einbruch am 21.08.2015 um 8,5% (Sechsjahrestief; am 24.08. auch andere Weltbörsen im Abwärtstrend). Weitere Einbrüche folgen Anfang 2016 (Rückgang der Industrieproduktion). 2017 endet der CSI unweit seines Jahreshochs. Am 05.02.18 gibt er stark nach infolge des Absturzes des Dow Jones, der Trend hält eine Zeitlang an. Das Corona-Virus führt zu einem Absturz in mehreren Sequenzen. Der Nikkei wird von der Wirtschaftszeitung Neihon Keizai Shimbum veröffentlicht und misst die Wertentwicklung der  225 wichtigsten Aktien an der Börse von Tokio (1950 eingeführt). 2015 fällt der Nikkei infolge der Euro-Krise und dem Einbruch des chinesischen Aktienmarktes. Zuletzt stark am 24.08.15. Weitere Rückgänge gibt es zu Beginn von 2016 und nach dem Brexit, ebenso nach dem Wahlsieg von Trump. 2017 liegt der Nikkei gut 19% zu. Am 05.02.18 gibt der Nikkei stark nach infolge des Absturzes des Dow Jones.  Die Talfahrt hält vorerst an. Ende 2018 kommt es noch mal zu einem Absturz um 2.8% (Zinserhöhung der Fed). Im Jahre 2018 stürzt der Nikkei um 12,1% ab. Einen Einbruch hat dann der Nikkei im März 2020 wegen Corona; die Senkung setzt sich fort. Am 24.3. kommt eine Wende. Am 15.02.21 steigt der Nikkei erstmals seit 30 Jahren wieder über 30.000 (gutes BIP-Wachstum im 4. Quartal 2020). Durch den Ukraine-Krieg geht er wieder nach unten. Dann kommen Rezessionsängste. 2022 hat der Nikkei -15% verloren.  Die älteste Börse in Asien ist die in Mumbai/ Indien. In Indien gibt es mehr börsennotierte Unternehmen als in jedem anderen Land der Welt. An der Mumbay Stock Exchange (BSE) sind ungefähr 5000 Unternehmen gelistet, mehr als an jeder anderen Börse. Die heute führenden Gesellschaften in Indien wurden von Parsen im 19. Jahrhundert gegründet. Die Parsen gründeten auch die Textilindustrie. Die Juteindustrie in Bengalen dominierten die Briten. Die Briten betrieben ursprünglich auch den Kohlebergbau. Auch die Teeplantagen waren ein Monopol der Briten. Die Parsen waren aus Persien eingewandert. Immer interessanter wird das Marktbarometer der indonesischen Börse der Jakarta - Composite - Index (402 Aktien, seit 1982). Aktienindex in vietnam ist der FTSE-Vietnam-Index. Die größten Positionen haben der Nahrungsmittelmulti Vietnam Dairy Products, der Mischkonzern Vingroup und der Hausbaukonzern Vinhomes. Für Asien insgesamt gibt es den Stoxx 600 Asia/ Pacific. 2014 öffnet Saudi-Arabien seine Börse für große Anleger aus dem Westen. Saudi-Arabiens Leitindex heißt Tadawul. Vorher hatte sich schon Dubai geöffnet. Hier gibt es den DFM General Index. In Russland ist der RTS. Er ist 2020 um0,52% gestiegen. In Griechenland heißt der Leitindex ASE. Griechenlands Börse wurde 1876 gegründet. Sie ist mittlerweile in privater Hand. 230 Unternehmen sind dort 2015 notiert. Der Wert aller Aktien liegt im August 2015 bei etwa 40 Mrd. € (allein die Deutsche Bank ist wertvoller). Der BIST ist der Index der 100 wichtigsten Aktien in der Türkei. Dazu gibt es noch den ISE-100. Der BIST steht im August 2023 bei 7900 Punkten. Das sind 150% mehr als vor einem Jahr. Die Währungs- und Finanzkrise schert den türkischen Aktienmarkt wenig.   Am 03.08.15, als die Börse nach fünf Wochen wieder öffnet, wird er schwer gebeutelt (-16%, am Folgetag noch -4 %; viele Firmen wandern aus). 

Die älteste Aktienbörse ist die Amsterdamer Börse von 1602. Der wertvollste Konzern in der Wirtschaftsgeschichte nach dem Aktienwert ist bisher Apple. Nobelpreisträger Shiller aus den USA eine eine spezielle Formel für die Bewertung von Aktien entwickelt auf Basis des Kurs-Gewinn-Verhältnisses (KGV). Ein KGV berechnet sich aus dem Börsenwert eine Unternehmens geteilt durch seinen (erwarteten) Jahresgewinn. Er soll Über- und Unterbewertungen signalisieren. Weitere Indikatoren für die Lage an den Finanzmärkten sind die folgenden: Renditedifferenz. Die Zinsdifferenzkurve zeigt die Differenz zwischen der Rendite kurz laufender und lang laufender Anleihen. Investoren orientieren sich dabei an US-Staatsanleihen mit zwei und zehn Jahren Laufzeit. Wertpapierkredite. Kaufen Anleger Wertpapiere zunehmend auf Pump, signalisiert das eine höhere Spekulationsneigung. Kurs-Buchwert-Verhältnis. Das Kurs-Buchwert-Verhältnis (KBV) zeigt, wie teuer ein Unternehmen an der Börse relativ zu seinem Buchwert oder Eigenkapital ist. Hinzu kommen die Anlegerstimmung, die Volatilität und die Marktbreite.

Es gibt auch einen Weltindex für Aktien. Er heißt MSCI. Die Frage ist, ob es ein echter Weltindex ist. Er hat eine Unwucht zugunsten von US-Aktien (70%, auch starke Gewichtung von GB und Japan). Es sind rund 1500 Aktien großer Unternehmen aus 23 Industrienationen. Er wird seit 1986 berechnet. Die IT-Branche ist auch übergewichtet. Es gibt noch den Weltindex FTSE (4000 Aktien aus 49 Nationen). Die Weltindex-Aktien sind stark im ETF (Exchange Tradet Funds) vertreten.

Wichtig sind auch die Indikatoren der Geldpolitik: Die Geldmenge M1 umfasst den Bargeldumlauf sowie täglich fällige Sichteinlagen. Er gilt als zuverlässiger monetärer Frühindikator. Die Zinsstruktur misst die Differenz zwischen den langfristigen und den kurzfristigen Zinsen.  Klettern die kurzfristigen über die langfristigen Zinsen spricht man von einer inversen Zinsstruktur, was auf das Ende einer Rezession hindeutet. Das Zentrum für Europäische Politik (CEP) hat einen Default-Index entwickelt, der die Fähigkeit eines Landes misst, Auslandskredite zurückzuzahlen. Mittlerweile gibt es einen Glaubwürdigkeitsindex, der die Reputation von Notenbanken misst. Der Ruf von Fed und EZB hat danach 2017 gelitten (Quelle: Bloomberg, DZ Bank).

2015 wird ein neuer Index für den Stress an den Finanzmärkten (WSSI) entwickelt. Konstrukteur ist das Institut für Kapitalmarktanalyse (IFK) in Köln. Experten des IFK prüfen weltweit 6500 finanzielle und konjunkturelle Indikatoren, darunter Aktien-, Währungs-, und Rohstoffkurse sowie Zinsen auf Staats- und Unternehmensanleihen. Im März 2017 lassen Protektionismus, Brexit und Rechtspopulismus die Nervosität an den internationalen Finanzmärkten steigen (der WSSI steigt merklich).

US FederalReserve Bank (Fed, sie hat auch ein Reverse-Repo-Programm: US-Banken und Geldmarktfonds können über Nacht Geld parken, weil sie scheuen, es zu verleihen. Ende Mai 21 sind das 433 Mrd. $, ein Indikator für Unsicherheit an den Finanzmärkten)

- Genauso sollte man für die wichtigsten Länder die Schlüsseldaten wie Bevölkerung und Höhe des BIP und das Pro-Kopf-Einkommen nennen können (wichtig können für spezielle Fragestellungen auch die Analphabetenrate und die Sparquote sein).

- Bei einigen Themen sollte man die Grundtendenzen in der Welt im Umriss erahnen können: Verschuldung (Haushaltsdefizit: Neuverschuldung bezogen auf das BIP pro Jahr x 100; Gesamtverschuldung; auch Euro-Konvergenzkriterien von 3,0% und 60%); Staatsquote: Verhältnis der staatlichen Ausgaben zum BIP (R. Barro fand keinen Zusammenhang mit dem Wirtschaftswachstum; setzt sich aus vielem zusammen, nicht einheitlich definiert, z. B. Sozialversicherung, Wohlfahrtseffekte der Ausgaben?).  Konjunktur (Boom, Rezession, Stagnation); Inflation (gemessen durch die Preissteigerung am Preisindex für die Lebenshaltung: hier werden laufend die Kosten eines bestimmten Warenkorbes, der eine repräsentative Güterauswahl enthält, ermittelt, die Basisperiode ergibt sich aus dem Jahr der EVS-Stichprobe). Die Inflation steht in engem Bezug zur Geldmenge:M1=Bargeldumlauf und gängiger Geldmengenbegriff, M2=M1 + Einlagen mit Laufzeit bis 2 Jahren und Kündigungsfrist von bis 3 Monate, M3=M2 + Geldmarktfonds, Geldmarktpapiere und Bankschuldverschreibungen.  Welthandel (Exporte, Importe), Welt -BIP, Direktinvestitionen (Beteiligung, Erwerb oder Bau von Produktionsstätten im Ausland), Energie/Umwelt.

- Einige institutionelle Rahmenbedingungen sollten bekannt sein: Wirtschaftsordnung (Art der Marktwirtschaft: frei, gelenkt; welches Grundmodell?), Zentralbankstatus (abhängig, unabhängig; Bank der Banken: kontrolliert die Höhe der Mindestreserven und des Zinses), politisches System (z. B. Demokratie, Diktatur), Kultur (individualistisch, kollektivistisch), Geschichte (Tradition), Wirtschaftsstruktur (z. B. Anteil tertiärer Sektor), Integration in die Weltwirtschaftsordnung (Mitglied WTO, IWF, G8).

- Es sollte auch bekannt sein, aus welchen Quellen der empirischen Wirtschaftsforschung die Daten stammen. In Deutschland legt im Januar eines jeden Jahres die Bundesregierung den Jahreswirtschaftsbericht vor (z. B. Prognose für  2011: Wirtschaftswachstum +2,25; Haushaltssaldo -2,5%; Arbeitslosenquote +7%). Für 2013 prognostiziert das Bundeswirtschaftsministerium 0,4% Wachstum des BIP. So kommt es dann auch exakt. Für 2014 werden 1,8% Wachstum erwartet (2015 2,0%). 2016 rechnet die Bundesregierung mit einem Wirtschaftswachstum von 1,7% (tatsächlich 1,9%). Das Konsumklima ist stabil. Für 2017 werden 1,4% Wirtschaftswachstum erwartet. Im Jahreswirtschaftsbericht 2019 schraubt die Regierung ihre Wachstumsprognose für 2019 auf 1,0% herunter.  2021 wird durch Lockdown und Corona mit 3,0% BIP-Wachstum gerechnet. Jahreswirtschaftsbericht Januar 2022: BIP 2020 -4,6%, 2021 2,7%, 2022 3,6%. Exporte: 2020 -9,3%, 2021 +9,4%, 2022 5,5%. Importe: 2020 -8,6%, 2021 +8,6%, 2022 +6,3%. Bruttolöhne 2020 -0,1%, 2021 +3,2%, 2022 +3,7%. Arbeitslosenquote: 2020 5,9%, 2021 5,7%, 2022 5,1%. Der Jahreswirtschaftsbericht 2023 hat folgende Erwartungen für 2023: BIP +0,2%; Inflation +6,0%; ALQ 5,4%. Für 2024 und die folgenden vier Jahre wird ein Dauerdümpeln (magere Jahre) vorausgesagt. Es wird ein dynamischeres Investitionsgeschehen" für notwendig gehalten. Der Jahreswirtschaftsbericht 2024 wird am 22.2.24 vorgelegt. Tenor ist: "Wir kommen langsamer aus der Krise als erhofft." Das Wachstum wird bei +0,2%  gesehen. Die Inflation soll sich auf 2,8% abschwächen. Im Frühjahr und Herbst eines jeden Jahres geben die Wirtschaftsforschungsinstitute (seit 1950, 8 Institute seit 2007, 2013 soll das DIW, Berlin, das IfW in Kiel ablösen), ein Gemeinschafts-Gutachten heraus. In der Gemeinschaftsprognose der acht Institute im April 2011 wird ein Wachstum von 2,8%, eine Inflationsrate von 2,4% und eine Arbeitslosenzahl von 2,89 Mio. für 2011 vorausgesagt. Im Herbstgutachten 2011 wird 2012 nur noch ein Wachstum von 0,8% gesehen (Arbeitslose 2,8 Mio., Preise +1,8%, HH-Defizit -0,6%). Das Herbstgutachten 2012 der Institute für die Bundesregierung erwartet für 2013 nur noch ein Wachstum von 1 Prozent. Die Inflationsrate wird bei 2,1% gesehen. Im Frühjahresgutachten wird nur ein Wachstum von 0,8% erwartet (2014 1,9%). Andere Daten werden wie folgt gesehen: Arbeitslose 2,87 (2,72), Anstieg der Verbraucherpreise 1,7 (2,0). Im Herbstgutachten 2013 wird ein schwacher Aufschwung 2014 erwartet (1,8%; 2013 0,4%). Etwa 33 Mrd. € stehen bis 2018 für Schuldenabbau, gerechteres Steuersystem und Investitionen zur Verfügung. Im Frühjahrsgutachten im April 2014 werden die geplanten Sozialleistungen und der Mindestlohn kritisiert. Im Herbstgutachten 2014 der Institute wird konstatiert, dass die Regierungspolitik (Rentenpaket, Mindestlohn) Arbeitsplätze kostet. Im Frühjahrsgutachten 2015 wird ein Wirtschaftswachstum für 2015 von 2,1% prognostiziert (von 1,2% erhöht; 2016 1,8%). Die Zahl der Erwerbstätigen soll auf 43,01 (2016: 43,24) steigen (2,72 Mio. AL). Im Herbstgutachten 2015 sehen die Institute gute Aussichten für die Konjunktur in Deutschland (1,8% Wachstum 2015 und 2016 wegen der großen Kauffreude).  Die zuletzt enttäuschenden Exportzahlen könnten diese Prognose noch durcheinander bringen. Im Frühjahresgutachten wird die Prognose für 2016 revidiert (nur noch 1,6%; Inflation 0,5%; ALQ 6,2%). Im Herbstgutachten 2016 wird die Prognose des BIP-Wachstums für das laufende Jahr auf 1,9% angehoben (Staatskonsum, Verbraucher). Im Frühjahrsgutachten 2017 erwarten die Forscher 1,5% Wachstum 2017. Sie sehen Risiken durch den möglichen Handelskrieg mit den USA. Im Herbst 2017 heben sie die Wachstumsprognose an: 1,9% (2018: 2,0%, 2019: 1,8%; ALQ ). Sie mahnen Änderungen in der Abgabenpolitik an. Im September 2018 (Herbstgutachten) wird die Wachstumsprognose für 2018 gesenkt (auf 1,7%). Im Frühjahr 2019 senkt man sie weiter auf 0,8% (wenn harter Brexit, noch weiter runter). Auch für 2019 wird man pessimistischer (Handelskonflikt, Brexit, Schulden Italiens; deshalb 1,9%; 2020 1,8%). Im Herbst 2019 geben die Wirtschaftsforschungsinstitute ihre Prognose im Herbstgutachten (Gemeinschaftsgutachten)  ab: für 2019 (0,5%) und 2020 (1,1%) BIP-Wachstum. Ab 2021 soll die Wirtschaftsituation besser werden. Die Arbeitslosenzahlen werden werden 2020 leicht ansteigen, ebenso die Inflation. Der Finanzierungsüberschuss des Staates wird zurückgehen. Im Frühjahr 2020 steht das Frühjahrsgutachten ganz im Zeichen der Corona-Krise:2020 -4,2% Wachstum, 2021 + 5,8%. Das Herbstgutachten verstärkt den Negativtrend: Wachstum 2020 -5,4%, Wachstum 2021 +4,7%-. Im Frühjahr 2021 erstellt man folgende Prognose: 2021 BIP +3,7%, 2022 3,9%. Die führenden Wirtschaftsforschungsinstitute haben ihre Prognose für 2021 im Herbstgutachten 21 von 3,7% auf 2,4% gesenkt (Corona-Krise überwunden, Lieferengpässe bei Vorprodukten). Prognose für 2022 3,9%. Im Herbst 2022 geht man von einer Rezession 2023 aus (-0,4%). Vgl. Holtemöller, Oliver u. a.: Gemeinschaftsdiagnose: Energiekrise, Inflation, Rezession und Wohlstandsverlust, in:  Wirtschaftsdienst H. 10/ 2022, S. 761-765. Im Frühjahr 2023 sieht die Prognose wie folgt aus: Leichtes Wachstum 2023 von 0,3%. 2024 1,5%. Entspannung bei der Inflation 2024 (2,4%?).  Vgl. Holtemöller, O. u. a.: Gemeinschaftsdiagnose Frühjahr 2023, in: Wirtschaftsdienst 4/ 2023, S. 259-263. Im Herbstgutachten 2023 revidieren die Institute ihre Wachstumsprognose für 23 auf -0,6% (auch für 24 und 25 Prognose). Weiterhin werden IR, ALQ und Staatsüberschuss prognostiziert. Im Spätherbst erscheint jährlich das Gutachten des Sachverständigenrates für Wirtschaft (seit 1963, Vorsitzender 2013 Christoph M. Schmidt, RWI-Essen (2021 vakant); werden auch die "Fünf Weisen" genannt, Lars Feld, Walter-Eucken-Institut Freiburg; Peter Bofinger, Würzburg; Claudia M. Buch; Volker Wieland ). Im neuen Gutachten 2011 wird für 2012 ein Wachstum von 0,9% (2011: 3,0%) erwartet. Die Arbeitslosigkeit soll 2012 im Schnitt bei 2,89 Mio. liegen (6,9%). An Inflation wird 2012 1,9% erwartet. Es wird ein Euro-Tilgungsfonds empfohlen. Im Gutachten 2012 gibt es Kritik an den jüngsten Regierungsbeschlüssen (Abschaffung Praxisgebühr, Zuschussrente, Betreuungsgeld). Es wird von den "Fünf Weisen" eine bessere Konsolidierung des Haushalts gefordert. Reformen werden bei der Unternehmensbesteuerung und der Ökostromförderung angemahnt. Das Wachstum soll 2013 0,8% betragen.  Im Gutachten 2013 warnen die "Fünf Weisen" vor Mindestlohn und Mietbremse. 2014 prognostizieren sie ein Wirtschaftswachstum von 1,6%. Die Zahl der Erwerbstätigen soll auf den Rekordwert von 42,1 Mio. steigen. Die Arbeitslosenquote wird knapp unter 7% liegen (2,95 Mio. AL). Im Gutachten des SRW 2014 wird der Regierung die Verantwortung für die schwache Konjunktur gegeben. Für 2014 wird ein moderates Wachstum des BIP von 1,2 Prozent erwartet (von 1,9% herunterkorrigiert). Das Jahresgutachten 2015 sagt für 2016 Folgendes: Wirtschaftswachstum 1,6%; Arbeitslose 6,6%; Preise +1,2%; Überschuss Staatskasse 0,2%. Im Jahresgutachten 2016 sprechen sich die Weisen für ein späteres Renteneintrittsalter und die Ausweitung des Niedriglohnsektors aus. Die Wirtschaftsweisen erhöhen im März 2017 ihre Wachstumsprognosen: 2017 1,4%; 2018 1,6%. Im Haupt-Gutachten im Herbst 2017 erhöhen sie die Prognose für 2018 auf 2,2%. Der Soli sollte Schritt für Schritt abgeschafft werden. Die Situation der Gemeinden sollte verbessert werden. Im Herbstgutachten 2018 senken die Wirtschaftsforscher die Prognose für 2018 deutlich (von 2,3 auf 1,6%). Die Abkühlung der Weltkonjunktur und der spürbare Fachkräftemangel gehen an der deutschen Wirtschaft nicht spurlos vorbei (2019: 1,5%). Die Arbeitslosigkeit geht aber weiter zurück und die Inflation steigt.  Im Jahresgutachten 2019, das am 06.11.19 vorgestellt wurde, prognostizieren die 5 Weisen für 2019 ein Wachstum von 0,5%, 2020 0,9%. Deutschland sei im Abschwung, stehe aber nicht vor einer Rezession. Es werden Steuersenkungen empfohlen. Sie setzen auch ein Fragezeichen hinter die "Schwarze Null". Im Jahresgutachten 2020, das im November 2020 vom SRW vorgelegt wird, wird der Einbruch weniger stark erwartet: BIP -5,1%, 2021 +3,7%. Im Jahresgutachten 2022 erwartetet der SRW für 2023 eine Rezession (-0,4%) und eine anhaltend hohe Inflation (7,4%). Die Frankfurter Allgemeine Zeitung (F.A.Z.) erstellt regelmäßig monatlich einen Konjunkturbericht Deutschland. Am Ende eines Jahres führt das IW (Institut der deutschen Wirtschaft) im Auftrag des BDI bei den Industriebranchen eine Umfrage über die Wirtschaftsaussichten im nächsten Jahr durch. 2013 rechen für 2014  26 von 48 Wirtschaftsverbänden mit einer positiven Entwicklung (vor allem im Bau, 5 Mrd. € im Koalitionsvertrag). Ein großes Beschäftigungsplus wird nicht erwartet. Die Verbandsumfrage 2014 für 2015 zeigt eine leicht positive Stimmung. In einer Umfrage Mitte 2022 erwartet ein Viertel der Unternehmen sinkende Produktion (Gasknappheit, Rezession, Zinsanstieg).  Das Finanzministerium gibt einen Finanzbericht heraus, der viele internationale Übersichten enthält. Alle zwei Jahre gibt es den Subventionsbericht der Bundesregierung. Die EU kritisiert hier, dass die Empfänger in der Landwirtschaft nicht genannt werden. Vergleichbare Institutionen gibt es auch in den USA und Japan. Alle genannten Institutionen sind bei den Links vertreten. Von 2005 bis 2008 fährt der Bund seine Subventionen um 2 Mrd. € zurück. Darüber hinaus gibt es noch andere - zum Teil private - Institute, die Indikatoren erstellen: Das Marktforschungsunternehmen GfK konstruiert den Konsumklimaindex. Dies geschieht seit 1980 (2000 Verbraucher, 600 Interviewer, alle Ausgaben der privaten Haushalte, drei Teile: Anschaffungsneigung, Einkommenserwartung, Konjunkturerwartung). 2014 wird eine Revision des Indikators in Angriff genommen. Gesamtwirtschaftliche Aspekte wie Preiserwartungen und Arbeitslosigkeit spielen heute eine größere Rolle. Die GfK ist nicht mehr unabhängig. Sie wird von Investor KKR dominiert und umgebaut.  Im März 2011 steigt der Index auf den höchsten Stand (6,0) in Deutschland seit 2007, weil die Verbraucher mit höheren Einkommen rechnen. Er fällt danach langsam wieder (auf 5,2 im September 2011, am positivsten ist die Einkommenserwartung). Im Februar 2013 steigt der Index auf den höchsten Wert seit November 2012. Ende 2013 steigt das Barometer sogar auf 7,4 Punkte (niedrige Zinsen, Kauflaune). Das ist der höchste Wert seit August 2007. Ende Januar steigt der Index sogar auf 8,2 (Lohnerwartung, Zuversicht); im Februar auf 8,5. Im Juli 2014 erreicht er 8,9 und damit den höchsten Stand seit sieben Jahren (Schub durch niedrige Zinsen). Im August steigt er noch mal auf 9,0. Sogar Ende des Jahres 2014 ist er noch hoch wegen des niedrigen Ölpreises. Ende Januar 2015 erreicht er den höchsten Stand seit 2001. Im April werden 10,0 erwartet. Laut dem GfK-Index Ende 2015 dürfte der Private Konsum auch 2016 eine Stütze der Konjunktur bleiben. Der Index steigt sogar noch leicht an zu Beginn von 2016. Im Herbst 2016 sinkt er nach dem Brexit und dem Terror. Im Mai 2017 steigt der Index überraschend stark an (so gut wie seit 2001 nicht). Er erhöht sich dann im Juni 17 noch mal. Für Februar/ März 2018 sinkt der Index (Regierungsbildung, Börsenturbulenz, US-Handelshemmnisse). 2018 insgesamt bleibt das Konsumklima stabil auf hohem Niveau. Es steigt die Bereitschaft zu teueren Anschaffungen. Im April 2019 geht der Index gegenüber dem 1. Quartal wieder nach oben (stabiler Arbeitsmarkt, Rentenerhöhung). Im Juli 2019 sinkt der Index um 0,3 Zähler (9,8: tiefster Stand seit April 2017). Im Oktober 2019 steigt die Kauflaune wieder (9,9). Durch die Corona-Krise 2020 ist die Kauflaune im freien Fall. Ende April 2020 ist der Index bei -23,4. Im September 2020 stabilisiert er sich wieder (-1,7). Dann stürzt die Konsumlaune wegen des Ukraine-Krieges ab (-15,5 Ende März 2022). Im Juni 2022 ist die Konsumlaune auf dem Tiefpunkt: -27,4. Für August 22 prognostiziert die GfK -30,6. Im Herbst 2023 geht die Sparneigung wieder in die Höhe und schicken den Konsumklimaindex in den Keller. Nach drei Rückgängen in Folge kann sich der Index zum Weihnachtsgeschäft 2023 wieder stabilisieren: Dezember 23 -27,8.  Seit 2010 gibt es einen Frühindikator für die Ausgaben der privaten Verbraucher. Er wird am DIW in Berlin erstellt. Datengrundlage sind die monatlichen Umfragen der EU-Kommission (Dreger, C./ Kholodilin, K.: Forecasting Private Consumption by Consumer Surveys, DIW, Berlin Sept. 2010). Das RWI in Essen berechnet den Konsumindikator. Er besteht aus 41 Kategorien, die für private Konsumausgaben besonders relevant erscheinen.  Das RWI veröffentlicht seit 2011 alle drei Monate einen aktualisierten Indikator. Grundlage sind Google-Daten. Das Handelsblatt Research Institute veröffentlicht den HDE-Konsumbarometer. Es besteht aus sechs Fragen an repräsentativ ausgewählte Konsumenten. Erhoben werden Konsum- und Sparneigung. Im Februar 2021 verbessert sich die Konsumentenstimmung trotz Corona. Die Zuversicht der deutschen Verbraucher wächst. Im März geht das Barometer steil nach unten. Im  April steigt es wieder an. Im Mai 2021 steigt es weiter an. Doch auch die Preise klettern. Anfang 2022 hat sich die Stimmung der Konsumenten verschlechtert. Die Konjunkturaussichten für das 1. Quartal verdunkeln sich. Im Juni 2022 erholt sich das Konsumbarometer wieder (Höhepunkt der Teuerungswelle erreicht?). Gegenüber dem Vormonat rutscht im September 2022 das Konsumbarometer wieder ab (-0,28 Punkte). Die Stimmung der Verbraucher sinkt auf ein Rekordtief. Trotz steigender Preise sind die Verbraucher im Januar 2023 wieder zuversichtlicher. Das Barometer steigt auf 88,5 (Basis Januar 2017 = 100).   Das Ifo - Institut in München berechnet das Geschäftsklima. Es ist wohl der wichtigste Frühindikator in Deutschland. Jeden Monat werden 7000 Unternehmen aus dem Verarbeitenden Gewerbe, Bau, Groß- und Einzelhandel über die aktuelle Geschäftslage und die Perspektiven für die nächsten sechs Monate befragt. Den Index gibt es seit 1969 (erste Umfrage 1949; dadurch lange Reihen möglich).  Dieser erreicht im Januar 2011 mit 110,3 den höchsten Wert seit der Wiedervereinigung. Im November 2011 steigt er überraschend wieder an. Im Januar 2013 kündigt er einen Konjunkturaufschwung an. Im September 2013 steigt er zum fünften Mal in Folge. Im Januar 2014 erreicht er sogar 110,6. Im Juli 2014 sinkt der Index auf 108,0 (Konflikte in Gaza und der Ukraine). Im Herbst 2014 sinkt der Index weiter (Exportindustrie leidet aufgrund der Krisen). Ende Oktober 14 fällt er auf den tiefsten Stand seit Ende 2012. Im November 2014 geht er wieder nach oben. Ende März erreicht er den höchsten Stand seit Juli 2014. In den ersten 5 Monaten 2015 sinkt der Index leicht. Im Mai 2017 steigt der Index auf einen Rekordwert (Erleichterung nach Macrons Wahlsieg). Im April 2018 sinkt der Index im fünften Monat in Folge. Eine Rezession wird aber nicht erwartet. Trumponomics zeigt aber Wirkung. Im August 2018 steigt der Indes deutlich ("Waffenstillstand" mit Trump). Im November 2018 sinkt der Index auf 6,6 ab (von 19,6; Sorgen um Italiens Staatsschulden, Euro-Konjunktur). Im Februar 2019 sinkt er weiter ab (Brexit, Handelsstreit mit USA, weltweite Konjunkturflaute). Im März 2019 steigt der Index überraschend wieder an. Im Mai sinkt der Index weiter ab (97,9 von 99,2 im April). Er fällt noch weiter im Sommer 2019 (Juli, August; auf 94,3). Dei Anzeichen für eine Rezession (längerer Rückgang der Wirtschaftsleistung) verdichten sich. Im März 2020 geht der Index rapide nach unten (87,7, Grund ist die Corona-Krise). Im April sinkt er auf 74,3. Insgesamt ist das der stärkste Rückgang überhaupt. Nach dem Rekordtief klettert er zum dritten Mal in Folge bis Juli 2020; dann steigt er weiter (Wirtschaft setzt auf Erholung). Im Dezember 2020 steigt der Index  trotz Beschränkungen im Lockdown weiter.  Auch 2021 erweist sich die Wirtschaft als robust: Das Geschäftsklima verbessert sich weiter. Sogar in der 3.Corona-Welle im März 21 ist die Stimmung überraschend gut. Im Juli 2021verschlechtert sich die Stimmung wieder (-0,9 Punkte auf 100,8). Im Oktober 2021 geht der Index erneut weiter nach unten (Knappheitskrise, Vorleistungen; 97,7). Der Abwärtstrend verstärkt sich im November (4. Welle). Im Dezember 2021 sinkt er weiter auf 94,7 (Omikron-Variante). Im Mai 2022 zeigt der Index keine Anzeichen von Rezession:  Er steigt um 1,1 Prozentpunkte auf 93,0 Zähler. Im Juni 22 fällt er wieder auf 92,3: Sorge über die Energieversorgung. Im Juli geht er weiter runter auf 88,7  und im August 22 auf 88,5 (trübe Stimmung in den Firmen). Im September 22 fällt er im September um 4,3 Punkte  auf 84,3 Zähler. Im November 22 steigt er im vergleich zum Vormonat überraschend um +1,8 Punkte an: Die Stimmung in der deutschen Wirtschaft bessert sich. Im Dezember 2022 steigt er noch mal auf 88,6 Punkte. Das Ifo-Institut berechnet für das Handelsblatt auch das Ifo-Beschäftigungsklima (darin auch Exportklima-Index). Es handelt sich um Erwartungen von 9500 repräsentativ ausgewählten Unternehmen. Sie werden nach Planungen für die nächsten drei Monate befragt. Zu Beginn 2015 klettert es auf den höchsten Stand seit drei Jahren. Zu Beginn 2016 ist das Exportklima eher mau. Am Anfang 2017 sinkt der Index deutlich. Die Banken sehen Trump als Grund. Nach der Frankreichwahl im April 2017, die Macron gewinnt, wird der höchste Stand seit sechs Jahren erreicht (112,9). Im November 2017 steigt das Exportklima auf den höchsten Stand seit über zehn Jahren. Im Juli 2019 fällt der Index überraschend kräftig 95,7, niedrigster Stand seit 2013. Im September 2022 ist der Index extrem niedrig: -6,0 Punkte bei Exporten, Im Februar 2024 liegt der Index bei 94,9Pkt. Die Konjunkturflaute dämpft die Einstellungsbereitschaft). Zusammen mit dem IAB-Arbeitsmarktbarometer indiziert es den deutschen Arbeitsmarkt in der Konjunktur.  Der Arbeitsmarkt ist eher Spätindikatoren für die Konjunktur. Der DIHK macht regelmäßig Umfragen (z. B. im Frühsommer). Die Commerzbank berechnet den Earlybird-Frühindikator für die Wirtschaftswoche. Er wurde Anfang 2000 entwickelt. Der Indikator soll früher als alle anderen Alarm schlagen. Er misst  den Kurs der Geldpolitik anhand des kurzfristigen Realzinses. Er ergibt sich aus der Differenz des Nominalzinses für Kredite mit dreimonatiger Laufzeit am Interbankenmarkt (Euribor) und dem Durchschnitt der Kernteuerungsraten (ohne Energie und Steuern). Auch die Auslandskonjunktur geht durch den Welteinkommensmagerindex mit ein (Gewicht 25%). Z. B. Januar 2010 mit 2,05 Punkte höchsten Stand seit 20 Jahren. Im Juni 2015 legt der Frühindikator deutlich zu (wieder 2,0). Im Februar 2016 rutscht der Index nach langer Zeit wieder ins Minus. Im Frühjahr 2020 rutscht der Index in der Corona-Krise auf den tiefsten Stand seit 8 Jahren. Im April 2021 steigt er wieder auf den höchsten Stand seit acht Jahren. Im August 2021 stagniert der Index (Warnsignale aus der Weltwirtschaft, Gegenwind aus China). Im Dezember 2022 sinkt er erstmals seit April 2020 unter die Nulllinie. Das deutet stark auf eine Rezession hin. Außerdem brechen die Aufträge ein. Im August 2023 sinkt er auf den tiefsten Stand seit 15 Jahren. Der Indikator deutet Ende 2023 darauf hin, dass die Hoffnung auf einen Aufschwung 2024 auf Sand gebaut ist. Im März 2024 gibt der Indikator nach. Die Lethargie der Wirtschaft hält an. Seit 2011 arbeitet das Institut für Wirtschaftsforschung Halle (IWH) mit einem Flash-Frühindikator, der die Wirtschaftsleistung im laufenden und folgenden Quartal einschätzt. Der Bundesverband Materialwirtschaft, Einkauf und Logistik (BME) lässt den Einkaufsmanagerindex (EMI) ermitteln. Sein Vorteil ist die internationale Vergleichbarkeit. Er kommt ursprünglich aus Großbritannien. Er orientiert sich methodisch am 80 Jahre alten amerikanischen Index (ISM, Frühindikator der US-Konjunktur und Gradmesser für die gesamte Weltwirtschaft). Im Juni 2014 liegt er bei 52,4. Im Frühjahr 2015 ist er sehr positiv in der Euro-Zone und deutet auf Wachstumsschub hin. Im Oktober 2018 indiziert er, dass Europas Wirtschaft schwächelt. Bei diesen Projekten handelt es sich eher um Frühindikatoren. Etabliert und eine der ältesten Früh- Indikatoren ist der Auftragseingang, gemessen vom Statistischen Bundesamt. Hier gehen die Auftragseingänge der Industrie ein. Diese sind im August 2014 (5,7% gegenüber Juli 2014) so stark eingebrochen wie seit 5 Jahren nicht mehr. Neu ist die Mautstatistik. Sie kann als Frühindikator für die Konjunktur benutzt werden. Allerdings ist die Korrelation mit den anderen Frühindikatoren nicht besonders hoch. Neu ist auch die Nutzung der "Schwarmintelligenz" in der Konjunkturforschung. Es handelt sich um eine Konjunkturbörse, die auf die Einschätzung vieler Studenten im schnellen Internet setzt. Man spricht auch von Konjunkturschwarm. Speziell für den sozialen Bereich wird ein Sozialbericht erstellt vom Arbeitsministerium. 2009 fließen wegen der Wirtschaftskrise 754 € in Sozialausgaben (gut ein Drittel des Nationaleinkommens). Das Mannheimer ZEW berechnet ein Stimmungsbarometer (Konjunkturerwartungen). Es wird für jeden Monat errechnet. Im Februar 2024 ist es unerwartet deutlich gestiegen. Es gibt licht am Konjunkturhorizont.

Die EU arbeitet mit eigenen Indices, in denen auch Werte für Deutschland ermittelt werden. Die EU-Kommission erhebt einen Index, der die konjunkturelle Entwicklung misst für die Eurozone und die gesamte EU. Daneben wird die Wirtschaftsstimmung und das Geschäftsklima (Auftragslage, Exportaufträge, Produktionstrends) in Indices gemessen.

Die OECD will einen Glücksindex ermitteln. Dieser soll ein Maßstab für Wohlbefinden sein. Der Vorschlag dazu geht auf einen Forschungsbericht von Joseph Stiglitz und A. Sen zurück. Vorher entstand ein solcher Index in Bhutan (Bhutan-Entwicklungs-Index, "Bruttonationalglück"). Auch in Deutschland beschäftigt sich eine Bundestagskommission mit der Frage. Die OECD arbeitet mit den Kriterien Wohnsituation, Einkommen, Arbeit, soziale Bindungen, Umwelt, Gesundheit, Verbindung von Privat- und Berufsleben. Jedes Jahr wird in Deutschland ein Glücksatlas ermittelt. Das Fach "Glück" gibt es auch als Schulfach. Zuerst in Heidelberg. Mittlerweile in 100 Schulen in Deutschland und Österreich. Glück wird als Selbst- und Kulturtechnik gelernt. Es ist auch Fach an den Universitäten Münster und München.

Coronakrise und Konjunkturforschung: In der Corona-Krise 2020 wird die traditionelle Konjunkturforschung zum Glücksspiel. Neue Daten müssen zum Zuge kommen mit neuen Methoden. Einige setzen als Prognosehelfer Satellitenbilder ein. Andere wollen mehr mit indirekten Daten arbeiten (Stromverbrauch, LKW-Verkehr). Noch intensiver soll Big Data eingesetzt werden. Vgl. Losse, Bert/ Fischer , Malte: Propheten im Ausnahmezustand, in: WiWo 20, 8.5.20, S. 40f. Bei der hohe Exportquote Deutschlands können Prognosen aber nur halbwegs genau sein, wenn gleichzeitig eine Prognose der EU und der Weltwirtschaft damit verbunden ist. Das können Konjunkturforschungsinstitute in Deutschland naturgemäß aber nur begrenzt, egal welche Rechnungsmethoden - Änderungen sie national vornehmen.

- Prognose: Das BIP wird jährlich und für Quartale prognostiziert. Kurzfristige Quartalsprognosen gibt es vom Statistischen Bundesamt (StBA, sechs Wochen nach Ende eines Quartals für das nächste) und von Barclays - Handelsblatt (sofort im laufenden Quartal vor dem StBA). Im Herbst 2009 wird eine Prognosebörse der Konjunktur eingerichtet (Handelsblatt, IW, TH Karlsruhe). Diese Prognosebörse EIX sagt Konjunkturdaten relativ gut voraus. Gut ist auch die Bloomberg-Umfrage unter Bankvolkswirten. Das ZEW in Mannheim ermittelt den ZEW-Konjunkturindex für mittelfristige Konjunkturerwartungen, der monatlich herausgegeben wird. Da er Finanzanalysten und institutionelle Anleger befragt (ca. 260), ist er eher ein Stimmungsbarometer für die Finanzmärkte (korreliert hoch mit der Entwicklung der wichtigsten Aktienindices; Trends bei Zinsen, Wechselkursen und Börsenindices).  Seit der Finanzkrise 2008 sinkt die Prognosekraft. Mitte 2014 steht der Index so tief wie seit Dezember 2012 nicht mehr. Achter Rückgang in Folge. Im Oktober 2017 legt der Index stark zu. Das Risiko der Überhitzung wird gering eingeschätzt. Im Januar 2018 steigt der Index so stark wie nie. Nach der Corona-Krise steigt der Index wieder an: im September 2020 um 5,9 Punkte auf +77,4. Mitte Februar 2022 geht der Index weiter nach oben (Corona-Einschränkungen weniger). Mitte 2022 sinkt der Index sehr stark (-25,8% auf -53,8; Zinsanstieg, Rezessionsangst, Energieknappheit). Im August 2022 fällt er auf -55,3.   Auch der Index des Handelsverbandes HDE, das HDE-Konsumbarometer, zeigt die Stimmung der deutschen Verbraucher an. Er wird vom Handelsblatt - Research - Institut berechnet. Im neuen Jahr 2021 droht dem Handel durch Corona ein Fehlstart.  Prognostiziert werden auch die Steuereinnahmen von einem Arbeitskreis "Steuerschätzungen" (seit 1955). Unter Federführung des Bundesfinanzministerium treten 35 Fachleute zusammen (Wirtschaftsforscher, Statistisches Bundesamt, Deutsche Bundesbank, SRW, Länderfinanzministerien, Kommunale Spitzenverbände). Grundlage der Schätzung sind die Eckdaten der Bundesregierung. Für jede Einzelsteuer errechnen die Arbeitskreismitglieder Prognosen. Als nächstes werden die auf Bund, Länder und Gemeinden sowie die EU entfallenden Steuern ermittelt. Nach der Prognose des Arbeitskreises "Steuerschätzungen Ende 2013 werden in den kommenden Jahren die Steuereinnahmen kontinuierlich ansteigen. Im Jahre 2018 wird das 2012 erzielte Aufkommen um 131,5 Mrd. € überschritten. Die Steuerquote wird merklich zunehmen (inflations- und progressionsbedingt). Die Steuerschätzung 2014 geht von einem Plus bei den Steuern von 19,1 Mrd. € bis 2018 aus. Die Steuerschätzung 2015 rechnet für 2016 mit einem Minus von etwa 3 Mrd. €. 2016 gibt es fünf Milliarden Euro mehr für den Staat. Die Steuerschätzung 2016 rechnet für die nächsten Jahre mit höheren Einnahmen: 2016 696 Mrd. €, 2021 836 Mrd. €. Der AK "Steuerschätzung revidiert im November 2017 seine Prognose für 2017 vom Mai: Es werden 734,2 Mrd. € erwartet, 1,8 Mrd. mehr. Für 2022 lautet die Prognose 889 Mrd. €. In der Steuerschätzung 2018 erhöhen die Steuerschätzer ihre Prognose für 2018 (775,3 Mrd. €). Die Steuerschätzung 2019 (Mai) sagt in den nächsten fünf Jahren zurückgehende Steuereinnahmen voraus. Für 2020 werden -100 Mrd. € erwartet wegen der Corona-Krise. Im September 2020 legt der AK "Steuerschätzungen" eine neue Prognose vor: Corona lässt die Steuereinnahmen 2020 drastisch einbrechen (81,5 Mrd. €; Bund 44, Länder 35, Kommunen 15,6, EU 4). Bis 2024 betragen die Rückgänge -315,9 Mrd. €.  Mitte November 2020 legt der Arbeitskreis Steuerschätzung neue Zahlen vor: Die Steuereinnahmen sind höher als im September befürchtet. Die staatlichen Steuereinnahmen fallen 2021 und 2022 noch geringer aus als gedacht (Schätzung im Mai 21): Erst 2023 wird der Bund wieder so viel Steuern einnehmen wie 2019. Die Steuerschätzung im November 2021 bringt Erfreuliches zutage: Die Steuereinnahmen von Bund und Ländern dürften bis 2025 um 179 Mrd. € höher ausfallen als noch im Mai 21 geschätzt. Allein für 2021 werden 38,5 Mrd. € mehr Steuern erwartet. Nach der Schätzung 2022 können Bund, Länder und Kommunen bis 2026 mit 220,4 Mrd. € Mehreinnahmen rechnen. Die Prognose ist aber mit riesigen Unsicherheiten behaftet. Quelle: Arbeitskreis Steuerschätzungen.  Ende Oktober 2023 setzt der Arbeitskreis die Steuerschätzung bis 2026 noch mal nach oben: +126,4 Mrd. € (viele Steuern auch durch die Inflation, Umsatzsteuer, Einkommenssteuer). Die Schätzung ändert sich im Mai 2023: Der Arbeitskreis Steuerschätzungen rechnet nur noch für 2024 mit 962 Mrd. € Einnahmen. Damit gehen die Steuereinnahmen um rund 34 Mrd. € zurück. Grund ist wohl der beschlossene Inflationsausgleich.  Auch die Bundesregierung selbst erstellt jährlich eine Frühjahrsprognose. 2010 sieht die Regierung ein Ende der Krise und ein kleines Job-Wunder. Für 2011 wird mit 2,6% Wachstum (2012 1,8%) gerechnet. In der Schätzung im Herbst 2011 werden für den Gesamtstaat 16,2 Mrd. € mehr Steuern erwartet. Im April 2015 wird für 2015 und 2016 ein Wirtschaftswachstum von 1,8% erwartet. Trotz des ungelösten Handelskonflikts mit der USA rechnet die Bundesregierung 2018 mit dem kräftigsten Wirtschaftswachstum seit 2011. Es werden 2,3% erwartet (2019 2,1%). Das Plus kommt durch höhere Konsumausgaben, Exporte und den Bauboom. 2021 wird die Prognose der Bundesregierung mehrmals revidiert wegen der Corona-Krise. Man rechnet 2021 mit +3,6% Wachstum des BIP. 2023 werden 0,4% Wachstum des BIP erwartet und eine Inflationsrate von 5,9%. Prognosen macht ebenfalls die EU-Kommission. Sie sind in der Regel für das laufende und das folgende Jahr. Sie werden sowohl für die EU als auch für die Eurozone erhoben. Im Mai 2023 ist die EU-Kommission zuversichtlich. Sie gibt folgende Frühjahrsprognose für die EU ab: Wirtschaftswachstum 2023 1,0%; 2024 1,7%. Inflation 2023 6,7%; 2024 3,1%. Arbeitslosigkeit 6,2%; 2024 6,1. Staatsverschuldung 2023 -3,1%; 2024 -2,4%. Die Prognose gibt es auch für die Eurozone.  Konjunkturprognosenprognosen werden auch von der OECD erstellt. "Meide den, der behauptet, sowohl "was" als auch "wann" vorherzusagen", Michael Burda, Ökonom, Humboldt-Uni Berlin. Mittlerweile wird versucht, mithilfe von Internetsuchanfragen die Konjunkturprognosen zu verfeinern. Googlemetrics wird diese neue Disziplin genannt. Für Prognosen gilt: Je größer die Zielscheibe, desto besser die Schützen.

"Die Zukunft gehört denen, die die Möglichkeiten erkennen, bevor sie offensichtlich werden", Oscar Wilde.

Die Prognose ist eines der schwierigsten Gebiete der empirischen Wirtschaftsforschung. Im langfristigen Durchschnitt bewegen sich die Fehler bei Konjunkturprognosen in einer Größe von mehr als einem Prozentpunkt. Die "Wirtschaftsweisen" irrten sich im Schnitt um 1,22 Prozentpunkte. Für 2013 lieferte die Deutsche Bundesbank die treffsichere Prognose (Wachstum 0,4%, Inflation 0,5%). Die Wirtschaftsforschungsinstitute, die EU-Kommission und die Banken hatten das Nachsehen. Exakte Prognosen sind im Bereich der Bevölkerung und der Ernte möglich. In der Regel sind Prognosen bedingt, d. h. sie treffen nur zu, wenn bestimmte angenommene Rahmenbedingungen eintreten. In der Statistik wird normalerweise die Trendextrapolation mit Hilfe der linearen Regression gelehrt. Im 17. Jahrhundert schrieb der Wissenschaftler Robert Boyle eine so genannte Wunschliste der Zukunft. Die meisten Vorhersagen wurden war: Krankheiten durch Transplantation heilen, fliegen können, geographische Breiten finden (Navi) und ein Schiff, das mit allen Winden segelt (Motorschiff). Konjunkturprognosen scheitern oft an einschneidenden Ereignissen (Krisen, Kriegen, Naturkatastrophen). Konjunkturprognosen werden sinnvollerweise auf der Grundlage saisonbereinigter Daten erstellt. Extreme Wetterlagen werden aber nicht richtig berücksichtigt. Oft werden Prognosen als bedingte Prognosen ausgeführt (verschiedene Annahmen), was zu verschiedenen Szenarien führt. Eine immer größere Rolle spielen politische Krisen in Prognosen. Sie gehören zu den Bedingungen, die schwer einzuschätzen sind. "Vorhersagen sind schwierig, vor allem über die Zukunft", (wird Mark Twain, Niels Bohr oder Albert Einstein zugeschrieben). Eine Studie der Universität Oxford 2015 weist nach, dass aufwendige Konjunkturprognosen nicht treffsicherer sind als kundige Schätzungen (Simon Wren-Lewis).

In Prognosen sind die Wirtschaftswissenschaften immer recht ungenau ("dismal science"), im angelsächsischen Bereich gegenüber den exakten Naturwissenschaften). Das liegt daran, dass in wirtschaftlichen Zusammenhängen Menschen im Mittelpunkt stehen. Menschliches Verhalten ist nur bedingt vorhersehbar (Menschen ändern ihr Verhalten). Häufig unterliegen Wissenschaftler auch der Versuchung, aufgrund der Vergangenheit die Zukunft vorauszusagen. Meist macht die Ökonomie nur "wenn - dann - Aussagen". Man spricht auch von Szenarien. In Ghana droht bei schlechten Prognosen das Gefängnis. Es dürfen nicht Stellungnahmen und Gerüchte veröffentlicht werden, die Angst hervorrufen oder Alarm auslösen. Auch tiefere ökonomische Krisen dürfen nicht vorausgesagt werden. Erlaubt sind schlechte Prognosen über das Ausland.

Nicht vorhersehbar sind etwa Pandemien. Corona hat für diesen Zeitpunkt Frühjahr 2020 niemand vorhergesehen. Umso schwieriger wird das Geschäft der Prognose. Es geht um die Frage, wie stark die Wirtschaft leidet. Mathematik und Bauchgefühl müssen optimal kombiniert werden. Man spricht auch von "educated guess": Es handelt sich immer um eine Einschätzung von klugen, exzellent ausgebildeten Menschen, die sich mit allen verfügbaren Hinweisen beschäftigen, um herauszufinden, "wohin das Auto mit den zugeklebten Scheiben fährt". Siehe und vgl. Rudzio, Kolja: Mit Mathematik und Bauchgefühl, in: Die Zeit Nr. 49, 26.11.20, s. 32.

"Der Trend stellte sich stets schwächer dar, ich selbst wurde bald nichtlinear. Ich sah das Gedankengebäude stehn, von außen, als wär` ich exogen. Und niemals werde ich erfahren, was Ober- und Untergrenze waren. Mein Geist mir selbst der Unbekannte, vermengt ex post nun mit ex ante: Meine Gedanken sind unelastisch, mein Handeln unheilbar stochastisch". Aus "Klagelied des Nicht-Ökonometrikers" von D. H. Robertson (O. V. Trebeis: Nationalökonomologie, Tübingen 1994, S. 251f.

Das Zentrum für gesellschaftlichen Fortschritt (Stefan Bergheim) misst seit 1970 die gesellschaftliche, ökonomische und ökologische Entwicklungen in 22 reichen Ländern. In diesem Fortschrittsindex liegen die skandinavischen Länder Norwegen, Schweden und Finnland vor Japan. Deutschland liegt an 18. Stelle. Berücksichtigt werden vier Dimensionen: Bildung, Einkommen, Gesundheit, Umwelt. Die Wirtschaftswoche (zusammen mit GPRA und TNS Emnid) berechnet einen Vertrauensindex für unterschiedliche Sparten in Deutschland. Hier liegen Die Automobilbranche und Lebensmittelbranche an der Spitze. Bewertet werden Ehrlichkeit, gesellschaftliche Verantwortung, vertrauensvoller Umgang mit den Mitarbeitern, vertrauensvoller Umgang mit Kunden und Kompetenz bzw. Qualität.

Nirgendwo sind Prognosen schwieriger als an der Börse. Die alten Modelle der Banken waren nicht komplex genug. Den Berechnungen der Ökonomen fehlte die Aktualität. Nun versuchen Hedge - Fonds den chaotischen Anforderungen mit Künstlicher Intelligenz (KI) gerecht zu werden. Die ersten Versuche sind viel versprechend. Wenn die Erfolge sichtbar sind, wird sicher die Konjunkturprognose insgesamt auf KI zurückgreifen. Die Zahlen des Statistischen Bundesamtes müssten aber schneller zur Verfügung stehen und transparenter sein. Das Bundeswirtschaftministerium hat 2019 ein Projekt "Big Data und Makroökonomie" gestartet. Vgl. Losse, Bert: Die schwierige Kunst der Propheten, in: WiWo 27, 28.6.2019, S. 38f. Vielleicht lassen sich mithilfe von künstlicher Intelligenz Vorhersagen verfeinern. Vielleicht kann man dadurch sogar Förderprogramme zielgenau zuschneiden.

Empirische Wirtschaftsforschung mit Algorithmen (virtuelle Ökonomie, Data Science): Man spricht von Artifical Intelligence (AI) Economist. Mit Hilfe riesiger Datenmengen soll das Verhalten der Wirtschaftssubjekte unter verschiedenen Rahmenbedingungen simuliert werden. Nicht volkswirtschaftliche Theorien stehen im Mittelpunkt, sondern Algorithmen. Es geht weniger um die Überprüfung theoretischer Hypothesen, sondern  darum, Muster zu erkennen und Vorhersagen zu treffen. Ein Salesforce - Team arbeitet an einem Forschungsprojekt dazu (Richard Socher, David Parkes/ Harvard). Als erstes Untersuchungsprojekt wurde die Steuer- und Verteilungspolitik ausgewählt. Noch werden Faktoren wie Bildung, Religion, Status, Geschlecht nicht berücksichtigt. Das Modell ist noch relativ einfach. In Deutschland könnte der hohe Datenschutz eine Hürde sein. Beim Bundesforschungsministerium wurde ein Rat für Sozial- und Wirtschaftsdaten eingerichtet. Vgl. Losse, Bert/ Hohensee, Matthias: Professor Algorithmus, in: WiWo 26, 196.2020, S. 38f. Die Forschung mit Big Data für die Konjunkturforschung wird immer mehr verfeinert und ausgebaut. Vielleicht werden die Konjunkturprognosen treffsicherer. Vgl. Adamsen, Hendricke: Die Suche nach den magischen Daten, in: Wiwo 25/ 16.6.23, S. 38f.

Firmenmodelle für die Zukunft: Grundlage kann etwa die Formtheorie von Spencer-Brown sein. Das Zukunftsinstitut entwickelte daraus die Methode der Re-Gnose. Die Position eines Unternehmens wird in Markt und Gesellschaft ganzheitlich verortet. Damit wird die Grundlage für einen Wandlungsprozess gelegt. Produkt, Verfahren, Organisation, Markt, Wirtschaft, Gesellschaft, Mensch werden verbunden mit Arbeit, Management, Business Modell, Unternehmenskultur, Kommunikation, Grundbedürfnissen. Vgl. Horx, Matthias: Die Zukunft nach Corona, Berlin (Econ) 2020.

Funktionsweise von Prognosen: Wichtig ist das zugrunde liegende Modell. Bekannt ist der Zukunftstrichter von Joseph Voros. Es ist ein Versuch, die Unmöglichkeit von Prognosen abzubilden. Je weiter sie in dei Zukunft reichen, formt sich in einem Koordinatensystem ein Trichter, dessen Spitze in der Gegenwart liegt und Richtung Zukunft immer weiter wird. Hierin sind auch wichtige Ereignisse abgebildet (Krebserkrankungen sind besser behandelbar, Aktivitäten im Metavers, Dritter Weltkrieg, Erderwärmung). Vgl. Fichtner, Ullrich: Geboren für die großen Chancen, in: Der Spiegel Nr. 52. 24.12.21, S. 12ff.

Geschichte von Prognosen: Eine der ersten Denkfabriken für Zukunftsforschung war die RAND Corporation in den USA. Sie wurde 1948 vom Flugzeugbauer Douglas gegründet. Sie erstellte Studien und Analysen für das Militär. Es gab schon Vorläufer während des Krieges. Im Kalten Krieg entstanden solche Forschungseinrichtungen auch in anderen Ländern für militärische Zwecke. Erst in den Sechzigerjahren entstanden zivile Einrichtungen. Die Zuverlässigkeit der Vorhersagen kann kaum geprüft werden. Jede Vorhersage verändert die Gegenwart und auch die Zukunft.

-Messung von Wohlstand: Immer mehr rückt man vom Bruttonationaleinkommen (oder BIP) ab. Das Bruttonationaleinkommen eignet sich nur bedingt als Indikator für Wohlstand (eine einzelne Zahl hat immer beschränkte Aussagekraft). Die Haushaltsproduktion, ökologische und soziale Aspekte, Ehrenamt, Arbeit für die Familie und Schwarzarbeit finden keine Berücksichtigung. Im Finanzsektor treiben Spekulationsblasen die Marktwerte nach oben. Das Leben ist immer mehr als Transaktionen. Der Gini-Koeffizient kann die Verteilung von Reichtum darstellen. Der ökologische Fußabdruck misst, wie viel Agrarland benötigt werden, um die Ressourcen zu beschaffen, die die Einwohner verbrauchen. Der Index der menschlichen Entwicklung (Human Development Index, HDI) wird jährlich vom UNDP der UN berechnet. Neben BIP pro Kopf gehen auch Lebenserwartung und Bildungssystem ein. 2012 liegt hier Norwegen vor Australien. 2018 gewinnt auch wieder Norwegen. Hinter der Schweiz und Irland liegt Deutschland auf Platzt vier. Der Glücks-Index (Happy Planet Index, HPI) kombiniert Lebenserwartung, Lebenszufriedenheit und ökologischen Fußabdruck. Beabsichtigt ist auch, dass Bruttonationaleinkommen breiter zu messen: Der Konsum ist in reichen Ländern nicht mehr so sehr Glücksbringer, weil die materiellen Grundbedürfnisse befriedigt sind. Andere Wünsche rücken ins Blickfeld, wie Umwelt, Arbeitsbedingungen und sozialer Zusammenhalt. Trotzdem hängt Zufriedenheit auch immer noch von Geld ab. Interpretiert man Wohlstand Richtung Lebensqualität kommen weitere Größen dazu: Nicht-Armutsrisiko, Soziale Kontakte und Beziehungen, Bildung, Gesundheit, persönliche Aktivitäten. Mittlerweile hat sich der Nationale Wohlfahrtsindex (NWI) etabliert. Er bezieht das natürlich, soziale und wirtschaftliche Kapital ein. Entwickelt wurde er an der FU Berlin und einer Heidelberger Forschungsstätte. Wichtige Informationen zum Wohlstand in Deutschland ermittelt auch das Sozioökonomische Panel (SOEP) des DIW in Berlin. Seit 25 Jahren läuft diese Umfrage bei rund 11.000 Haushalten. Es geht um die finanzielle, berufliche und soziale Situation. Hauptfinanzier ist das Bundesforschungsministerium (9 Mio. €). Die Umfragen führt infas durch. Es gibt eine Sonderstichprobe Flüchtlingshaushalte (bis 2022, seit 2016). Das Gegenteil von Wohlstand misst die Armutsquote. Nach der amtlichen Grenze beginnt in Deutschland unterhalb eines Einkommens von 60 Prozent des Medians die Armut. Der Median ist das Einkommen, welches von 50 Prozent der Bevölkerung über- und von 50 Prozent unterschritten wird. Wenn sich das Einkommen sehr stark erhöht, erhöht sich natürlich auch der Median. Außerdem ist das steuerlich erfasst Einkommen zu unvollkommen (Schwarzarbeit, Haushaltsproduktion). Die Quote misst also weniger die Armut als die Ungleichheit. Ab 2019 soll die Messung der Situation bei Superreichen verbessert werden. In Deutschland fehlt es an validen Informationen über die Reichenhaushalte. Bisherige Quellen waren die EVS, die Vermögensanalysen der Deutschen Bundesbank und das SOEP. Neue Projekt sind geplant: "Oversampling" der Deutschen Bundesbank, eigenes Umfrage - Panel über die Hochvermögenden. Vgl. Lösse, Bert: Blackbox Superreiche, in: Wirtschaftswoche 10, 1.3.2019, S. 40f. Healthiest Country Index: Rangliste, die vom US-Medienkonzern Bloomberg auf gestellt wird. Als Indikatoren gehen ein Ernährung, ärztliche Versorgung, Lebensart, Lebenserwartung u. a. ein. 2019 liegt Spanien an der Spitze. Der OECD Better Life Index ist ein interaktives Tool, mit dem User verschiedene Länder im Bezug auf elf Faktoren des Wohlergehens vergleichen können, darunter Umwelt, Gesundheit, Zufriedenheit.  Der Social Progress Index (Porter/ Stern) misst anhand von 54 Indikatoren, inwieweit Länder die Bedürfnisse ihrer Bürger erfüllen. Dazu gehören auch menschliche Grundbedürfnisse sowie Bedürfnisse im Zusammenhang mit Chancen.

Wohlstand in der EU: Gerechtigkeitsindex der Bertelsmann-Stiftung. Nach der Finanzkrise droht der EU eine soziale Spaltung: Die Bertelsmann-Stiftung hat einen EU-Gerechtigkeitsindex konstruiert: Danach hat sich das Gefälle zwischen den Staaten Nordeuropas und Südeuropas vergrößert. Deutschland liegt auf Platz sieben. Dänemark und die Niederlande an der Spitze. Auf dem letzten Platz liegt Griechenland.

Jahreswohlstandsbericht der Grünen in Deutschland: Er enthält folgende Kernindikatoren: Umwelt - Ökologischer Fußabdruck, Artenvielfalt und Landschaftsqualität; Soziales - Einkommensverteilung, Bildungsabschlüsse. 3. Wirtschaft - Nationaler Wohlfahrtsindex, Anteil von Umweltschutzgütern an den Industriewarenexporten. 4. Gesellschaft - Subjektive Lebenszufriedenheit, Governance-Index.

Nationaler Wohlfahrtsindex (NWI): Einst vom Umweltbundesamt gefördert, heute vom gewerkschaftsnahen Institut für Makroökonomie und Konjunkturforschung und er evangelischen Kirche. . Forscher sind Hans Diefenbacher, Roland Zieschank. Der Index wird seit 1991 berechnet. Der alternative Index berücksichtigt Einflüsse, die sonst vernachlässigt werden: Einkommensverteilung, Privater Konsum, Wert der Hausarbeit, Wert ehrenamtlicher Arbeit, Ausgaben für Gesundheit und Bildung, Kosten der Treibhausgas-Emissionen, Chancenverteilung, Kriminalität, Verkehrsunfälle. Vgl. Heuser, Uwe Jean/ Pletter, Roman: Maßloser Wohlstand, in: Die Zeit Nr. 34, 13. August 2020, S. 21ff.

Die Stiglitz - Kommission (mit Sen) hat 2009 Empfehlungen gemacht, wie Wohlstand und Lebensqualität besser zu ermitteln sind. Diese Vorschläge greifen Ende 2010 die Wirtschaftsweisen in Deutschland und Frankreich auf. Sie schlagen keine weichen Faktoren wie "Happiness", aber die Aufnahme von "Lebensqualität" und "Nachhaltigkeit" vor. Im Januar 2011 nimmt eine Bundestagskommission zur Wohlstandsmessung ihre Arbeit auf. Sie ist mit 17 Abgeordneten und 17 Wissenschaftlern besetzt. Sie heißt Enquete-Kommission "Wachstum, Wohlstand, Lebensqualität" (Chefin Daniela Kolbe, SPD). Neben Lebensqualität sollen auch Verteilungsfragen, Verschuldung, Bildung, Gesundheit, Freiheit und Umwelt eine Rolle spielen. Wertschöpfung soll genauer erfasst werden (Schwerpunkt technischer Fortschritt). Schäden durch soziale Ungleichheit sind sehr umstritten. Für den Bereich "Ökologie" gibt es drei Leitindikatoren: Treibhausgase, Artenvielfalt und Stickstoffbelastung. Zusätzlich werden zehn Warnindikatoren definiert. In der dritten Gruppe von Hermann Ott einigt man sich auf "Möglichkeiten und Grenzen der Entkopplung". Dann aber ist es mit der Einigkeit vorbei. Vor der Bundestagswahl 2013 ist die Kommission erst einmal gescheitert. Die Mehrheit der Regierungskoalition ist für ein Armaturenbrett ("dashboard"), dass verschiedene Indikatoren nach Bedarf hinzunimmt als Beilage und bei der politischen Steuerung helfen soll. Im April 2013 wird der Abschlussbericht vorgelegt. Im Mai wird er im Bundestag diskutiert. Resultat könnte ein jährlicher Wohlstandsbericht sein. England und Frankreich haben ähnliche Kommissionen. Die Diskussion ist in China und Indien auch sehr stark (Industrieländer als Vorreiter!). Vgl. www.destatis.de (Startseite, "Unseren Wohlstand messen künftig zehn Indikatoren"). Neuerdings gibt es auch Ansätze, die Bevölkerungsstimmung als Indikator für das Wirtschaftswachstum heranzuziehen (vgl. Bruttel, O.: Bevölkerungsstimmung als Indikator für Wirtschaftswachstum, in: Wirtschaftsdienst 2013/ 6, S. 390-395).   "Wohlstand beginnt dort, wo der Mensch anfängt, mit dem Bauch zu denken", Norman Mailer, US-Schriftsteller.

Welthunger-Index: Nach dem Welthunger-Index 2015 hungern weltweit 795 Menschen (oder leiden an Unterernährung; Quelle: Welthungerhilfe). Eine der Hauptursache sind die bewaffneten Konflikte Der Welthunger-Index erfasst die Situation in 117 Ländern.

Index für die Vorsorgesysteme der Nationen (Melbourne Mercer Pensionsfonds Index): Am besten schneiden Dänemark und die Niederlande ab. Deutschland liegt auf dem 13. Rang. In den Indikator fließen ein Armut im Alter, Fairness, Rücklagen u. a.

-Messung des Konsums: Seit 2010 gibt es einen Frühindikator für die Ausgaben der privaten Verbraucher. Er wird am DIW in Berlin erstellt. Datengrundlage sind die monatlichen Umfragen der EU-Kommission (Dreger, C./ Kholodilin, K.: Forecasting Private Consumption by Consumer Surveys, DIW, Berlin Sept. 2010). Das RWI in Essen berechnet den Konsumindikator. Er besteht aus 41 Kategorien, die für private Konsumausgaben besonders relevant erscheinen.  Das RWI veröffentlicht seit 2011 alle drei Monate einen aktualisierten Indikator. Grundlage sind Google-Daten. Das Handelsblatt Research Institute veröffentlicht den HDE-Konsumbarometer. Es besteht aus sechs Fragen an repräsentativ ausgewählte Konsumenten. Erhoben werden Konsum- und Sparneigung.

Das Marktforschungsunternehmen GfK konstruiert den Konsumklimaindex. Dies geschieht seit 1980 (2000 Verbraucher, 600 Interviewer, alle Ausgaben der privaten Haushalte, drei Teile: Anschaffungsneigung, Einkommenserwartung, Konjunkturerwartung). 2014 wird eine Revision des Indikators in Angriff genommen. Gesamtwirtschaftliche Aspekte wie Preiserwartungen und Arbeitslosigkeit spielen heute eine größere Rolle. Die GfK ist nicht mehr unabhängig. Sie wird von Investor KKR dominiert und umgebaut.

-Messung von Verschuldung und Haushaltstransparenz: Schlüsselgrößen der Staatsverschuldung: 1. Schuldensumme. 2. Zins. 3. Wachstum. 4. Etatsaldo.

Die aktuelle Entwicklung der Schulden wird mit folgender Formel berechnet: Aktuelle Schuldenquote=(1 + Z)/1 + W) x Schuldenstand/Bruttoinlandsprodukt des Vorjahres - E. Legende: Z für Zins, W für Wachstum, E für Etatsaldo.

Das ZEW entwickelt 2021 einen Indikator für Transparenz im Bundeshaushalt. Im Auftrag des Bildungsministeriums wurde der neue Indikator entwickelt. Er misst die "Zukunftsquote". Die soll ausdrücken, wieviel Geld der Bund für Zukunftsaufgaben ausgibt. Aktuell 2021 liegt die Quote unter 20% (2019 18,3%, 65,3 Mrd. €). In die Zukunftsquote finden solche Positionen Eingang, die zur Erhaltung oder Verbesserung von Sach-, Natur- und Humankapital führen. Vgl. HB Nr. 212, 2.11.21, S. 13.

-Messung der Verteilung: International vergleicht man normalerweise den Gini-Koeffizienten. Der Wert eins definiert totale Ungleichheit. Bei null besteht völlige Gleichheit. Graphisch kann dies an der Lorenz-Kurve dargestellt werden. Deutschland liegt beim Einkommen bei 0,3 (gleicher als USA, Japan, China, Großbritannien). Die USA liegen bei 0,38, Japan bei 0,33 .Dänemark hat einen Wert von 0,25 (OECD). National werden Einkommens- und Vermögensverteilung betrachtet. 2008 hatte in Deutschland das reichste Zehntel der Bevölkerung 52,9% des Nettovermögens. 1,2% des Vermögens sind im Besitz der ärmeren Hälfte der Haushalte (Quelle: EVS 2008; 4. Armuts- und Reichtumsbericht; Der Spiegel 7/2013, S. 40). 2010 gegenüber 2000 hatte das unterste Zehntel  der Haushalte bezogen auf das verfügbare Einkommen einen Rückgang von -10,3% zu verzeichnen. Das oberste Zehntel einen Zuwachs im gleichen Zeitraum von 15,5% (Quelle: SOEP, DIW Berlin). Es gibt große statistische Defizite. Das Statistische Bundesamt kann über Vermögen über 2 Millionen Euro kaum Angaben machen. Völlig unzureichend sind die Informationen über die Verteilung des Produktivvermögens. Immer wieder umstritten ist auch die Armutsgrenze (klar ist, dass sie relativ ist). Hier sind die Statistiken bei Auswertung immer schon einige Jahre alt (5 Jahre). Der Gini-Koeffizient wird auch in Deutschland beim Netto-Vermögen errechnet. 2008 war der Wert 0,75. International misst die NGO Oxfam die Verteilung. Die Messung ist nicht transparent. 2022 ist die Ungleichheit in der Welt größer geworden durch den Anstieg der Lebensmittel- und Energiepreise.

-Messung des Arbeitsmarktes: 1. Arbeitsmarktbarometer: Konstruiert und gemessen vom IAB in Nürnberg. 100 ist die neutrale Situation. 90 wäre eine schlechte Situation. 110 eine extrem gute Situation. Im März 2023 liegt der Wert bei 103,4. Vom Januar 2024 auf Dezember 2023 entwickelt es sich positiv: um 0,2 auf 100,3 Punkte. 100 ist der neutrale Wert. Der Index gilt als Frühindikator für die Arbeitsmarktentwicklung.

2. Arbeitslosenquote. Vgl. zu diese rund weiterer Kennzahlen Arbeitsmarkt bei Special/ Arbeit.

-Messung der Produktivität: 1. Veränderung des realen Bruttoinlandsprodukts je Erwerbstätigenstunde. Das wird vom Institut der deutschen Wirtschaft berechnet.

2. Arbeitsproduktivität: Output pro eingesetzter Einheit Arbeit. Langfristig ist die Produktivitätszunahme die wichtigste Basis für Einkommenssteigerungen. Anstieg 2006 in D um 2%, im Schnitt der vergangenen 10 Jahre 1,7%, USA 2,3%.  Stark ist der Anstieg der Arbeitsproduktivität vor allem in der Landwirtschaft. Dazu beigetragen haben veränderte Produktionsmethoden (Maschinen), Düngemittel und Pflanzenschutzmittel. Ursprung der Arbeitsproduktivität ist die Arbeitsteilung, die Adam Smith anschaulich in seinem Stecknadelbeispiel beschreibt (Der Wohlstand der Nationen, München 1978, S. 11f). Durch verschiedene Maßnahmen kann man erreichen, dass in Betrieben mehr Beschäftigte gehalten werden als man braucht, gemessen am langfristigen Produktivitätstrend (Kurzarbeit, Arbeitszeitkonten). 2009 sind dies eineinhalb bis zwei Millionen. In der Industrie entdeckte F. W. Taylor als erster, dass Serienprodukte am billigsten hergestellt werden können, wenn die Arbeit in möglichst kleine Teilaufgaben zerlegt wird. Dies fand bei Henry Ford großen Anklang, der nach dieser Idee die Fließfertigung aufbaute. "His promotion came like a bolt from the blue - Seine Beförderung kam wie ein Blitz aus heiterem Himmel". Das Wachstum der Arbeitsproduktivität verläuft immer langsamer: In den USA lag das Wachstum zwischen 1891 und 1972 bei 2,36%. Von 1972 bis 1996 wuchs sie um 1,38%. Von 2004 bis 2013 betrug die Wachstumsrate 1,33%. Damit wächst die Arbeitsproduktivität immer langsamer. Hängt das mit der Digitalisierung zusammen? Von der Entwicklung der Arbeitsproduktivität hängt stark unser Wohlstand ab. Nach Robert Gordon, einem der Experten aus den USA, hat sich die Arbeitsproduktivität in den USA (Jahresdurchschnittliche Wachstumsrate des BIP pro Stunde) wie folgt entwickelt: 1891 bis 1972 2,4%, 1972 bis 1996 1,2%, 1996 bis 2004 2,6%, 2004 bis 2013 1,3%, 2013 bis 2018 0.6%. Er sagt ein Ende der großen Innovationen voraus.

3. Schwieriger als nur die Arbeitsproduktivität ist die totale Faktorproduktivität zu ermitteln (vgl. Krugman: Die große Rezession a. a. O., Kap. 2), die als Maß für das technologische Niveau einer Volkswirtschaft gilt (Produktionsvolumen je Inputeinheit, wobei die verschiedenen Inputs mit ihren Faktoranteilen gewichtet werden). Die Änderung wird als Solow-Residuum gemessen. R. M. Solow (1924, Nobelpreis 1987) sah in der totalen Faktorproduktivität das Geheimnis des Wachstums.

4. Gesamtfaktorproduktivität: Grad der Effizienz, mit dem die Produktionsfaktoren (Arbeit, Boden/Ressourcen, Kapital) genutzt werden. Es gibt eine ganze Reihe von Einflussfaktoren sowohl ökonomischer als auch soziokultureller Art. Damit kann man auch die großen Unterschiede im Pro-Kopf-BIP einzelner Länder erklären (neben dem statistischen Artefakt der Bevölkerungsgröße und der Auswirkungen der Kapitalbildung). In den letzten zehn Jahren (2016 rückwärts) hat sich die Produktivität (Gesamtproduktivität, aber auch Arbeitsproduktivität) weltweit kaum erhöht. Das wird auch als Produktivitätsparadoxon bezeichnet. Es ist sicher eine wesentliche Ursache für fehlendes Wachstum.

-Messung der Wettbewerbsfähigkeit von Staaten (und Städten): 1. Global Competitiveness Index, World Economic Forum. Hierbei führen 2013 Schweiz, Singapur und Finnland. Deutschland rückt auf den 4. Platz vor. 2016 fällt Deutschland auf Platz 5 hinter die Niederlande zurück. 2017 kann Deutschland diesen fünften Platz halten. 2018 rückt Deutschland auf Platz drei vor (hinter USA und Singapur). 2. World Competitiveness Yearbook, IMD. 2014 fällt Deutschland von Platz 6 auf Platz 9 zurück. 3. Global Innovation Index, Insead. 4. Sustainable Goverance Indicator, Bertelsmann-Stiftung. 5. Index of Economic Freedom, Heritage Foundation. 6. Doing Business Index, Weltbank. 7. Corruption Perception Index, Transparency International. 8. Lohnstückkosten (VWL): Indikator für die preisliche Wettbewerbsfähigkeit. Sie errechnen sich aus dem Verhältnis der Arbeitskosten zum realen Bruttoinlandsprodukt. Steigt die Produktivität (reale BIP je Stunde) stärker als die Arbeitskosten je Stunde, sinken die Lohnstückkosten. In gewisser Hinsicht ist auch die Exportquote ein Indikator für die Wettbewerbsfähigkeit (2012: 41,5%). Die Weltbank arbeitet mit dem "Doing-Business-Index". Er misst die Qualität der Rahmenbedingungen für Unternehmen. Es gibt 36 Indikatoren (u. a. Steuersystem, Effizienz der Gerichte) . 2012 führt Singapur vor Hongkong und Neuseeland. In letzter Zeit rücken die Energiestückkosten als Indikator für Wettbewerbsfähigkeit immer mehr in den Mittelpunkt. Umstritten sind die Berechnungsmethoden. 2023 liegt Deutschland nur noch auf Platz 22. Es führt Dänemark vor Irland und der Schweiz.

Im weitesten Sinne zur Wettbewerbsfähigkeit gehört auch die Innovation. Es gibt einen weltweiten Innovationsindex (Cornell University). Hierin werden ausgewählte Indikatoren zusammengefasst. Darunter spielen eine Rolle: Die Patentanmeldung in Relation zum BIP; Zugang zu Krediten; Know-how der Beschäftigten; IT - Nutzung; Bildungssystem; Cluster; Attraktivität für Investoren; Flexibilität und Stabilität.  Deutschland liegt 2014 auf dem 12. Platz. An der Spitze steht die Schweiz.

Ebenfalls Innovationen misst der Acatech-BDI-Innovationsindikator. Die innovativsten Länder sind die Schweiz, Singapur, Finnland, Belgien und Deutschland. Beim Subindikator Wirtschaft führt die Schweiz vor Süd-Korea, den USA, Taiwan und Israel (Quelle: Acatech-BDI-Innovationsindikator 2015).

Der Digital Readiness Index von Karl-Heinz Land und der Wirtschaftswoche versucht die Digitalisierung der Wirtschaft zu messen.

Der Standortindex DIGITAL des Bundeswirtschaftsministeriums: Er besteht aus 48 Indikatoren. 1. Markt (17 Indikatoren). 2. Infrastruktur (17 Indikatoren). 3. Nutzung (14 Indikatoren). Vgl. Gerpott, T. J.: Standortindex DIDITAL: Nützlich zum Erkennen von Handlungserfordernissen im IKT-Sektor?, in: Wirtschaftsdienst 2016/1, S. 26ff.

Standortindex des IW: Bewertung des Standortes. Man misst eine Reihe von Indikatoren: Unternehmerische Freiheit, Zahl der Steuerzahlungen, Zeitaufwand bei Steuerzahlungen, Breitband, Lebenserwartung, Unternehmenssteuern, Einkommensteuer, Arbeitskosten, Stromkosten. Deutschland liegt auf Platz 4 hinter Schweiz, USA, Niederlande.

Nation Brands Index: Er misst das ansehen der Nationen in den sechs Bereichen Regierung, Exporte, Tourismus, Investment & Immigration, Kultur sowie Menschen. 2016 lag Deutschland an erster Stelle. Es folgen die USA und Japan.

Wirtschaftswoche-Zukunftsindex und Niveauranking: Bewertet werden Städte in Deutschland. Bei der Zukunft liegt 2017 Darmstadt an erster Stelle vor München. Beim Niveau führt München vor Ingolstadt.

Risikoatlas: Bewertungskriterien sind Politische Stabilität, Gefahr von Streiks, Unruhen, Sabotage, Terror, (Bürger-) Krieg, Aufstände.  es werden Gefahrenstufen unterschieden. Es gibt fünf. Quelle: AON.

Global Competitiveness Report (World Economic Forum): 2019 wurden 141 Länder untersucht. Es führte Singapur vor den USA und Hongkong. 

Doing Business Index (World Bank 2019): In 190 Ländern. Es führt Neuseeland vor Singapur und Dänemark.

Anteil (Prozentsatz) des Tourismus an der Bruttowertschöpfung (BIP): Krisenanfälligkeit von Ländern in Pandemien. Je höher der Anteil ist, desto höher ist die Krisenanfälligkeit (Spanien, Italien, Griechenland). Im deutschen Fall spricht man insofern von "Branchen-Glück".

Leistungsfähigkeit von Volkswirtschaften: Indikatoren: 1. Bruttoinlandsprodukt je Einwohner (hier führen die USA). 2. Einkommensverteilung (Gini, geringster Wert wichtig, Schweden vorne). 3. Arbeitsproduktivität (BIP je Beschäftigten in Dollar, es führt Schweden). 4. Erfindergeist (Internationale Patentanmeldungen, China vorne). 5. Wettbewerbsfähigkeit (WEF, es führen die USA vor Japan). Hochschulabschluss (es führt Großbritannien). Vgl. Pennekamp, J.: Soziale Marktwirtschaft in der Zange, in: FAZ Nr. 92, 21. April 2021, S. 19.

Messung der Wettbewerbsfähigkeit durch das ZEW/ Mannheim: Im Mittelpunkt stehen Schlüsseltechnologien, Innovationen und Patente. Es geht insgesamt um 6 Faktoren. Gemessen wird in Europa.  Deutschland fällt 2022 auf den 18 Platz unter den 21 führenden Ländern zurück. Die USA sind Spitzenreiter, auf dem letzten Platz ist Ungarn. Der Länderindex wird seit 2006 erhoben. Verbesserung in Deutschland wird vor allem beim Bildungswesen gesehen.

Resilienz einer Volkswirtschaft, Roman Herzog Institut: Damit muss aber auch die ganze Volkswirtschaft krisenfester  werden. Deutschland zeigt sich durchaus resilienter als andere Wirtschaftsnationen. Bei der Gesamt - Resilienz (Index; 10 bester Wert, 0 schlechtester Wer; bestehend aus Wirtschaft, Umwelt/Ökologie, Inklusion) führt Norwegen, vor Finnland, Schweden, Schweiz Dänemark. Deutschland liegt mit 7,9 vor den USA, Bulgarien, China und Russland. Quelle: Roman Herzog Institut, Fund of Peace, HB 28.3.23, S. 9.

Modernität einer Volkswirtschaft (vfa, über Kapitalstock):  Zum Kapitalstock eines Landes zählen Fabrikgebäude, Maschinen, Straßen, Schulen, geistiges Eigentum, Software, Datenbanken. Der Kapitalstock bildet mit den Arbeitskräften die Grundlage dafür, wie sich eine Volkswirtschaft entwickeln kann. Um die Modernität des Kapitalstocks zu erfassen, werden Bruttokapitalstock (alle Güter mit ihrem Neuwert) zum Nettokapitalwert (Abschreibungen abgezogen) in  Beziehung gesetzt. Deutschlands Kapitalstock hat in den vergangenen Jahren erheblich an Qualität eingebüßt. Deutschland liegt hinter Kanada, Frankreich, Südkorea und anderen. Studie der Volkswirte des vfa 2023.

-Messung der Digitalisierung: Digitalisierung bei KMU: Die Deutsche Telekom erstellt einen Digitalisierungsindex. Der wird auch speziell für KMU gemacht: Digitalisierungsindex Mittelstand.  Der Gesamtindex aller KMUs liegt bei 100. Daran gemessen ergeben sich für einzelne Sparten folgende Werte 2020: Digitalisierung der Dienstleister 51, 05. Beziehung zum kunden 48, -7. Digitale Angebote und Geschäftsmodelle 39, -9. IT - Informationssicherheit, Datenschutz 68, 0.

Der Standortindex DIGITAL des Bundeswirtschaftsministeriums: Er besteht aus 48 Indikatoren. 1. Markt (17 Indikatoren). 2. Infrastruktur (17 Indikatoren). 3. Nutzung (14 Indikatoren). Vgl. Gerpott, T. J.: Standortindex DIDITAL: Nützlich zum Erkennen von Handlungserfordernissen im IKT-Sektor?, in: Wirtschaftsdienst 2016/1, S. 26ff.

Der Digital Readiness Index von Karl-Heinz Land und der Wirtschaftswoche versucht die Digitalisierung der Wirtschaft zu messen.

Digitalisierungsindex: Er miss den Grad der Digitalisierung nach Branchen. Er wird vom Institut der deutschen Wirtschaft ermittelt (IW, IW Consult). Er soll zeigen, wo die Schwächen in Deutschland liegen. Großunternehmen seien deutlich stärker digitalisiert als mittelständische Unternehmen. Den größten Nachholbedarf hätten Unternehmen mit weniger als 50 Beschäftigten. Bei den Branchen führt naturgemäß die Informationstechnik (273 Punkte), vor Fahrzeigbau (193), Elektrotechnik/ Maschinenbau (144,3), Unternehmensnahe Dienstleistungen (135), Grundstoffe/ Chemie/ Pharma (99,4), Verkehr/ Logistik (75,3), Handel (74,9), Sonstiges Verarbeitendes Gewerbe (66,7), Tourismus (64,4). Quelle: Handelsblatt Nr. 232, 30. 11.2020, S. 10.

Digitale Wettbewerbsfähigkeit: Sie wird für die G7-Staaten gemessen. Zuerst für die Zeitspanne 2018 bis 2020. Es führt Kanada vor Italien, Frankreich, USA, GB, Deutschland und Japan. Quelle: Digital Riser Report 2021.

-Messung der Liberalisierung einer Wirtschaftsordnung: Die Fraser Institute (Index der wirtschaftlichen Freiheit) haben eine Messmethode entwickelt. Der Grad der ökonomischen Freiheit wird anhand ausgewählter Kategorien gemessen (10 Punkte= höchste Freiheitsstufe). Wichtigste Indikatoren sind der Umfang der Staatstätigkeit, die Arbeitsmarktregulierung und die Unternehmensregulierung. 2013 führt Hongkong vor Singapur und Neuseeland. Deutschland liegt auf dem 19. Rang. Zuletzt 2020: Es führt Hongkong vor Singapur und Neuseeland.

Die Bertelsmann Stiftung lässt den Bertelsmann Transformationsindex (BTI) berechnen. 250 Experten erheben und analysieren Daten in 129 Umbruchsländern. Der BTI gibt Auskunft über Erfolge und Rückschritte auf dem Weg zur sozialen Marktwirtschaft und zur Demokratie. Indikatoren sind Versammlungsfreiheit, freie und faire Wahlen, Meinungsfreiheit, Gewaltenteilung, Schutz der Bürgerrechte.  2016 ist der Anteil der Länder, in denen religiöse Dogmen die Politik beeinflussen, auf 33% gestiegen.

Rangliste der Pressefreiheit: Sie wird von den Reportern ohne Grenzen aufgestellt. Auf dem ersten Platz liegt Norwegen. Die skandinavischen Länder liegen vorne. China liegt auf Platz 177 und damit weit hinten. Deutschland liegt 2020 auf Rangplatz 11 und ist leicht aufgestiegen.

Steuerattraktivitätsindex: Bewertet Länder anhand von 20 Faktoren. Je höher der Wert, desto attraktiver ist ein Land für Firmen (Indexbereich zwischen 0 und 1). Quelle: LMU. 2018 liegen die Vereinigten Arabischen Emirate mit 0,93 auf dem 1. Platz vor Bahrain (0,92), Bahamas (Bermuda, Cayman) 0,90, Malta (0,71), Niederlande (0,61), Luxemburg (0,59).

-Messung der Nachhaltigkeit (Ökologie): Ranking Nachhaltigkeitsbericht von Unternehmen. Institut für ökologische Wirtschaftsforschung (IÖW) GmbH, Berlin und Future, Berlin. Nach einem Benchmark - Prinzip werden deutsche Unternehmen jährlich in eine Rangfolge gebracht.

Intergovernmental Panel on Climate Change (IPCC): Es wurde von der Umweltorganisation der UN (UNEP) und der Weltorganisation für Meteorologie (WMO) 1988 gegründet, um einerseits den wissenschaftlichen Kenntnisstand in der Klimaforschung zu dokumentieren und andererseits die Weltpolitik zu beraten (der 1. Bericht 1990 sprach noch von natürlichen Klimaschwankungen; der 2.Bericht 1995 war Grundlage des Kioto-Protokolls). 2007 erhielt er den Friedensnobelpreis. Der IPCC forscht nicht selbst, sondern trägt vorhandene Daten zusammen, analysiert sie und gibt Empfehlungen, über die verhandelt und abgestimmt wird. Aktueller Weltklima-Bericht am 02.02., 02.03., 03.05., 17.11. 2007, 2500 Wissenschaftler beteiligt; Präsident Rajendra Pachauri (soll in seinem Forschungsinstitut Teri/ New Delhi Mitarbeiterinnen sexuell belästigt haben); jetzt nur noch Ex-Präsident: der Mensch steht als Ursache des Klimawandels fest; in den nächsten 30 Jahren steigen die Temperaturen um 0,7 Grad, bis 2100 um 4,0 Grad. Mehr Wirbelstürme, stärkere Niederschläge und weiter schmelzende Eispanzer mit steigendem Meeresspiegel wären die Folgen. Bis 2020 soll die Welternte um 50% zurückgehen. Der Klimawandel sei eine so große Gefahr wie ein Weltkrieg. Ca 8 Jahre bleibt Zeit, gegenzusteuern (würde etwa -0,12 Prozentpunkte jährlich beim Wachstum bedeuten). Die Prognosen sind im Klimahaus Bremerhaven zu sehen. 2010 stellt sich heraus, dass schlampig gearbeitet wurde: die Gletscher im Himalaja werden nicht bis 2035 verschwunden sein. Deshalb richtet die UN 2010 einen Aufpasser ein. Im September 2013 wurde ein weiterer Bericht vorgelegt. Die Meeresspiegel drohen stärker zu steigen. Bis zum Jahr 2100 können sie - je nach Szenario - um 26 bis 82 cm ansteigen. Damit gibt es große Gefahren für die Küstenregionen "The American way of life is not up for negotiation", George W. Bush auf dem Umweltgipfel in Rio 1992.Die USA zweifeln auch den Weltklimabericht an.

Umweltökonomische Gesamtrechnung (UGR, StBA): Veränderung im Naturvermögen, die durch wirtschaftliche Tätigkeiten ausgelöst werden. Durchführung Statistisches Bundesamt (StBA) als selbständige Rechnung. Drei Schritte: Umweltzustand, Entstehung der Umweltbelastungsströme und Flächennutzungen, Umweltschutzmaßnahmen. Indikatoren zur Umweltbelastung, Indikatoren des Umweltzustandes, Indikatoren des Umweltschutzes. Nicht-monetäre und monetäre Daten, Veränderungen des Umwelt-Kapitalstocks. Die Volkswirtschaftlichen Gesamtrechnungen verzerren aber weiterhin: In Ländern, die wirtschaftlich stark abhängig sind von Bergbau, Erdöl, Holz und anderen Ressourcen, geht ein Großteil des Konsums auf Kosten künftiger Generationen; vgl. J. Stiglitz, Im freien Fall, München 2010, S. 445.

Klima-Risiko-Index: Er wird von der Umweltschutz-Organisation German-Watch jährlich erstellt. Zugrunde liegen Daten von Munich Re. Der Index bezieht sich auf Länder. Auch Deutschland ist stark betroffen. Nur wenige Unternehmen berichten über die ökonomischen Folgen des Klimawandels.  Seit dem Jahre 2000 sind bis 2020 bei Extremwettern (heftige Stürme, Fluten, Hitzewellen) 500.000 Menschen ums Leben gekommen. Die wirtschaftlichen Schäden lagen bei 2,1 Billionen €. Deutschland befindet sich unter den 0 am stärksten betroffenen Ländern. Quelle: Studie von German Watch 2021. 

Nachhaltigkeit zahlt sich aus: Man muss die "begünstigenden Faktoren" verbessern und quantifizieren. Dann wird der finanzielle Erfolg des Unternehmens verbessert. Man muss folgende Bereiche betrachten: 1. Innovation. 2. Operative Effizienz. 3. Marketing und Vertrieb. 4. Kundenbindung. 5. Risikomanagement. 6. Mitarbeiterengagement. 7. Lieferantenbeziehungen. 8. Medienberichterstattung. 9. Einbinden von Stakeholdern. Man spricht von der ROSI -Methode (Return on Sustainability Investment): Man macht zunächst eine Bestandsaufnahme der Nachhaltigkeitsprojekte und findet heraus, welche Gewohnheiten und Methoden sich dadurch verändern lassen. Anschließend ermitteln Sie den immateriellen, den finanziellen Nutzen und den monetären Gesamtwert. Vgl. Whelan, Tensie/ Douglas, Elyse: Nachhaltigkeit zahlt sich aus, in: HBM April 2021, S. 66ff.

Nachhaltigkeit als Trend ("Grüner Schein"): Klima schonend und sozial verträglich ist ein Megatrend ab 2020. Dabei gibt es eine Reihe von Akteuren: 1. Der Banker. Jede Bank will Green Bonds auflegen. Es gibt auch Spezialbanken dafür. 2. Die EU-Kommission: Für die Fianzbranache ist 2021 Mairead McGuiness zuständig. Drei Artikel der EU-Verordnung sind relevant (Artikel 6, Artikel 8, Artikel 9). 3. Der Unternehmer. 4. Rating - Agenturen (Sustainalytics, RobecoSAM, MSCI, KLD, Video Eiris, Asset4). Sie haben einen großen Einfluss, liegen aber oft weit auseinander. Sie berechnen z. B. den Fußabdruck oder schätzen. 5. Der Privatanleger. Vgl. Goebel, J. u. a.: Grüner Schein, in: WiWo 15/ 9.4.21, S. 14ff.

Umweltforschung als Bürgerbewegung (Freizeitforscher, "Neugierige Nasen"): Die Bewegung gibt es in allen Forschungsbereichen. Man arbeitet mit interessierten Laien und engagierten Bürgern. Berühmt wird ein Projekt aus Belgien. 5000 Freiwillige sammeln Daten zur Erderwärmung. Wissenschaft wird zur Bürgerbewegung. Jeder kann mitmachen ohne Uni-Abschluss. Das Interesse zählt, nicht der Bildungsgrad. Grundstücksbesitzer in Flandern halten Temperatur, Feuchtigkeit, Stickoxidgehalt fest. Vom Internet werden die Daten an eine n Server der Uni Antwerpen übermittelt und dort ausgewertet.

Energiewende-Index (Weltwirtschaftsforum): Es führen 2021 (Quelle WEF, Davos) die skandinavischen Länder (Schweden, Norwegen, Dänemark). Deutschland liegt auf Platz 18: Die Umwelt-Technik ist top, der Strompreis ein Flop. Die USA liegen auf Platz 24, China auf 68. Vgl. FAZ Ne. 92, 21. April 2021, S. 17.

Index EVI: Stellung von E-Autos: Der Index kommt von McKinsey und der Wirtschaftswoche. Bei den Elektroautos führen folgende Länder: Bei der Stärke der Produktion líegt China weit vorne vor Deutschland. Bei der Nachfrage führen Norwegen, Schweden und die Niederlande.

-Kennzahlen im (Extra-) Ausland: Der Case-Shiller Index zeigt die Entwicklung des US-Immobilienmarktes. Er enthält auch Teilindices für die Immobilienentwicklung der wichtigsten US-Wirtschaftsregionen und wird monatlich veröffentlicht. Federal Fund Rate: Ist der Zinssatz, der in den USA für Tageskredite innerhalb des Bankensystems gilt. Sie wird von der US-Notenbank gesteuert, indem sie dem Markt Liquidität entzieht oder zuführt. Die Federal Fund Rate gilt als der Leitzins der US-Geldpolitik. Der US Einkaufsmanagerindex wird vom Institute for Supply Management (ISM) in Arizona angefertigt. 400 Einkaufsmanager (aus 20 verschiedene Branchen)  werden befragt. Er deckt auch den Euro-Raum ab. Seit 1931 wird die Befragung mit Unterbrechungen durchgeführt (Zeitkosten ca. 10 Minuten). Der Index hat eine Gewichtung (kleineren Unternehmen sind wegen ihrer Häufigkeit übergewichtet). Der Index gilt als Frühindikator für die wirtschaftliche Aktivität in den USA. Im Mai 2015 steigt der Index an und könnte einen Aufschwung indizieren.  Zum Jahresende 2020 zeigt der Index ein Stimmungsplus. Das ist ein gutes Zeichen für 2021 nach dem Katastrophenjahr 2020. Mittlerweile wird auch ein Einkaufsmanagerindex in China erstellt. Mitte 2012 sinken die Einkaufsmanagerindizes in China und Europa. Das Institut IHS Market mit Hauptsitz in London berechnet auch regelmäßig einen Einkaufsmanagerindex. Er wird für Großbritannien, Deutschland, Japan, China und die USA errechnet. Der Consumer Sentiment Index der University of Michigan misst die Konsumneigung der Verbraucher in den USA. Der Baltic Dry Index (BDI) wird von Baltic Exchange in London (Seefrachtbörse) veröffentlicht. Dabei handelt es sich um ein weltweites Maß für die Verschiffung wichtiger Frachtgüter. Es geht vor allem um Zement, Eisenerz, Kohle. Der Index ist ein wichtiges Frühwarnsystem für den Zustand der Weltwirtschaft. Zwischen Mitte Juni und Mitte Juli 2015 steigt der Index um 36 Prozent. Dabei sind die Frachtraten der  Rohstoffe Eisenerz, Kohle und Getreide auf den 26 wichtigsten Seerouten der Welt ausschlaggebend. Der Anstieg geht vor allen auf die chinesische Nachfrage zurück. Nach dem auftreten des Corona-Virus in China ist der Index im freien Fall. Die OECD arbeitet mit dem OECD-Frühindikator. Prognos ermittelt jährlich aus 34 Einzelindikatoren (z. B. Lohnkosten, Bildungsstand, Höhe der Zölle) für 100 Länder der Welt den Freihandels- und Investitionsindex. Die Rangliste wird von der EU, Singapur, den USA und Hongkong angeführt. Der US-Dollar-Index misst den Außenwert des Greenback gegenüber einem Korb aus sechs Währungen. Er zeigt an, dass die Leitwährungsfunktion des Dollar verblasst. Die Statistikabteilung der FAO in Rom berechnet den FAO-Lebensmittelindex. Er misst die Preisentwicklung der wichtigsten Grundnahrungsmittel weltweit. Darunter ist auch der Mais als eines der wichtigsten Nahrungsmittel. Der Good Country Index misst, wie viel Gutes die Staaten für die Welt tun. Er wurde vom Briten Simon Anholt erfunden. 2014 liegt an erster Stelle Irland vor Finnland. Deutschland liegt auf Platz 13. Vgl. www.goodcountry.org . Gender Gap Index: Auf Anregung des Weltwirtschaftsforums in Davos seit 2006 erhoben. Er misst die Ungleichheit von Geschlechtern in Gesellschaften und Kulturen. Deutschland steht 2014 auf Platz 11. Kuwait ist als erstes arabisches Land auf 117. Syrien hat mit Platz 143 den drittletzten Platz. In arabischen Kulturen gibt es das Phänomen des "Taharrush gamea". Es handelt sich um gemeinschaftliche Belästigung von Frauen in der Öffentlichkeit. Es tritt in Kulturen auf, die ein Dreieck von religiösem Druck, Sex als Tabuthema und eine patriarchalische Gesellschaftsform haben. 2016 wird ein neuer Index entwickelt (Unsicherheitsindex), der misst, wie sich politische Unsicherheit auf die Wirtschaft niederschlägt. Vgl. Scott R. Baker/ Nicholas Bloom/ Steven j. Davis: Measering Economic Policy Uncertainty, November 2016.

Global Link Model: Es wird vom IHS Market Institut in  London (auch Filiale in Frankfurt)  errechnet. Mitbegründer des Instituts war Lawrence R. Klein, der 1980 den Nobelpreis erhielt. Das Modell besteht aus drei Bausteinen. 1. Data. 2. Countries and Dependencies. 3. E-Views/ Economic Simulation Engine. Es gibt drei Versionen: Standard, Enhanced und Premium. Ab 2017 wird folgendes prognostiziert: Europas Aufschwung geht weiter. Der Anteil der faulen Kredite bleibt aber zu hoch. Trumps Politik wird zu höherem Wachstum in den USA führen: 2017 2,3%, 2018 2,6%.

Internationale Verflechtungen werden unter anderem durch die Exportquote, die Importquote, den Offenheitsgrad und den Außenhandelsanteil gemessen. Ein neuer Früh-Indikator für den Welthandel ist der RWI/ISL-Containerumschlag-Index. Es sind die größten 20 Containerhäfen weltweit enthalten. Die weltweiten Frachtraten misst auch der Baltic-Dry-Index (HRI, Bloomberg, Oxford Economics). Zu Beginn von 2016 fallen die Werte rapide. 2023 erholt sich die Weltwirtschaft nur im Schneckentempo (128).

Grad der Globalisierung in der Welt: Weltwirtschaft und Welthandel (Entwicklung): Der Vergleich wird als Indikator der Globalisierung interpretiert. Zwischen 1990 und 2007 wächst der Welthandel stärker  als die Weltwirtschaft. Ab 2012 wächst die Weltwirtschaft stärker als der Welthandel. Die Globalisierung verliert an Tempo. Quelle: Der Spiegel, Nr. 19/ 2.5.2020, S. 73 (nach Daten der WTO, IWF, IW).

2015 hat das IW (Institut der deutschen Wirtschaft) einen Indikator konstruiert, der die weltweit verfügbaren Wirtschaftsdaten bündelt und vereinfacht - die "Konjunkturampel". Sie besteht aus drei Sektoren, die in Variablen aufgeteilt sind: 1. Produktion (Industrieproduktion, Auftragseingang, Einkaufmanagerindex). 2. Beschäftigung (Erwerbstätige, Arbeitslose, Arbeitslosenquote). 3. Nachfrage (Privater Konsum, Konsumentenverhalten, Investitionen, Exporte). Dafür wird u. a. in folgenden Räumen gemessen: Deutschland, Euro-Raum, USA, China. Als Ausprägungen der Konjunktur gibt es Verbesserung (grün), Keine relevante Veränderung (gelb), Verschlechterung (Rot).

Die weltweite Konjunktur lässt sich auch mithilfe des Kupferpreises erklären. Kupferpreis, US-Einkaufmanagerindex und Weltindustrieproduktion korrelieren hoch (so das RWI-Essen). Der Rohstoffradar misst die Volatilität ausgewählter Preise. Er stellt die durchschnittliche Abweichung vom Mittelwert der vergangenen zwölf Monate grafisch dar. Hohe Schwankungsbreiten indizieren steigende Preis- und Planungsrisiken (Quelle: dreimal jährlich in der Wirtschaftswoche).

RWI-Containerindex: misst den Welthandel. Er beinhaltet den Container-Umschlag. Ende 2020 geht der Index nach oben und signalisiert eine Erholung des Welthandels nach der Corona-Krise.

Kiel Trade Indicator: Bewegungsdaten von Containerschiffen in mehreren Hundert Häfen und Seeregionen. Arbeit mit Algorithmen/ KI. 200.000 Einzeldaten. Entwickelt von Vincent Stamer, IfW, Kiel.

Exporter Dynamics Database, Version 2.0: Ein System von Indikatoren. Seit Oktober 2015 die neueste Version für Deutschland. Exporteure, Dauerexporteure, Eintrittsrate, Austrittsrate, Überlebensrate. Vgl. Joachim Wagner: Dynamik der deutschen Warenexporte nach Zielländern und Gütergruppen, in: Wirtschaftsdienst 12/2015, S. 868ff. . 

Best Country Report: Durchgeführt von Wharton, U.S. News, WPP. 16.000 Menschen werden weltweit befragt. Erstmals präsentiert auf dem Weltwirtschaftsforum in Davos im Januar 2016. Kriterien sind Nachhaltigkeit, Transparenz, Menschenrechte, Einkommen, Gleichberechtigung, Im Jahre 2015 liegt Deutschland an der Spitze vor Kanada und Großbritannien.

Ranking der ökonomischen und politischen Stabilität (Sal. Oppenheim): 2016 führte Norwegen vor der Schweiz, Neuseeland, Taiwan und den Niederlanden. Die letzten Plätze belegten Italien, Brasilien und Griechenland.

Qualität eines Standortes für Direktinvestitionen: Studie jährlich seit 1998; von A.T. Kearney. Seit  Im Jahre 2017 erreicht Deutschland erstmals Platz zwei als Investitionsstandort  Platz eins belegen zum fünften Mal in Folge die USA.

Offenheitsgrad: Exporte plus Importe durch Bruttoinlandsprodukt. Es ist ein guter Indikator für die Einbindung in die Globalisierung. 2021 liegt der Offenheitsgrad in Deutschland bei 81,1%. Das ist weltweit Spitze. Andere Länder: China 34,4%; USA 23,4%; Japan 31,1%.

FDI Restrictiveness Index der OECD: Er misst die Offenheit einer Volkswirtschaft. China liegt ganz hinten beim FDI Restrictiveness Index der OECD (Stand 2017; 0=offen, 1=geschlossen).  China hat einen Wert von 0,317. Ganz vorne liegen Deutschland (0,023) und Großbritannien (0,040). Dahinter Frankreich, Japan, USA, Russland, Indien, China.

Abhängigkeit vom Welthandel: Exporte in Prozent des BIP. Viele kleine Länder hängen extrem an der Globalisierung (kleine Länder, große Exporteure). Große Länder sind eher kleine Exporteure. Beispiele: Luxemburg 214%, Singapur 176%, Irland 124%, Niederlande 82%. USA 13%, Brasilien 13%, Japan 18%, Indien 20%.

Grubel-Lloyd-Handelsindex: Kennziffer zur Berechnung des intra-industriellen Handels eines Wirtschaftszweigs, einer Volkswirtschaft oder einer Ländergruppe. Intra=1 - (Ex -Im)/Ex+Im.

Skyscraper-Index: 1999 vom Immobilienanalyst Wasserstein entwickelt. These: Visionäre Wolkenkratzerprojekte kündigen Wirtschaftskrisen an.

Weltweite Image-Rangliste: Anholt-GfK Nation-Brands-Index. 2017 liegt Deutschland weltweit an der Spitze vor Frankreich. Der bisherige Spitzenreiter USA ist auf den sechsten Platz zurückgefallen.

Energiewende-Index ETI: Die Abkürzung bedeutet Energy Transition Index. Den Index hat McKinsey zusammen mit dem Weltwirtschaftsforum in Davos entwickelt. Es wird der Stand der Energiewende in 114 Ländern untersucht. Der Sachstand wird mit 17 Einzelindikatoren gemessen, die Ausgangsbedingungen werden mit 23 Indikatoren berechnet.

Korruptionsindex von Transparency International (TI). Es wird anhand einer 100-Punkte-Skala gemessen. 180 Länder werden untersucht. 124 Länder erreichen 2018 weniger als 50 Punkte (Durchschnitt 43). Am besten schneidet Dänemark 2018 ab (88 Punkte). Schlusslicht ist Somalia. Deutschland liegt auf Platz 11 mit 80 Punkten.

Klimaschutz-Ranking: Es wird von German Watch erstellt. Es ist international nicht anerkannt. Deutschland liegt auf Platz 23 von 57 Ländern (warum so wenig Länder?).

Protektionismus: Er wird durch dei Summe der Importbeschränkungen gemessen (Zölle, nicht-tarifäre Hindernisse, Kontingente). Die weltweiten Importbeschränkungen wachsen von Jahr zu Jahr: 2012: 306; 2016: 570; 2020: 1547. Quelle: WTO (ohne Covid-19-Maßnahmen.

- Spezielle Indikatoren für China und Japan:  Der Tankan-Index in Japan (Tanki Keizai Kansoku: kurzfristige Wirtschaftsbeobachtung) wird von der Bank of Japan (BoJ) in Tokio herausgegeben. Er wird vierteljährlich herausgegeben. Er gleicht dem ifo-Index. Er ist einer der wichtigsten Frühindikatoren Asiens. Er misst die Stimmung von Großunternehmen der japanischen Wirtschaft (10.000 private Firmen, Rücklaufquote 99%; seit 1974). Er beeinflusst auch den Aktienindex, den Wechselkurs und die Geldpolitik. Auch Ursachenforschung wird betrieben. Er ist kostenlos, auch in Englisch, erhältlich: www.boj.or.jp./en/statistics/tk/index.htm .

Für China entwickelt wurde der Keqiang-Index. Er wurde nach dem jetzigen Premierminister Chinas Li Keqiang benannt, der in einem Gespräch mit US-Diplomaten die offizielle Statistik des Nationalen Statistikbüros als "menschengemacht und unzuverlässig" abtat. In den Index gehen die wirtschaftliche Aktivität anhand der Variablen Energieverbrauch (Strom), Kreditvergabe und Eisenbahnfrachttonnen (Frachtvolumen) ein.

Große Bedeutung hat mittlerweile der Einkaufsmanager-Index (PMI) für die Beurteilung der chinesischen Industrieaktivitäten. Das Wirtschaftsmagazin "Caixin" veröffentlicht ihn regelmäßig. Zu Beginn 2016 führt ein Rückgang von 48,6 auf 48,2 zu Aktieneinbrüchen in Shanghai. Nach einem Wachstumsschub im 1. Quartal 2021 geht der PMI im Mai 21 leicht zurück (von 51,1 auf 51). Die Industrie wächst langsamer. Der offizielle Einkaufsmanagerindex (PMI) fällt ein Jahr später auf den niedrigsten Wert seit Beginn der Corona-Pandemie (42,7 April 22; Omikron-Variante, geringe Impfwirkung). Mittlerweile wird er Index auch vom nationalen Statistikamt bekannt gegeben. Auch der NBS Industrial Production ist ein wichtiger Einkaufsmanagerindex.   Im August 2020 nach der Corona-Krise zeigen sich die wichtigsten chinesischen Einkaufsmanagerindizes erholt (NBS Industrial Production, China Caixin Manufact. PMI; Quelle: National Bureau of Statistics of China).

Sehr starke Aufmerksamkeit richtet man in China auf die Entwicklung der Erzeugerpreise (Index der Erzeugerpreise). ein deutlicher Rückgang zeigt in der Regel Konjunktureinbrüche an.

China Satellite Manufactoring Index: Er überwacht die Industrieproduktion. Per Satellit werden 6000 Industrieregionen beobachtet (Start up Space now).

Shanghai-Freight-Index: Er wird von der US-Großbank J. P. Morgan berechnet. Er gilt als Indiz für Konjunktursignale aus China. Er spiegelt die Preise für Schiffstransporte. Ende 2019 steigt der Index steil an.

Indikatoren der Wirtschaft in China und Aussagekraft der Statistik (Relativierung): Auch in der Sozialistischen Marktwirtschaft in China ist das BIP der wichtigste Indikator. Experten zweifeln aber diese Zahl an. Es stehen 5,5% Revidierung nach unten im Raum. Folgende Indikatoren sprechen für eine Korrektur nach unten: Energieverbrauch, Wachstumsraten in den Provinzen geschönt, Rückgang der Importe, Dienstleistungssektor schlecht erfasst. Es fehlt auch die Transparenz wie das Statistikbüro genau den Wert des Bruttonationaleinkommens ermittelt. Einen großen Anteil haben Schätzungen. Einige Analysehäuser sehen das Wachstum jeweils um bis zu 5% niedriger. Eine völlig unterschätzte Rolle spielen die Lokalregierungen, die gezielt falsche Zahlen liefern. Das Statistikbüro will die Vorgaben der Regierung erfüllen. "Zombie-Fabriken" (nicht ausgelastet, falsche Zahlen) tragen auch dazu bei. Chinas Wirtschaft wächst seit 1978 ohne Unterbrechung. Der Durchschnitt liegt bei fast 10 Prozent. Erst ab 2018 kommt der Einbruch mit wesentlich geringeren Wachstumsraten. Aus meiner eigenen statistischen Erfahrung und dem engen Kontakt zu chinesischen Kollegen gehe ich davon aus, dass die Statistik relativ genau ist, allerdings unter Berücksichtigung der obigen Rahmenbedingungen. Vgl. Fernald, J./ Hsu, E./ Spiegel, M. M.: Is China Fudging its Figures? Evidence from Trading Partner Data, Federal Reserve Bank of San Francisco, Working Paper, Nr. 2015-12, 2015. Auch: Chen, Z./ Liu, C./ Liu, J.: The Financing of Local Government in China: Stimulus Loans Wane and Shadow Banking Waxes, VoxChina, 9.7.2017.

Fünfjahresplan in China: Er wird jährlich auf der Sitzung des Nationalen Volkskongresses überprüft und fortgeschrieben. Die Rede dazu hält der Premierminister, 2021 Li Keqiang. Grundstrategie sind Ausbau des Binnenkonsums (mehr Unabhängigkeit vom Ausland) und Weg zur Hightech-Macht. Die Exporte sollen gesteigert werden. Eine Inhaltsanalyse dieses Plans ist immer sinnvoll, weil man daraus Anhaltspunkte für die Chancen deutscher Unternehmen ableiten kann: Mehr heimische Innovationen soll es geben in der Gesundheitstechnik, beim Flugzeugbau, in der Robotik, in der E-Mobilität und beim autonomen Fahren sowie bei Halbleitern. Für deutsche Unternehmen dürfte mehr Konkurrenz im Automobilbau und im Maschinenbau kommen. Das Hukou-System soll reformiert werden, um die Lage der Wanderarbeiter zu verbessern.

Geschäftsklima-Bericht der europäischen Handelskammer in Peking (Präsident 2021 Jörg Wuttke). Der Bericht kommt jährlich. Die Firmen können über Probleme in China berichten. In der Regel geht es um Wettbewerbsverzerrungen durch Staatsunternehmen, mangelnde Investitionssicherheit, Beschränkungen des Marktzugangs, erzwungener Technologie-Transfer.

China-Stau-Index: Er misst die Anzahl der Tage im Jahr, an denen der Hafenverkehr stockt (in Prozent). Es wird zwischen fließendem und stockendem Verkehr unterschieden. Gemessen wird anhand von Abweichungen von den durchschnittlichen vier Tagen Be- und Entladezeit. Quelle: Unctad, Euler Hermes, Allianz Research. Der stockende Verkehr war am stärksten 2020 (Corona).

Lichtintensität der Nacht: Umweg, um Wirtschaftsdaten zu überprüfen, auch in China. die Lichtstärke lässt sich über Satelliten weltweit messen. Es gibt eine nachweisbare Korrelation zwischen Helligkeit und Wirtschaftsleistung. so kann man die Plausibilität des offiziell ausgewiesenen Wachstums überprüfen. In demokratischen Ländern scheint weniger manipuliert zu werden. In China sind die Abweichungen gewaltig. Insofern bestehen Zweifel, an den chinesischen Wachstumszahlen. Vgl. Losse, Bert: "Chinesischen Zahlen dürfen wir nicht trauen", in: WiWo 6/ 3.2.23 (Interview mit Bruno S, Frey), S. 40f.

Statistik des Einzelhandels in China: Die Umsätze stiegen im Juni 2023 gerade einmal um 3,1%, obwohl Städte wie Shanghai im Lockdown waren. Im Vergleich zum Vormonat Mai gab es ein Mini-Wachstum von 0,23%.  Der Glaube an die Zukunft scheint verloren gegangen: Früher glaubte man, dass der morgige Tag immer ein besserer sei. Nun herrscht ein anderes Gefühl vor: Rette sich, wer kann. Vgl. FAZ 18.7.23, S. 15.

Investitionen der Privatunternehmen: Sie sind in der Nach - Covit - Ära eher niedrig.

 

Zur Methode der (konventionellen) Volkswirtschaftslehre und einer neuen, innovativen Ökonomie insgesamt:

"Eine Einführung in die Volkswirtschaft für Praktiker im Betrieb kann keine Anleitung dafür sein, wie man ein Geschäft oder eine Bank führt, wie man sein Geld gut anlegt oder wie man an der Börse schnell reich wird", Paul A. Samuelson nach Puhani, J.: Volkswirtschaftslehre für Betriebswirte, München 2009, Vorwort.

"Das schöne an den Wirtschaftswissenschaften ist, dass sie nur eine Denkweise darstellen, ein Faktenwissen gibt es nicht", Victor Norman, Ökonom, Norwegen.

Aufgabe der Volkswirtschaftslehre (VWL) ist die Beschreibung, Erklärung, Prognose und wirtschaftspolitische Beratung bei ökonomischen Tatbeständen und Problemen. Die Tatbestände können systemunabhängig (Knappheit, Arbeitsteilung) und systemabhängig (Wirtschaftsordnung) sein. Die Volkswirtschaftslehre widmet sich der Lösung der Probleme Ineffizienz (Marktversagen, keine gute Allokation), Instabilität (Inflation, Konjunktur, Arbeitslosigkeit) und Ungleichheit (Einkommens- und Vermögensverteilung). Die VWL orientiert sich an den Zielen "Vollbeschäftigung, Preisstabilität, Wirtschaftswachstum, Außenwirtschaftliches Gleichgewicht, Soziale Gerechtigkeit und Nachhaltigkeit" (Magisches Sechseck). Zwischen diesen Zielen können Konflikte, Komplementarität und Neutralität bestehen.

Mit Modellen wird mathematisch, geometrisch, logisch (spieltheoretisch) oder verbal nach Lösungen gesucht. Um darüber hinaus bestimmte Grundaussagen möglichst deutlich zum Ausdruck zu bringen, wird oft auf die so genannte Ceteris-paribus-Klausel zurückgegriffen (man dreht an bestimmten Stellschrauben und lässt alle anderen unverändert). Im Vordergrund stehen die Einflussfaktoren ökonomischer Sachverhalte (Hypothesen, Operationalisierungen und Messungen dazu). Berücksichtigt werden Interdependenzen genauso wie Gleichgewichtslösungen. Statistisch werden meist Zusammenhänge und Kausalitäten metrischer Merkmale untersucht. So wird die Korrelationsanalyse nach Bravais - Pearson oder die Regressionsanalyse eingesetzt. Zeitliche Folgen dürfen nicht mit Kausalbeziehungen verwechselt werden. Wenn die Wirtschaftspolitik (Ordnungspolitik, Prozesspolitik) durchgeführt wird, kann es zu Zeitverzögerungen (Lags) kommen. Sie gehört auch zur Normativen Ökonomik, sollte also empfehlen, was Menschen tun sollten. Die Geldpolitik kann schneller wirken als die Fiskalpolitik (beide gehören zur Prozesspolitik). Mit beiden Politiken werden Rezessionen bekämpft. Vorher muss die VWL erkennen, was die Rezession ausgelöst hat (Makroökonomik). Strukturelle Randbedingungen (Wettbewerb) sind zu berücksichtigen. "Die Kunst des Wirtschaftens besteht darin, nicht nur die unmittelbaren, sondern auch die langfristigen Auswirkungen jeder Maßnahme zu sehen,; sie besteht ferner darin, die Folgen jedes Vorgehens nicht nur für eine, sondern für alle Gruppen zu bedenken", Henry Hazlitt: Die 24 wichtigsten Regeln der Wirtschaft, München 2014, S. 21 (original USA, 1946).

Die Methode ist eine Verbindung von Mathematik, ökonomischer Theorie und empirischen Methoden/ Statistik. Häufig geht es um Entscheidungen darüber, ob man eine bestimmte Aktivität ein bisschen ausdehnt oder ein wenig einschränkt (Marginalentscheidungen). Die Analyse solcher Entscheidungen führt die VWL mit der Marginalanalyse durch. Die Marginalanalyse ist eine Optimierungsmethode in der Ökonomie. Insofern muss nicht immer alles 100-prozentig erfolgen, was getan werden muss. Marginale Analysen werden in der VWL mathematisch mit Hilfe der Differentialrechnung umgesetzt. Sie wurde von Gottfried Wilhelm Leibnitz (1646-1716) entdeckt. Er veröffentlichte seine Ergebnisse und auch die bessere Methode vor I. Newton. Will man das Verhalten von Menschen ändern (z. B. im Umweltbereich), so muss man Vorteile aufzeigen, die Menschen realisieren können (Anreize). Dies muss genau erfolgen:  sinkende Steuersätze sind z. B. mit den Einstellungen der Menschen, insbesondere zur Arbeit, abzugleichen. Anreize spielen eine große Rolle bei den Konsumenten. Sehr wichtig ist die Einbindung von Informationen. Die Effizienz von Finanzmärkten wird z. B. nach den benutzten Informationen beurteilt. Asymmetrische Informationen spielen in der Wirtschaftspolitik, z. B. der Umweltpolitik, eine große Rolle. Informationsgüter werden zunehmend zum Forschungsgegenstand (Eigentumsrechte, Preisbildung). Umweltschutzprobleme sind häufig die Folge unzureichend konstruierter Eigentumsrechte. Deshalb muss die Reformation dieser Rechte genau verfolgt werden.

Die Einschätzung der Rationalität hat sich grundlegend verändert. Durch experimentelle Forschung rückt man vom "homo oeconomicus" ab und kommt zu realistischeren verhaltenswissenschaftlichen Folgerungen. Der Kern ist aber gleich geblieben, indem es darum geht, wie Menschen Entscheidungen treffen und wie diese Entscheidungen zusammenwirken und sich einem Optimum nähern können (vgl. Großmeister Keynes unten, der es besser ausdrücken kann). Dabei müssen auch kulturelle Faktoren berücksichtigt werden (aber bitte nicht Vorurteile). Die mathematischen und statistischen Grundlagen sind im Bachelor -Studium oft  zu wenig vorhanden bzw. bekommen zu wenig Raum neben den Kernfächern (kann durch E-Learning nicht ausgeglichen werden). Die Methode sollte dann auf die problemorientierten Bereiche "Arbeitslosigkeit", demographischer Wandel", Finanzkrise" bezogen werden. Die Studenten sollten mit ihrem Wissen kommunizieren und agieren können im Zusammenhang mit praktischen Problemen im Betrieb. "Wir wollen uns lediglich erinnern, dass menschliche Entscheidungen, welche die Zukunft beeinflussen...sich nicht auf strenge mathematische Erwartungen stützen können, weil die Grundlage für solche Berechnungen nicht besteht; und dass es unser angeborener Drang zur Tätigkeit ist, der die Räder in Bewegung setzt, wobei unser vernünftiges Ich nach bestem Können seine Wahl trifft...aber oft für seine Beweggründe zurückfallend auf Laune, Gefühl oder Zufall", John Maynard Keynes. 2018 trugen Studenten der Uni Wien einen Sarg durch die Uni. Symbolisch begruben sie den homo oeconomicus.

Für die Volkswirtschaftslehre bzw. Ökonomie gilt die wissenschaftliche Methode, die schon der griechische Philosoph Aristoteles entwickelte, als Grundlinie:  Das System besteht aus drei Säulen: 1. Ethos - Die These bzw. Methode muss glaubwürdig und authentisch sein. Sie muss eine aktuelle Situation verändern können. 2. Logos - Die logische Struktur der Argumentation und Methode muss stringent sein. 3. Pathos - Empathiefähigkeit muss immer dabei sein. Eine gut gewählte Metapher verstärkt alle drei Elemente. Bedingungen sollten geklärt werden. Hypothesen sind zu überprüfen. Immer sollte auch das berücksichtigt werden, was im Rahmen des Möglichen passieren könnte. So können Denkmuster aufgebrochen werden. Ob Big Data jemals diese Denkstruktur ersetzen kann, ist doch sehr zu bezweifeln. So verringert Big Data strategische Optionen und verhindert Innovationen. Auch die Methode vom griechischen Philosophen  Sokrates gilt bis heute und kommt als 4. Punkt dazu, nämlich wissenschaftliche Autoritäten nicht einfach zu akzeptieren, sondern sie kritisch zu prüfen. Kritikfähigkeit ist nicht nur in der Ökonomie eine der wichtigsten Eigenschaften. Folglich hat sich bis heute gegenüber der griechischen Philosophie nicht so viel geändert.

Die Ökonomie erscheint nach außen oft etwas überheblich gegenüber der realen Wirtschaft. Das hat wissenschaftshistorische Gründe, weil die Ökonomie ihre Ursprünge in der Theologie und Philosophie hat. Erst im 20. Jahrhundert und erst recht jetzt im 21. Jahrhundert weicht man von ehernen Gesetzen und Scheinwelten ab und geht mehr auf die Realität zu. Märkte werden nicht mehr als Stereotype gesehen, sondern in ihren komplexen Wandlungsprozessen und ihrer realen Funktionsfähigkeit und Effizienz. Man wird auch immer mehr aufgeschlossen für neue Narrative und Visionen (Vgl. die weiteren Abschnitte nach unten). Vgl. Hirschman, D./ Berman, E.: Do Economics Make Policies? On the Political Effects of Economics, in: Socio-Economic Review 12/ 2014, S. 779-811.

Ökonomen versuchen heute von dieser vermeintlichen Arroganz abzurücken. Sie sehen ein, dass sie besser kommunizieren und erklären müssen, aus welchen Gründen sie zu ihren Schlussfolgerungen kommen. Sie sollten auch immer offen legen, welche politischen und moralischen Einschätzungen sie haben und dies explizit machen. Sie müssen sich als Teil der Wirtschaft sehen und können nicht außerhalb stehen (die führenden Wirtschaftsforschungsinstitute in Deutschland werden zum großen Tel von Bund und Ländern bezahlt). Hier gibt es noch viel Nachholbedarf, gerade in Deutschland. Man ruht sich zu sehr auf seinem vermeintlichen Status aus. Sie sollten auch ihre Fehler einräumen und Verantwortung für ihre Empfehlungen übernehmen. Vieles von dem eben Gesagten sollte Bestandteil der ökonomischen Ausbildung werden. Vgl. Aldred, Jonathan: Der Korrumpierte Mensch. Die ethischen Folgen wirtschaftlichen Denkens, Stuttgart 2020, S. 388ff. Auch: Rodrik, D.: Economics Rules, New York/ Norton 2016.

Die ökonomische Wissenschaft muss offen über ihre Grundprobleme im gesellschaftlichen Zusammenhang diskutieren. 1. Volatilität (die Fakten ändern sich ständig, die Realität ist enorm beweglich). 2. Unsicherheit (Menschen und ihr Verhalten wird nie ganz vorhersehbar sein, auch Big Data ist keine Lösung). 3. Komplexität (einfache Erklärungen gibt es nicht; Menschen scheinen sie zu brauchen und glauben dann an Verschwörungen). 4. Mehrdeutigkeit (Fakten sind immer verschieden interpretierbar; kein Wissenschaftler kann sich von seinem sozialen Umfeld lösen). Vgl. Marcel Fratzscher: Die Neue Aufklärung, Berlin/ München 2020, S. 197ff. 5. Politik: Lange wurde der Anschein von Naturwissenschaftlichkeit vermittelt. Die VWL erschien dadurch unpolitisch. Das ist nicht haltbar. Auch die Klimafrage zeigt das Gegenteil. Vgl. Schäfer, Helena: ein Paradigma verteidigt sich, in: FAZ 29.3.23, S. N 4.

Das Narrativ "Erst Wirtschaft, dann Umwelt" ist in der Ökonomie nicht länger zu halten. Die ökonomischen Risiken der fossilen Wirtschaft wurden zu lange ausgeklammert oder falsch berechnet. Nur in aktuellen US-Lehrbüchern (von Mankiw, Krugman  oder Acemoglu) wird die Umwelt noch ausgelassen (Trump lässt grüßen! Vielleicht wird es mit Biden besser).  Zukünftige Forschung (auch Grundlagenforschung) sollte mehr anwendungsorientierte Lösungen liefern (verständlich und umsetzbar). Vgl. Kemfert, Claudia: Wirtschaft und Wirtschaftswissenschaften stehen am Wendepunkt, in: bdvb aktuell, Nr. 150, 2020, S. 10ff.

Die großen Krisen der Wirtschaft (2009 und 2020) haben auch Krisen der Ökonomie ausgelöst. Sicher muss mehr Nachhaltigkeit, mehr Pluralität, mehr Reflexivität berücksichtigt werden. Die ökologischen und sozialen Grundlagen der Wirtschaft, einschließlich Kultur, und die demokratischen Gestaltungsspielräume sollten mehr Gewicht bekommen.

Egal welcher Richtung man in der Ökonomie folgt, gibt es universelle Gesetzmäßigkeiten, die wahrscheinlich für alle Ökonomen gelten. 1. Die analytische Trennung zwischen Mikroökonomik und Makroökonomik macht Sinn. Es sind unterschiedliche Anwendungsbereiche. Der Zusammenhang zwischen den Gebieten ist zuweilen umstritten (Beispiel: Aggregationsproblem). 2. Bei den Grundsätzen der Ökonomie stimmt man auch überein: a. Optimierung (Streit über die Kriterien, vor allem bei Umwelt). b. Gleichgewicht (hier ist noch keine alternative Revolution in Sicht). c. Empirismus (Diskussion über die genaue Rolle von Daten und Fakten, positive Ökonomik). Vgl. Acemoglu, Daron u. a.: Volkswirtschaftslehre, München 2020, S. 37ff. Es ist aber nicht zu erwarten, dass es revolutionäre Umbrüche geben wird. Das ist den Naturwissenschaften vorbehalten. Die Ökonomie hatte nie und wird nie einen Einstein oder Heisenberg haben. "Die vielfach unbefriedigende Datenlage und das Verbot der Datenverknüpfung sind gravierende Wettbewerbsnachteile für die deutsche Wirtschaftswissenschaft. Oft müssen wir uns mit skandinavischen Daten behelfen", Regina Riphan, Vizepräsidentin der Nationalen Akademie der Wissenschaften Leopoldina und neue Vorsitzende des VfS. Quelle: WiWo 1/2 5.1.2023, S. 24.

Immer wieder in die Diskussion kommt die Replizierbarkeit der ökonomischen Forschungsergebnisse. Forschungsergebnisse müssen in mehreren Studien und unter unterschiedlichen Rahmenbedingungen nachgewiesen werden können. Die Vergabe von Forschungsmitteln und wissenschaftlichen Posten oder der Publikationsprozess mit "Peer Review" sind  ein fehleranfälliges System, das zu systematischen Verzerrungen führen kann. Die Wirtschaftswissenschaften sind in den letzten Jahrzehnte  immer empirischer und Daten basierter geworden. Es gibt erstens einen "Publication bias" (man orientiert sich an den Gutachtern des Mainstream) Das "p-hacking" spielt eine Rolle: Alle empirischen Forscher wissen, dass unspektakuläre Ergebnisse spektakulärer gemacht werden können. Politik und Öffentlichkeit sollten also vorsichtig an wissenschaftliche Ergebnisse hergehen. Sie sollten auch mehr Open Science berücksichtigen, wie es diese Plattform darstellt.  Vgl. Stuart Richie: Science Fictions, King `s College London 2020. Auch Peters, Jörg: Wissenschaft oder Fiktion, in: FAZ Montag 1. Februar 2021, S. 16.

Besonders wichtig ist der Zugang zu guten Daten. Viele Datenlieferanten liefern zu schlechte Daten, schotten sich ab oder verlangen zu viel Geld. Der Datenzugang für die VWL muss verbessert werden. "Wir haben in der Wirtschaftswissenschaft gute Leute, aber vielfach schlechte Daten. Das ist ein  gravierender Wettbewerbsnachteil im globalen Wissenschaftswettbewerb. Der mangelnde Datenzugang ist nicht nur ein zentrales Problem für die empirische Wirtschaftsforschung - sondern auch für Politik und Gesellschaft in Deutschland", Regina Riphan, Vorsitzende des Vereins für Sozialpolitik 2023, siehe WiWo 39/ 22.9.23, s. 25.

Das Wirtschaftsdenken war zu allen Zeiten ein Ausdruck der jeweiligen Zeit. Der Ökonom bewegt sich nicht im luftleeren Raum. Darauf hat immer das Wirtschaftslenken aufgebaut. Niemand das das besser analysiert als Marx und Engels. Die digitale Revolution hat zu sehr viel Pragmatismus geführt. Digitalisierung, Klimaschutz und Globalisierung sind nicht mit der einen ökonomischen Theorie oder Ideologie in den Griff zu bekommen, sondern verlangen Gespräche, Debatten und Verhandlungen. Die Finanzkrise und die Corona-Krise (auch der Ukraine-Krieg) werden zu Änderungen führen müssen: steuerliche Zugriffe auf die Vermögenden, gerechte Besteuerung der Digitalgiganten, viel bessere Analyse von Wohlstand. Vgl. Heuser, Jean: Keine Selbstbedienung, bitte! in: Die Zeit Nr. 26, 24. Juni 2021, S. 19. Auch: Huck, Steffen: Angst, Interessen und Moral, in: WZB Mitteilungen 4/22, Dez. 2022, S. 43ff.

Die Methoden der Naturwissenschaften lassen sich nicht auf die Ökonomie übertragen. Die Volkswirtschaftslehre bedarf einer eigenen Methode. Anders als bei Atomen und Planeten, gibt es im Bereich des menschlichen Verhaltens keine Verhaltenskonstanten. Der Mensch ist unberechenbar, hat wechselnde Wünsche und tiefe Gefühle, er ist nur als soziales Gruppenwesen ein ewiger Neubeginner, da er lernfähig und spontan ist. Vgl. Polleit, Thorsten: Der Weg zur Wahrheit - Eine Kritik der ökonomischen Vernunft, Finanzbuch-Verlag 2022.

Die Ökonomie hat und hatte immer ihre Feinde, die sie versuchen zu vereinnahmen. Sie kann sich nur innerhalb bestimmter Grenzen, die sie ehrlich und offen einräumen muss, bewegen. Insofern ist sie nie perfekt. 1. Die erste Grenze bildet die objektive Erkenntnis. Ob Marktmechanismus oder Sozialplanung,  die Möglichkeit sicheren Wissens wird immer begrenzt sein. Erkenntnis und Interesse werden immer miteinander ringen. 2. Natürlich gibt es eine Ordnung der Natur: Geschlechterunterschiede (Männer, Frauen), Ethnien und Demographie können nicht ausgeklammert werden. 3. Religion oder ihr Ersatz Ideologie werden immer eine Rolle spielen und können nicht ganz ausgeklammert werden. 4. Eine ökonomische Ordnung kann  es nicht geben. Sie setzt sich aus politischer, gesellschaftlicher und internationaler Ordnung zusammen. Vgl. Sarrazin, Thilo: Die Vernunft und ihre Feinde, München (LMV) 2022. Gemeinsam akzeptierte Wahrheiten geraten zunehmend unter Druck. Wahrheiten werden nach eigenen Vorstellungen ergoogelt, gefühlt und neu erzählt. Vgl. Schuppert, G. F.: Ergoogelt, erzählt, gefühlt, in: WZB Mitteilungen 4/ 22, Dez. 2022, S. 6ff.

"Es ist noch viel zu tun, bis wir die Fragen der Fiskalpolitik beantworten können", US-Ökonomen auf dem Jahrestreffen mit der FED in Jackson Hole 2009.

Das Handelsblatt führt regelmäßig ein Ranking durch über die forschungsstärksten VWL - Fakultäten im deutschsprachigen Raum.  Es werden die Top 20 ermittelt. Im Jahre 2017 liegt die Uni Zürich an der Spitze vor Mannheim und der ETH Zürich.

Vgl. auch folgende Homepages: Netzwerk "Plurale Ökonomie e. V."

und  Was ist Ökonomie? (Berliner Studenteninitiative) .

Als einflussreiches Netzwerk: Mont Pelerin Society, Schweiz (1947 von Friedrich August von Hayek gegründet; Vereinigung von Akademikern, insbesondere Ökonomen; neoliberal ausgerichtet; berühmte Mitglieder waren: Gary Becker, James Buchanan, Ronald Coase, Milton Friedman, George Stigler. die Gesellschaft hat großen Einfluss auf Regierungen und deren Wirtschaftspolitik).

Auch: Netzwerk "Econ4Future". "Change by Design, not by Desaster"

Ebenso: Netzwerk "Ökonomenstimme".

 

Wissenschaftstheoretische Grundlagen der Volkswirtschaftslehre und Ökonomie insgesamt:

"Die ganze Wissenschaft ist nichts anderes als eine Verfeinerung des Alltagsdenkens", Albert Einstein. Einstein wird auch das Bonmot nachgesagt, er sei Physiker geworden, weil ihm die Sozialwissenschaften als zu schwierig erschienen.

Das Vorgehen in der VWL ist oft deduktiv, d. h. der Schluss erfolgt vom Allgemeinen auf das Einzelne (es gibt auch induktive Methoden). Meist stammt das Wissen über existierende Dinge aber aus der Erfahrung (Empirismus). Dabei kann sich die Eigenschaft einer Aussage bei empirischer Überprüfung als falsch erweisen (Falsifizierbarkeit; nach Popper unterscheidet sich hier die Wissenschaft von der Nichtwissenschaft). Wird ein Theorem versuchsweise als wahr angenommen, spricht man von einer Hypothese. Axiome (nicht zu beweisende Annahmen) sollten vermieden werden (Gegenposition von M. Friedman).

Häufig wird abstrahiert mit Modellen (vereinfachtes Bild einer sehr komplexen Realität, Komplexitätsreduktion), wobei mit Aggregation, Isolierung ("Ceteris paribus-Klausel") und  Mechanisierung (Verhaltensannahmen, "homo oeconomicus") gearbeitet wird. Dies sollte nicht zu Modellplatonismus (H. Albert) führen. Methodologischer Individualismus, rationales Verhalten und Knappheit sind zentrale Ausgangspunkte. Nach der Krise rücken "animal spirits" in den Vordergrund, die mehr psychologische Realitäten im Menschenbild berücksichtigen. Das Denken in Gleichgewichten (komparative Statik) verkürzt oft die Möglichkeiten. Eine ökonomische Situation ist im Gleichgewicht, wenn Menschen durch andere Handlungen nicht besser gestellt werden können. Zeitlich sind sowohl ex-post als auch ex-ante Betrachtungen (z. B. Prognosen) legitim. Die VWL geht nicht von einem Absoluten aus, d. h. sie kennt keine Wirklichkeit in höchster Vollkommenheit. Aber sie arbeitet mit Idealzuständen (z. B. vollständiger Wettbewerb). Kern ist die Analyse, bei der eine Sache verstanden werden soll, indem man sie zerlegt. Kausalitätszusammenhänge dominieren, Alternativen müssen geprüft werden (z. B. Chaostheorie für Finanzmärkte). Die VWL hat ihr eigenes Begriffssystem, in dem die Worte bestimmte Bedeutungen haben. Dialektik (These, Antithese, Synthese) und Dualismus (z. B. Kern- und Randbelegschaft) sind häufige Denkschemata.  "Nimm es als Vergnügen, und es ist Vergnügen! Nimm es als Qual, und es ist Qual" aus Indien.

Ökonomen sollen die wirtschaftliche Zukunft voraussagen. Das wird von ihnen erwartet, ist aber eines der größten wissenschaftlichen Probleme überhaupt. In Prognosen sind die Wirtschaftswissenschaften immer recht ungenau ("dismal science", im angelsächsischen Bereich gegenüber den exakten Naturwissenschaften). Das liegt daran, dass in wirtschaftlichen Zusammenhängen Menschen im Mittelpunkt stehen. Menschliches Verhalten ist nur bedingt vorhersehbar (Menschen ändern ihr Verhalten des öfteren). Häufig unterliegen Wissenschaftler auch der Versuchung, aufgrund der Vergangenheit die Zukunft vorauszusagen. Meist macht die Ökonomie nur "wenn - dann - Aussagen". Man spricht auch von Szenarien.

Ohne Ethik (die philosophische Reflexion über die Frage, welches Leben wir führen sollen) kommt die VWL nicht aus. Es geht immer auch um Gerechtigkeit, so dass jeder seinen fairen Anteil erhält. Wir dürfen nicht Alles nur vom Ökonomischen her denken. Dies darf aber nicht zum Überwiegen der Werturteile führen in der Wissenschaft. Effizienz knüpft in der VWL an Gerechtigkeit an, wenn alle Möglichkeiten genutzt werden, Menschen besser zustellen, ohne das andere schlechter gestellt werden (Pareto - Optimum). Für ethische Fragen hat die VWL aber noch keine gute Sensorik. Geldgeber und Topjournals versuchen diese aber zunehmend einzufordern (Minimal-Norm: Nicht lügen). Gerade in der Finanzkrise zeigte sich, dass viele Wirtschaftswissenschaftler eigene finanzielle Interessen verheimlicht hatten. Deshalb fordern immer mehr wissenschaftliche Gremien und auch Zeitschriften, Interessenkonflikte offen zulegen. Vgl. auch: Schaar, Katrin: Qualitätsfaktor Forschungsethik, in: WZB Mitteilungen 4/22, Dez. 2022, S. 39ff. "Denn man weiß wohl, dass ein rohes Volk nicht zuerst von Verbesserung der Sitten auf nützliche Gewerbe, sondern umgekehrt, von diesen auf jene kommt", Johann Jacob Meyen, deutscher Ökonom, 1769.

Meinungsverschiedenheiten zwischen Ökonomen entstehen häufig durch durch die Frage nach den Vereinfachungen und über die Werturteile. Letzteres kann in einer normativen Wirtschaftswissenschaft münden. In der Wirtschaftspolitik, einem Teilgebiet der Volkswirtschaftslehre, ist es besonders wichtig, zwischen parteipolitischen Positionen und wissenschaftlicher Analyse zu unterscheiden. Auch in der Finanzwissenschaft, einem weiteren Teilgebiet der VWL, darf durch die Nähe zur Politik die wissenschaftliche Distanz nicht verloren gehen. In der positiven Wirtschaftswissenschaft wird das Funktionieren der Wirtschaft analysiert. Trotzdem kann es auch hier zu Irrtümern kommen: die unbeabsichtigten Folgen von Politik sind einzurechnen, Löhne sind auf Arbeitsproduktivität und Stücke zu beziehen. Verallgemeinerungen sollten ganz vorsichtig verwendet werden (z. B. Überbevölkerungsproblem in der Welt, Protektionismus bei ausländischer Konkurrenz). Es muss immer die Bereitschaft vorhanden sein, aus Irrtümern zu lernen (Markt als begrenzter Lösungsweg; zu starke Deregulierung auf den Finanzmärkten). Vgl. Huck, Steffen: Angst, Interessen und Moral, in: WZB Mitteilungen 4/ 22, Dez. 2022, S. 43ff....der geneigte Leser möge sich entscheiden, ob er einfache oder nützliche Antworten auf seine Fragen wünscht - beides ist hier ebenso wie in anderen wirtschaftlichen Fragen nicht möglich", Joseph A. Schumpeter, 1932.

Im Zuge der Finanzkrise hat die Volkswirtschaftslehre an Ansehen weltweit verloren. Sie muss sich dringend reformieren. Sie muss ihre Frühwarn- und Prognosefähigkeit erhöhen, neue Theorien entwickeln (Ideen wichtiger als Mathematik) und das Verhältnis zur Politik verbessern. Die Realität ist mit Modell-Mathematik oft schön gerechnet worden oder man hat mit hohen Anleihen aus der Soziologie und Psychologie ("Alltagspsychologie") sich mit fremden Federn geschmückt. Die Mikroökonomik liefert daraus wichtige Erkenntnisse, aber damit lassen sich keine makroökonomischen Prinzipien ableiten. Makroökonomische Theorien können genauso wenig aus der Mikroökonomik aggregiert werden. Es ist aber auch ein Wandel in der Motivation im Wissenschaftsbetrieb festzustellen. Karrieredenken rückt immer mehr in den Vordergrund vor der Freude an wissenschaftlicher Arbeit und der intellektuellen Auseinandersetzung. Die Medien beschleunigen diese Entwicklung, in dem sie Volkswirte nach ihren Karriere-Positionen und nicht nach ihren Forschungsergebnissen konsultieren.  "Kein Gedanke ist so alt oder absurd, daß er nicht unser Wissen verbessern könnte. Anything goes...", Paul Feyerabend: Wider den Methodenzwang, Frankfurt 1986, S. 55.

Selbst folge ich seit über 45 Jahren einer Forschungsrichtung, die sich als Behavioural Economics bezeichnet. Im Deutschen bezeichnet man dies als verhaltenswissenschaftliche Ökonomie. Sie beschäftigt sich mit der Frage, wie rational Menschen wirklich handeln und welche ökonomischen Folgen daraus erwachsen. Dabei bedient sie sich der Erkenntnisse der Psychologie und Soziologie. In Deutschland wurde diese Richtung maßgeblich von Günter Schmölders an der Uni Köln in die Volkswirtschaftslehre eingeführt (lange wurde diese Richtung in Deutschland verlacht, heute dominiert sie). Vgl. hierzu auch meine ausführlichere Darstellung bei Research. Zunächst werden über den Untersuchungsgegenstand Hypothesen entwickelt (Werturteile nicht, Selektionsproblem). Dies geschieht mit induktiven und deduktiven Schlussfolgerungen (siehe oben). Dann kommt die empirische Überprüfung, die die vorläufige Bewährung ergibt (keine Wahrheiten!) oder zur Falsifizierung führt. "Der Rationalist ist einfach ein Mensch, dem mehr daran liegt, zu lernen als recht zu behalten", Karl Popper. In dieser Forschungsrichtung verschwimmen die Grenzen zwischen Volks- und Betriebswirtschaftslehre wie im angelsächsischen "Economics". Man spricht auch von Managerial bzw. Entrepreneurial Economics. Unabhängig von dieser ökonomischen Richtung werden die Einzeldisziplinen sowieso an Bedeutung verlieren,  so dass in Zukunft die Unterscheidung von VWL und BWL keine Rolle mehr spielen wird. So kann die Ökonomie Stereotype aufgeben und sich auf die Gestaltung der Wirtschaft ausrichten. "Grau, teurer Freund, ist alle Theorie, und grün des Lebens goldner Baum", Goethe in Faust.

Forscht man in der Ökonomie empirisch, so sollte man sich immer seiner Grenzen bewusst sein. Bei allen Medienunternehmen, die Newsletter und ähnliches produzieren (z. B. Podcasts), sollte man zuerst nach den Geldgebern und Interessen fragen (auch über Werbung; das gilt auch für wissenschaftliche Institute). Bei Influencern, die auch zunehmend ökonomische und politische Infos weitergeben, sind die Interessen klar. Wissenschaftliche Institute haben in der Regel Zielgruppen, die sich aus der Finanzierung ergeben (oft von Bund, Land oder Verbänden bzw. Auftraggebern, was Abhängigkeit erzeugt. Leider wird die Interessengebundenheit meist verschwiegen, wie z. B. beim IW/Industrie). Insofern entscheiden ökonomische Akteure und Kriterien über Wohl und Wehe von Instituten und Redaktionen und deren Inhalte. Neutrale wissenschaftliche, ökonomische Forschung ist eine Illusion. Die Resultate von ökonomischen Studien hängen auch davon ab, wo ihre Autoren politisch stehen, aus welchem Land sie kommen und wer sie bezahlt (Vgl. Heinemann, F.: Die Illusion von der neutralen empirischen Forschung, in: WiWo 7, 12.2.21, S. 44f.). Man muss sich auch immer bewusst sein, dass im Internet Empörung sehr schnell hoch kocht. Die Freiheit für wissenschaftliche Debatten muss eher auf anderen Foren erhalten werden. "Anpasserei" (Cancel Culture, Political Correctness) ist aber eine große Gefahr in allen Medien. Die Wissenschaft hat sich gewandelt (die Welt ist bunter geworden, Objektivität ist oft eine Illusion, vieles ist unberechenbar und nicht eindeutig fassbar, alte Wahrheiten haben nicht immer Bestand). Darauf muss auch das Informationsangebot der Wissenschaft reagieren. Immer mehr Studien zeigen, dass die empirischen Ergebnisse von Nationalität und persönlicher Präferenz abhängen. Insofern ist empirische Wirtschaftsforschung nur vermeintlich neutral. Vgl. Losse, Bert: Der fatale Faktor Mensch, in: WiWo 14, 1.4.2021, S. 38f. (in dem Aufsatz werden eine Reihe Originalquellen aufgelistet).  "Die vielfach unbefriedigende Datenlage und das Verbot der Datenverknüpfung sind gravierende Wettbewerbsnachteile für die deutsche Wirtschaftswissenschaft. Oft müssen wir uns mit skandinavischen Daten behelfen", Regina Riphan, Vizepräsidentin der Nationalen Akademie der Wissenschaften Leopoldina und neue Vorsitzende des VfS. Quelle: WiWo 1/2 5.1.2023, S. 24.

Die großen Krisen (Finanzkrise 2008, Flüchtlingskrise 2015, Corona-Krise 2020, Ukraine-Krieg 2022) haben zu einem Wandel in der Volkswirtschaftslehre geführt. Wohin er endgültig geht, ist noch nicht abzusehen. Was ist neu? Empirische Forschung ist nicht mehr unangreifbar wie vom Katheder als Weisheit verkündet (obwohl "Evidenz basiert" anerkannt und positiv besetzt ist). Der Ordoliberalismus ist kaum noch vertreten. Die VWL ist unideologischer. Die Grenzen zwischen Mikro- und Makroökonomik verschwimmen. Vgl. Losse,  Bert: "Wir sind nicht mehr so unbeliebt". Interview mit Georg Weizsäcker, Vorsitzender des Vereins für Sozialpolitik, in: WiWo 39, 24.9.21, S. 38ff. .

Neue Methoden gewinnen an Boden. Die berühmte Ceteris-Paribus-Klausel, die ökonomische Wirkungszusammenhänge nur unzulänglich aufzeigen kann wird immer mehr durch natürliche Experimente ersetzt. Dabei werden Statistiken aus der realen Wirtschaft durchforstet. Berühmt ist das Experiment , das Wechselwirkungen zwischen Mindestlöhnen und Beschäftigung untersucht. Forscher entdeckten zwei aneinander grenzende Bezirke an der US-Ostküste, in denen wirtschaftlich fast alles gleich war (New Jersey, Pennsylvania). In einer Region war der Mindestlohn, in der anderen nicht. Die Erhöhung des Mindestlohns beeinflusste die Beschäftigungslage so gut wie nicht. Man spricht vom Card-Krueger Experiment. Card erhielt dafür den Wirtschaftsnobelpreis 2021 (Krueger ist tot). Vgl. Fischermann, Thomas: Nobelpreis, in: Die Zeit Nr. 42, 14.1021, S. 25. Der Co-Preisträger Joshua Angrist legte Methoden fest, um aus den natürlichen Experimenten auch tatsächlich Kausalketten abzuleiten. Das ist wichtig, um Fehlschlüsse zu vermeiden. Der weitere Preisträger Guido Imbens schuf die Grundlagen für eine mehrstufige Auswertung. Es gab wenig Methoden, mit denen man Glaubwürdigkeit klar feststellen konnte. Imbens machte es möglich, zwischen guter und schlechter Forschung zu unterscheiden (durch Methoden der Kontrolle von Experimenten). Berühmte reale Experimente waren: Effekt von Bildung auf das spätere Einkommen, Wirkungen des bedingungslosen Grundeinkommens, Wirkungen des Mindestlohnes auf die Beschäftigung. Vgl. "Dann fließt die kreative Energie", in: Die Zeit Nr. 45, 4.11.21, S. 31.

Damit sind wir beim Thema Selbstkontrolle. Hier kann die Volkswirtschaftslehre und Ökonomie  auch mal versagen. Machtmissbrauch und Manipulation werden nicht gerne offen gelegt, sondern verschwiegen. Transparenz muss hergestellt werden. Das geht nur über transparente und faire Strukturen. Aufsicht muss von handlungsfähigen Institutionen kommen. Es muss auch Aufmerksamkeit für das Thema da sein. Vgl. Leising, Daniel: Die Position: Die Wissenschaft versagt bei der Selbstkontrolle, in: Die Zeit Nr. 9/ 23.2.23, S. 37.

"Ich bin. Aber ich habe mich nicht. Darum werden wir erst", Ernst Bloch (1885-1977, geboren in Ludwigshafen).

 

Defizite der Volkswirtschaftslehre (Kritik):

"Die Nationalökonomie entstand als eine natürliche Folge der Ausdehnung des Handels, und mit ihr trat an die Stelle des einfachen, unwissenschaftlichen Schacherns ein ausgebildetes System des erlaubten Betrugs, eine komplette Bereicherungswissenschaft", Friedrich Engels, MEW 1, S. 499 (Marx-Engels-Werke, Berlin, Dietz-Verlag, 1956 - 1990, 43 Bände). Diese Kritik hat einen wahren Kern. Sie wurde von einem klassischen Kapitalisten gemacht, der von Werken in Manchester lebte und Marx alimentierte.

Zunächst sind zu erwähnen Entgleisungen durch zu starke einseitige Gewichtung der Methode (Beispiel Mathematik, Zahlen-Fetischismus), der Ideologie (Beispiel Monetarismus), der unbegründeten (nicht hinterfragten)  Grundannahme (Markt oder Staat, Marktideologie, Trennung "Arbeit und Kapital") oder der Vernachlässigung der Geopolitik (Beispiel Ukrainekrieg) und externer Schocks (Beispiel Covid-19). Wenn mehrere Punkte zusammenkommen bzw. sich überlappen , stößt die VWL an ihre Grenzen und offenbart ihr Theoriedefizit. Wahrscheinlich kann es heute für solch komplexe Situationen auch nicht mehr ein geschlossenes Theoriesystem geben. Die großen Krisen der letzten 15 Jahre haben den Abstieg der VWL eingeleitet: Finanzkrise, Flüchtlingskrise, Klimakrise, Corona-Krise,  Ukrainekrieg, Energiekrise, große Inflation. Insofern ist die VWL in einer paradoxen Situation: Ihre Probleme und Gegenstände werden immer wichtiger (stärkere Gewichtung innerhalb der Sozialwissenschaften dringend nötig), trotzdem hat sie einen Bedeutungsverlust erlitten. BWL kann nur mit Einbettung in die VWL gelehrt und gelernt werden. Im Zentrum steht dabei das Dilemma, in dem die wichtigste Volkswirtschaft der Welt steckt, was massiv auf ihre Volkswirtschaftslehre der USA abfärbt, die immer noch in der Welt dominiert und großen Einfluss ausübt. Die Dominanz der US - VWL hat schon jahrelang die stärkere Berücksichtigung von Nachhaltigkeit und Verteilungsgerechtigkeit verhindert bzw. hinausgezögert (exemplarisch ist hier das weit verbreitete VWL - Lehrbuch von Mankiw, in Deutschland von über 70% aller Studenten genutzt). Wenige US-Elite-Institutionen geben den Ton an (und die Mehrheit der deutschen VWL - Professoren orientiert sich daran). Heute müssen die Wettbewerber (EU, China, Japan u. a.) allerdings viel mehr auf ihre eigene geopolitische Lage achten. Das versuche ich im Folgenden wissenschaftssoziologisch zu begründen.

Die drei unberechenbaren Faktoren der USA (auf die man sich auch für die Zukunft einstellen muss): Wenn man die Geschichte der USA und ihre Weltpolitik seit dem 2. Weltkrieg analysiert, zeigen sich immer drei große Einflüsse, die in ihrer Wirkung nicht exakt eingeschätzt werden können: 1. Die Macht des industriell-militärischen Sektors, der seine eigenen Profitinteressen in den Vordergrund stellt (die USA haben seit dem Kalten Krieg völkerrechtswidrig 5 Länder überfallen). 2. Der Einfluss der Geheimdienste, von denen der CIA der dominierenste zu sein scheit (Fake News über Atomwaffen im Irak!). 3. Der Akteur Wallstreet, der neben Gewinn auch die Interessen des Staates Israel hervorhebt und vertritt (Netzwerk jüdischer Organisationen und Finanzinvestoren). Es fehlt hier an Transparenz und Aufklärungswille der Medien und der Wissenschaft. Wenn zwei oder drei dieser Machtzonen sich verbünden, wie vor dem Irakkrieg die Geheimdienste, die Wallstreet und der industrielle Komplex, haben die demokratischen Institutionen keine Chance mehr. Solche externen Effekte der Machtzentren begleiten den Koreakrieg, den Vietnamkrieg (deshalb das Foto oben) und viele andere Konflikte. Sie protegieren auch jeweils die Präsidenten, die sie haben wollen und vernichten die, die sie nicht brauchen können (Beispiel J. F. Kennedy). Im Folgenden sind einige Literaturstellen aufgeführt, die sich näher mit diesem Thema beschäftigen. Sie sollten Pflichtlektüre werden. L. Fletscher Prouty: JFK. Der CIA, der Vietnamkrieg und der Mord an John f. Kennedy, Wien 1993. Daniele Ganser: Illegale Kriege. Wie die NATO-Länder die UNO sabotieren. Eine Chronik von Kuba bis Syrien, Zürich 2016. Jim Garrison: Wer erschoss John F. Kennedy? Auf der Spur der Mörder von Dallas, Bergisch-Gladbach 1992. Robert Harris: Dictator, München 2015. Letzteres Buch ist eigentlich über Cicero und Rom. Es ist aber zeitlos vom Thema her: Wie lässt sich politische Freiheit gegen die Dreifachbedrohung aus skrupellosem Ehrgeiz, einem von Geld beherrschten Wahlsystem und den verderblichen Auswirkungen endloser Kriege im Ausland schützen (trifft auf die USA zu)? Der Film über Seneca, den großen römischen Stoiker, bringt das Thema 2023 auch auf dem Punkt.

Der Raum für Kreativität ist in der Volkswirtschaftslehre rapide geschrumpft. Es sind nicht nur die in den vergangenen Abschnitten skizzierten Faktoren, sondern auch Cancel Culture (kuriose Fälle in den USA, unter Beteiligung deutscher Volkswirte), Abhängigkeit von öffentlichen Geldgebern (tendenziell wird Vorhersehbares belohnt), vorhandenes, angesammeltes Wissen, mangelnde Interdisziplinarität und vieles mehr. Große Durchbrüche werden seltener, weil alles schon mal gedacht worden ist. Es gibt ausgetretene Pfade, von denen vorhandenes Wissen nur ausgebaut werden kann. Grundlagenfinanzierung gibt es in der VWL nicht. Vgl. Die Zeit Nr. 3/ 12.1.23, S. 35 (Interview mit Wilhelm Krull, Gründungsrektor der Denkfabrik "The New Institute" in Hamburg, vorher Generalsekretär der Volkswagenstiftung). Vgl. auch: Interview mit Peter-Andre Alt, Präsident der Hochschulrektorenkonferenz und Leiter der Wübben - Stiftung Wissenschaft, Quelle: Die Zeit Nr. 8/ 16.2.23, S. 31.

Der größte Vorwurf gegen die deutsche VWL betrifft aber ihre geistesgeschichtlichen Wurzeln. Sie hat systematisch ihre größten philosophischen Vertreter vernachlässigt (die VWL ist einst aus der Philosophie hervorgegangen). Wer Karl Marx und Jürgen Habermas in seiner Kultur hat, sollte sich zumindest mit ihnen intensiv auseinandersetzen (es geht sicher nicht um die Übernahme entsprechender Positionen). Beide sind in der ganzen Welt sehr angesehen und geschätzt (vor allem in Asien), dass das "Links liegen lassen" nur durch intellektuelles Unvermögen bzw. korruptives Verhalten (Karriere, Forschungsgelder, blind den USA folgen über Wissenschaftskarrieren in den USA) zu erklären ist. Die ganze ökonomische Legitimation  des chinesischen Wirtschaftssystems beruft sich auf die Gedanken von Karl Marx (Konfuzianismus - Herrschaft, Daoismus - Kultur) . Es ist nicht auszuschließen, dass China tatsächlich bis 2049 (100 Jahre VR China) zum ökonomisch, militärisch und politisch mächtigsten Land der Welt wird. Damit hat man zumindest Anspruch auf eine wissenschaftliche Auseinandersetzung auf Augenhöhe. Die Definition einer eigenen Form von Demokratie mit mehr Menschenrechten als der Westen (mit Berufung auf Konfuzianismus und Daoismus) ist da noch nicht mitgerechnet. Macht setzt sich letztlich auch in der VWL durch. Ignoranz führt sicher überhaupt nicht weiter. Leider sind viele wissenschaftlich führenden Volkswirte in Deutschland, in den USA oder GB wissenschaftlich sozialisiert worden, was auf einem Auge blind machen kann.

"Wir wissen, dass wir Vorläufige sind, und nach uns wird kommen: nichts Nennenswertes", Bertold Brecht, deutscher Schriftsteller. Brecht, der Dichter der Dialektik, war immer politisch. Politischer war kein anderer deutscher Schriftsteller. Er hatte eine klare politische Botschaft. Aber er ließ sich auch vereinnahmen. So am 17. Juni 1953 (blutige Niederschlagung des Aufstands) , als er von faschistischen Elementen sprach, die die DDR zersetzen sollten. Goethe, der größte deutsche Dichter, war ein dichtender Staatsbeamter, der auch schmutzige Alltagsgeschäfte wie Todesurteile machen musste. Brecht  sprach selbst von der Unfreiheit der Kunst. Wie bei Brecht stellt sich auch in der VWL die Standardfrage, kann sie überhaupt unpolitisch sein. Kann es eine objektive, unparteiische  VWL geben?

 

Betriebswirtschaftslehre als Wissenschaft (wissenschaftstheoretische und -soziologische Betrachtung):

"Schlage mich, beschimpfe mich -

ich komme trotzdem.

Doch wenn du mich übers Ohr hauen willst,

komme ich nicht", aus China (Quelle: O. V. , Reiskörner fallen nicht vom Himmel, Leipzig/ Weimar 1990, S. 82)

Die strikte Trennung von Betriebswirtschaftslehre und Volkswirtschaftslehre ist eine Besonderheit im deutschsprachigen Raum. Im angelsächsischen Kulturraum spricht man von Economics und meint erstmal beides. Business Economics wendet die Theoreme und Methoden dann auf Unternehmen an. Business Administration ist die reine  Verwaltung bzw. das Management von Unternehmen in der Praxis. Man geht aber von einer gemeinsamen Grundlage aus. Im deutschsprachigen Raum wurde die gemeinsame Grundlage einst in der Mikroökonomik deutlich: Wenn man in das Standardlehrbuch der BWL von Wöhe reinguckt, erkennt man die Gemeinsamkeiten leicht, vor allem in der Produktionstheorie. Die Mikroökonomik hat aber heute in vielen Bereichen den wissenschaftlichen Anschluss verpasst, trotz neuerer Entwicklungen wie Industrieökonomik oder Markttheorie (Auktionen). Die Gemeinsamkeiten werden in Deutschland mittlerweile auf den Gebieten "Finance" und Taxation" gepflegt (ehemalige Gebiete der Finanzwissenschaft und der BWL sind verschmolzen.

Durch die letzten Krisen der Weltwirtschaft (Finanzkrise, Klimakrise, Produktionskrise, Corona-Krise, Energiekrise) ist eine paradoxe Situation entstanden: Die Volkswirtschaftslehre verliert an Boden in der Wissenschaft und an den Hochschulen (vor allem an den angewandten Hochschulen, weil für die teils mittelmäßigen StudentInnen der Stoff zu schwer ist), weil sie in Teilen erklärungsleer geworden ist. Die BWL kann die Lücke nicht schließen. Die Betriebe brauchen aber dringend Studenten, die mehr über die Weltwirtschaft, die Umwelt, die Digitalisierung und die globalen Zusammenhänge wissen (das war ein wichtiger Antrieb für meine Plattform). Das übertriebene Effizienzdenken auf  Kosten der Resilienz und Nachhaltigkeit gerät in die Kritik.

Der Inhalt der BWL ist sehr wichtig, weil sie mit fast einer Viertelmillion Studierenden das mit Abstand beliebteste Studienfach in Deutschland ist 2023 250.000). Betriebswirtinnen und Betriebswirte finden schneller einen Job als andere Akademiker und sie verdienen im Durchschnitt mehr Geld. Sie haben auch eine große Chance auf Karriere. BWL soll die Fähigkeiten vermitteln, Unternehmen zu führen und ihnen zum Erfolg zu verhelfen. BWL ist kein Verlegenheitsfach. Studienanfänger können mit Herzblut ihren Talenten und Interessen folgen. Vgl. Interview mit Christina Hoon/ Uni Bielefeld, in: Die Zeit 20/ 11.5.23, S. 35.

2016 findet wieder eine intensivere Diskussion über den Inhalt und das Konzept der Allgemeinen Betriebswirtschaftslehre (ABWL) statt. Vgl. Köhler, Richard: Allgemeine Betriebswirtschaftslehre - ein tragfähiges Konzept? , in: DBW 6/16, S. 131ff. In der gleichen Ausgabe: Backhaus, Klaus/ Carlsen, C: Das Allgemeine in der Allgemeinen Betriebswirtschaftslehre, S. 424ff. Meine Inhalte auf der Seite "Economics/basic" stellen eine Mischung von Mittelstandsökonomik und ABWL dar und sind stark subjektiv geprägt von eigenen Erfahrungen. Das Hauptbetätigungsfeld von Betriebswirten sind nicht börsennotierte Konzerne, sondern Familienunternehmen, KMU und Start-ups. BWL und VWL werden und müssen in Zukunft noch stärker zusammenwachsen und auf Problem lösen ausgerichtet werden. Auf die Folgen von Digitalisierung muss stärker eingegangen werden, ebenso mehr auf den Klimawandel und den Machtkampf zwischen den USA und China (Globalisierung). All das versuche ich, auf der Seite "Economics/basic"  umzusetzen und das erklärt die starken Abweichungen von Standardlehrbüchern (die manchmal veraltet sind bzw. das Lehrbuch hat als Medium für fortgeschrittene Semester eher ausgedient). Vgl. auch Jörg Rocholl, Aus zwei mach eins, in: Wirtschaftswoche 27/ 30.6.2017, S. 42. Die BWL sollte also mehr über den Tellerrand schauen: Auch medizinisches Wissen sollte mehr integriert werden, ebenso wie mehr Energiewissen. Hinzu kommt eine Beschäftigung mit Ethik, Informationswesen, Wertschöpfungsprozesse. Dies zeigt die Corona-Krise 2020/21. Die praxistaugliche Theorie des Unternehmens sollte weiter entwickelt werden.  Vgl. Friedl, Gunther (Dekan der TUM, München) und Hutszenreuther (TU München), Schaut über den Zaun, in: die Zeit Nr. 28, 2. Juli 2020, S. 35.

 Im Jahre 2021 erscheint sogar ein Buch, das die Erneuerung der BWL mit 16 Thesen angeht: 1. Weniger sind mehr (Studierende). 2. Weniger sind mehr (Universitäten). 3. Departments sind besser als Lehrstühle. 4. Mehr ist besser (Forschung). 5. Anwendungsorientierte vs. theoretische Forschung? Beides! 6. "Rigor" ist wichtig - aber Relevanz auch! 7. Graduiertenschulen sind der bessere Weg zur Promotion! 8. Incentives sind wichtig - und sollten erweitert werden! 9. "Rigor" zählt - auch in der Lehre! 10. Neue Themen sind wichtig. Fächerübergreifend. 11. Für eine neue Didaktik - Frontalunterricht war gestern! 12. Analog bleibt wichtig - die Universität als Wissensort! 13. Lehre ist wichtig! 14. Englisch ist die bessere Sprache! 15. Bücher sind wichtig! 16. Die steile These zählt!  Siehe Schwenker u. a.: Erfolgsfaktor Betriebswirtschaftslehre BWL? BWL! Was sie leistet und warum wir sie brauchen, München (Vahlen) 2021, S. 127ff.

Die klassische BWL scheint auch in einer Sinnkrise zu sein. Sie ist zu wenig praxistauglich, vor allem im Hinblick auf Start-up - Gründen und Digitales. IT - Kenntnisse müssen sehr verstärkt vermittelt werden. Routineaufgaben wie Controlling, Teile der Personalwirtschaft und des Marketings werden zukünftig von Maschinen bzw. KI übernommen werden. Folge könnte ein BWL - Prekariat sein. Auch dem versuche ich mit der innovativen Konzeption Rechnung zu tragen. Vgl. Guldner/ Losse/ Scmidt: Bedingt praxistauglich, in: Wirtschaftswoche 43/ 13.10.17, S. 18ff. Ganz negativ zur BWL vgl. Axel Gloger: Betriebswirtschaftsleere, 2016. Buchführung muss vielleicht sogar gar nicht mehr gelernt werden, weil die IT besser ist. Auf jeden Fall ist das BWL-Studium an vielen Hochschulen heute rückständig. Digitalisierung muss das A und O sein. Zumindest müssen die Studenten wissen, was mit IT - Technologie möglich ist und wo die Grenzen liegen. Deshalb habe ich dafür extra eine ganze Site eingerichtet (Mercator/ digital). Vgl. Reintjes, Dominik: Jetzt kommen die besseren BWLer, in: Wiwo 38/ 17.9.21, S. 90f.

Die WiWo bringt im Januar 2019 eine Liste der forschungsstärksten Betriebswirtschaftsprofessoren im deutschsprachigen Raum: Es führen Helmut Krcmar, TU München und Nils Boysen, Uni Jena vor Martin Bichler, TU München. Vgl. WiWo 4 18.1.2019, S. 40. Grundlage waren die 860 Fachzeitschriften. Ich selbst habe in allen renommierten deutschsprachigen BWL-Zeitschriften publiziert (Vgl. Publikationsliste). Die Rangliste der forschungsstärksten Unis in BWL führen die Universität St Gallen/ Schweiz vor der TU München und der WU Wien an. Vgl. WiWo 50, 4.12.20, S. 48. Bei der Erhebung der Wirtschaftswoche 2020 (51, 11.12.2020) gewinnt Nils Boysen von der Uni Jena als forschungsstärkster Betriebswirt im deutschsprachigen Raum (Operations Management, logische Prozesse über Algorithmen). Bei den forschungsstärksten Betriebswirte unter 40 Jahre liegt Christoph Glock von der TU Darmstadt an der Spitze (Optimierung der Lagerhaltung, Wertschöpfungsketten). Beim Lebenswerk erreicht Christian Homburg von der Uni Mannheim den ersten Platz (Marketing). 2022 kommt eine neue Rangfolge. Den ersten Platz der Ranfolge hat nun Patrick Velte aus Lüneburg vor Sascha Kraus (FU Bozen). Bei den Jungstars unter 40 Jahren führt Martin Jacob von der WHU Koblenz/ Vallendar. Vgl. WiWo 16.12.22, S. 40f. 2023 ist das Ranking in Betriebswirtschaftslehre der CHE am bekanntesten. Vgl. Die Zeit 20/ 11.5.23, S. 34. Auch die WiWo veröffentlicht ihr Ranking weiter. Es ist allerdings zu pauschal. Es kommt immer auf die Schwerpunkte und Fächerkombinationen an. In BWL führt die LMU München genauso wie in VWL. Vgl. WiWo 20/ 12.5.23, S. 18. Bei den Fachhochschulen führt die HTW Berlin vor Reutlingen. Vgl. Ebenda, S. 20.

Die BWL in Deutschland müsste folglich dringend erneuert werden: 1. Das Bild des Betriebswirts in der Gesellschaft muss aufpoliert werden. Er gilt oft als skrupelloser Profit - Maximierer. 2. Die Struktur an Hochschulen mit Lehrstühlen ist hoffnungslos veraltert (besser Departmentstruktur). 3. Das föderale deutsche Bildungssystem gleicht einem Flickenteppich. Es führt nicht mehr zu mehr Wettbewerb, sondern zur Ausbildung von Betriebswirten als Fachidioten, die nicht mehr "über den Tellerrand hinausschauen können". Im Wettbewerb mit den USA, Japan und China werden andere Ökonomen gebraucht. Vgl. Siegers, R.: Die BWL erneuern, in: HBM Juni 2019, S. 48ff. 4. An den deutschen Hochschulen wird in der BWL zu viel auswendig gelernt, wobei das eigenständige Nachdenken auf der Strecke bleibt. Man kann es auch so ausdrücken: "Science does not know its debt to imagination", Ralph Waldo Emerson (1803-1882; American writer and poet; Die Wissenschaft weiß nicht, was sie der Fantasie verdankt). Theorie hilft, denken zu lernen. Fallstudien helfen, Entscheidungen zu trainieren und zu fragen, ob sie auch in Zukunft gelten. Vgl. Interview mit Burkhard Schwenker, Ex - Ceo von Roland Berger Unternehmensberatung, in: HBM März 2021, S. 70ff. Des.: Drei Forderungen an die BWL der Zukunft, in: WiWo 15/ 9.4.21, S. 10. Der Verband der Hochschullehrer für Betriebswirtschaftslehre feiert 2021 den 100. Geburtstag.

Die Betriebswirtschaftslehre sollte auch systematisch ihr mangelndes Werteverständnis angehen. Es herrscht eher Verwirrung darüber, was Werte eigentlich sind. Die Ursachen liegen auch hier in falschen Studienordnungen, die keine philosophischen Grundlagen mehr enthalten. Dazu haben die angewandten Hochschulen (Fachhochschulen) einen großen Beitrag geleistet. Ein Werteversprechen ist Grundlage jeden Geschäftsmodells. So muss auch die BWL sagen, was eigentlich ihr Wert ist und welche Werte sie vermitteln will. Sie kann nicht einfach nur Pragmatismus betreiben mit Werten wie Geld und Effizienz  und sehen, ob ihre Absolventen einen Job bekommen. Hinter den rein ökonomischen Kriterien müssen Werte erkennbar sein wie z. B. Gemeinschaft, Nachhaltigkeit, Zufriedenheit. Apple zum Beispiel ist heute eines (bzw. das wertvollste) der wertvollsten Unternehmen der Welt (vom Börsen- also Marktwert her). Der Gründer Steve Jobs folgte drei Werten: Schönheit, Perfektion und Einfachheit. Er war inspiriert von der Kalligrafie, der japanischen Kultur und wollte etwas besonders machen. Diese Werte gingen direkt in die technische Entwicklung ein. Vgl. Spiekermann, Sarah: Digitale Ethik. ein Wertesystem für das 21. Jahrhundert, München (Droemer) 2019.

Die Leistungs- und Erfolgsmessung in der BWL sowie in der ganzen Wirtschaftswissenschaft ist nicht unproblematisch. Man setzt zu sehr auf bestimmte Fachzeitschriften. "Wissenschaftler werden heute an der Zahl ihrer Publikationen in fünf US-Fachzeitschriften gemessen - und nicht daran, was sie mit ihren Arbeiten erreicht haben. Das gilt nicht nur in den USA, sondern auch in Asien und Europa", James Heckman, Ökonomie-Nobelpreisträger.

Die betriebswirtschaftliche Denkweise wird immer wieder mit dem ökonomischen Prinzip verbunden. Maximum - Prinzip: Bei gegebenem Mitteleinsatz soll ein maximales Ergebnis erzielt werden. Minimum - Prinzip: Mit minimalem Mitteleinsatz soll ein bestimmtes Ergebnis erzielt werden.. Optimum - Prinzip: Es soll ein möglichst günstiges Verhältnis zwischen Mitteleinsatz und Ergebnis realisiert werden. Weiterhin ist eine betriebswirtschaftliche Denkweise dadurch gekennzeichnet, das bei allen Entscheidungen Kosten-Nutzen-Abgleiche eine wichtige Rolle spielen. Mittlerweile geht es aber nicht mehr allein um Optimierung und Kostenreduktion. Der forschungsstärkste Betriebswirt 2022 Patrick Velte forscht über Nachhaltigkeitsberichte und Greenwashing. Vgl. Wiwo 16.12.22, S. 26.

Produktionsfaktoren sind eine zentrale Grundlage der BWL (Gutenberg gliederte danach): Inputs in den Produktionsprozess. Mindestens sind Arbeit, Kapital und Boden (Rohstoffe, Umwelt) zu nennen. Manchmal wird noch das Humankapital (zwischen Arbeit und Kapital) und der dispositive Faktor (Management) erwähnt.  In der Economics in China wird der Produktionsfaktor "Boden" aufgeteilt in Material Force (Bodenschätze), Freight Force (Infrastruktur), Natural Force (Natur), Time Force (Zeit). Eine solche Präzisierung würde auch der BWL bei uns gut tun. Daneben stehen normal Labor Force und Capital Force. Durch Künstliche Intelligenz entsteht eine neue Produktionsfunktion. Der Output als abhängige Variable ist eine Funktion der unabhängigen Variablen Daten, Kapital, Arbeit. KI macht Daten zum dritten Produktionsfaktor. Die Daten sind rückgekoppelt mit Kapital und Arbeit. Der Output hat eine Interdependenz mit Daten, Arbeit und Kapital. KI kombiniert Kapital und Arbeit, KI definiert das Verhältnis zwischen Kapital und Arbeit neu. Die industrielle Ordnung (vertikale Wertschöpfungsketten) wird durch die digitale Ordnung ersetzt (hybride Unternehmen mit Kollaboration und Integration). Vgl. Vöpel, Henning: Wie künstliche Intelligenz die Ordnung der Wirtschaft revolutioniert, in: Wirtschaftsdienst 2018/11, S. 828ff.

"Es ist nicht genug, zu wissen, man muss auch anwenden; es ist nicht genug zu wollen, man muss auch tun", Johann Wolfgang von Goethe.

 

Wirtschaftsgeschichte und Geschichte der Ökonomie sowie Zusammenhang und Einflussfaktoren (Economic History): Die wichtigsten Eckdaten der Kultur und Wirtschaftsgeschichte sind woanders abgehandelt: Siehe Site "Cult/ Sozio/ Psycho"

"Nichts macht konservativ-reaktionärer als entweder nur die Vergangenheit oder nur die Gegenwart zu kennen", das Zitat wird J. M. Keynes zugeschrieben, Quelle nicht bekannt. Ähnlich ein Zitat von ihm aus dem Jahre 1935: "Die Schwierigkeit liegt nicht in den neuen Ideen, sondern darin, den alten zu entkommen".

"Wer die Vergangenheit nicht ehrt, verliert die Zukunft. Wer seine Wurzeln vernichtet, kann nicht wachsen", Friedensreich Hundertwasser (Quelle: Plakat im Hundertwasser-Museum, Wien; der ehemalige israelische Ministerpräsident Perez soll das auch gesagt haben; das "Urheberrecht" ist also unklar).

"Was Erfahrung aber und die Geschichte lehren, ist dieses, dass Völker und Regierungen niemals etwas aus der Geschichte gelernt und nach Lehren, die daraus zu ziehen gewesen wären, gehandelt haben", Georg Wilhelm Friedrich Hegel (1770-1831), deutscher Philosoph, der mit seiner Dialektik stark auch Karl Marx beeinflusst hat. Diese pessimistische Einschätzung bezog sich auf die ganze bis dato bekannte Weltgeschichte. Wahrscheinlich gilt sie auch heute noch. Hegel liegt in Berlin Mitte auf dem Dorotheenstädtischen Friedhof begraben (dort ruht ebenso B. Brecht, der direkt daneben auch gewohnt hat).

Staatliche Seidenmanufaktur Nr. 1 in Suzhou, China ("Venedig Chinas", Ende des Kaiserkanals). Diese Stadt im Südosten Chinas gilt als Geburtsort der chinesischen Seidenkultur. Seide war viele Jahrhunderte eines der wichtigsten Exportgüter des Landes auf der Seidenstraße, der Verbindung nach Europa. Die Herstellung der Seide war geheim, bis das Verfahren später von Japanern geklaut wurde (einer der berühmtesten Fälle von Industriespionage; im 8. Jahrhundert wurde das Monopol von Japan gebrochen). Anfang des 6. Jahrhunderts wollte Mönche aus Europa schon das Geheimnis erkunden. In Frankreich (Ludwig IX.) bestand eine große Nachfrage nach Seide. Seide wurde in der Regel mit Gold aufgewogen.  Später wurden in Frankreich viele Maulbeerbäume für die Seifenzucht angepflanzt. In Deutschland erst seit Friedrich dem Großen. Synthetische Farben für Seide waren eine der Ursprünge der chemischen Industrie. Unternehmen wurden gegründet, um sie herzustellen, so die BASF. Suzhou war Ausgangspunkt des Kaiserkanals, auf dem die Seide in der ersten Etappe gut transportiert werden konnte.

Die Geschichte der Menschheit beginnt etwa vor 300.000 Jahren in Afrika, weil dort die ersten Exemplare des Homo sapiens gefunden wurden. Vorher, vor 65 Millionen Jahren, gab es schon affenartige Tiere - auch in Afrika; vor 2,5 Millionen Jahren begannen sie, Werkzeuge zu benutzen.  2023 fand man in Afrika eine Schlachterei, in der man Werkzeuge fand, die noch viel älter waren (Die Zeit Nr. 8/ 16.2.23, S. 28). Es vergingen dann ungeheuer viele Jahre bis sich etwas Grundlegendes änderte: Der Mensch wurde sesshaft (Ackerbau, Viehzucht). Vgl. Frie, Ewald: Die Geschichte der Welt, München 2020, S. 47ff. Es gibt weitere Bücher, die sich generell mit der Geschichte der Menschheit beschäftigen: Galor, Oded: The Journey of Humanity. Die Reise der Menschheit durch die Jahrtausende, München 2022. Graeber, Davis/ Wengrow, David: Anfänge. Eine neue Geschichte der Menschheit, Stuttgart 2022. Im zweiten Buch ist die Darstellung von Teotihuacan in Mexiko beeindruckend. So gelang es den 140.000 Einwohnern der Metropole 700 Jahre lang ohne Hierarchie und Herrschaft auszukommen. In dem Buch von Galor ist die Darstellung der Entstehung der Ungleichheit besonders lesenswert. In meiner kompakten Analyse hier sind auch alle großen Denker enthalten. Ich gehe an dieser Stelle aber nicht auf ihre Konzepte ein, dass die Geschichte nach unausweichlichen Gesetzmäßigkeiten verlaufe. Zu diesen großen Denkern gehören Platon, Hegel und Marx.

Vor etwa 70.000 Jahren verlässt Homo sapiens Afrika und breitet sich rasch aus. Wahrscheinlich beginnt Ökonomie als analytische Sichtweise mit der Sesshaftigkeit der Menschen. Das war zuerst in Mesopotamien (vor 12.000 Jahren; Klima beruhigte sich; Pleistozein ging zu Ende). Zwischen Euphrat und Tigris ist eines der Ursprungsgebiete menschlicher Kultur. Die Türkei baute Jahre in Südostanatolien den Ilisu-Staudamm für ein Wasserkraftwerk, der die Fluten des Tigris staut. 200 Siedlungen mussten dafür geräumt werden und uralte Städte gingen verloren, so etwa Hasankeyf. Um 3200 v. Chr. war in Mesopotamien die Erfindung der Keilschrift, Uruk erste Großstadt der Weltgeschichte. Um 2250 v. Chr. entstanden die Hymnen von König Sargon für seine Tochter Enheduanna. Um 1900 v. Chr. entstand die Assyrische Händlerkolonie Kanisch. Um 1350 v. Chr. verheiratet König Burna-Buriasch seine drei Töchter.  331 v. Chr. erobert Alexander der Große Mesopotamien. Vgl. Podany, Amanda: Weavers, Scribes, and Kings - A New History of the Ancient Near East, Oxford University Press 2023. In Girne (Keition)  im Norden Zyperns kann man ein Schiffswrack aus der Zeit Alexander des Großen bewundern.  Damit entstanden Arbeit und Arbeitsteilung sowie Tausch. Das sind die Kernphänomene jeder Ökonomie. Die Sumerer brauchten für die Buchführung und Registrierung der landwirtschaftlichen Produkte  eine Schrift. Sie entstand aus einer  Notwendigkeit. Etwas später bildeten sich die Jiahu -Schrift am Gelben Fluss in China und die ägyptischen Hieroglyphen   Der Berliner Archäologe Friedrich von Delitzsch entdeckte bei seinen Ausgrabungen in Mesopotamien (babylonische Funde, Babel) Schrifttafeln, auf die denen die Paradiesgeschichte der Bibel ("Garten Eden", Genesisgeschichte) 800 Jahre vor der Bibel auftauchte. Die Paradiesidee ist in Bibel, Thora und Koran enthalten. Sie wurde wohl abgeschrieben und verfremdet. In der Bibel findet sich eine negativere Darstellung der Rolle der Frau: Sie ist Sünderin und Verführerin. Das dürfte das Frauenbild in den Religionen nachhaltig beeinflusst haben. Als Delitzsch seine Entdeckung publik machen wollte, wurde er von Kaiser Wilhelm II. auf Druck der Kirche zurückgepfiffen. Delitzsch hatte die Vermutung, dass die Paradiesfabel die Zeit verklärt, als die Menschen noch nicht sesshaft waren (Jäger und Sammler). In der Bronzezeit entstand auch in Europa eine Kultur der Sesshaftigkeit. Es gibt große Ähnlichkeit mit unserer heutigen Kultur (Hygiene, Essen, Handwerk). Es galten Heiratsregeln, die von unseren heutigen abweichen (strenges System der Verwandtschaftsheirat). Heirat von Cousin und Cousine waren üblich, wohl um das ererbte Ackerland nicht weiter aufzuteilen. Es sollte auch eine gewisse Kontinuität der Familie an einem Ort geben, was für den Anbau von Oliven und Wein wichtig ist.   Sehr viel über diese Zeit zeigen die Ausgrabungen von Egtved in Dänemark. In der Fundstelle fand man auch das berühmte Mädchen von Egtved. Die neue archäologische Technik der Jonen-Strontium-Analyse beweist, dass das Mädchen mindestens zweimal vom Schwarzwald nach Egtved hin und her gewandert ist. Offenbar bestand eine hohe Mobilität von Frauen. Sie war wohl Hohe Priesterin oder Handelsagentin. Der Handel zwischen den Netzwerken regionaler Siedlungen war offenbar sehr ausgeprägt. Aus dem Norden exportierte man Bernstein, aus der Mitte Kupfer und von außen (GB, Asien) Zinn. Bronze bestand zu 90% aus Kupfer und zu 10% aus Zinn. Es gab auch Landwirtschaft (Schafe, Getreide: Emmer, Dinkel). Es gab auch schon das erste gebraute Bier. Es entstand ein ausgeprägtes Textilhandwerk, was die Lederbekleidung ablöste. Die Gesellschaft war schon hierarchisch und differenziert, aber ohne staatliche Ordnung. 

Viele Jahrtausende betrug die Lebenserwartung etwa 25 bis 30 Jahre, Hunger und Krankheiten bedrohten das Leben, über dreißig Prozent der Neugeborenen erlebten nicht ihren fünften Geburtstag. Als Schicksalsjahr gilt 536 n. Chr. Ein Vulkanausbruch auf Island stürzt die Welt in eine Katastrophe unvorstellbaren Ausmaßes. Ernten fallen aus, Hungersnöte fordern zahlreiche Opfer. Ratten tragen die Seuche "Pest" von Dorf zu Dorf. Die Pest befällt Nordafrika, Europa und Asien. Die Pest war die erste große Pandemie, die im 14. Jahrhundert wütete und ihren Herd ebenfalls in China hatte. Ökonomische Folgen waren: Arbeitskräfte knapp, Löhne stiegen, hohes Angebot an Nahrungsmitteln traf auf dezimierte Nachfrage (Preise sanken). Zwangsarbeit verschwand. Es entstanden kapitalistische Arbeitmarktstrukturen. In den letzten 250 Jahren hat sich dies alles geändert. Der Lebensstandard konnte enorm wachsen. Dies war u. a.  durch technischen Fortschritt, Bildung, Patentrechte, Demokratie, bessere Arbeitsteilung und neue Rechtsformen (z. B. beschränkte Haftung) möglich. Entscheidend war natürlich die industrielle Revolution (vgl. Galor, Oded: The Journey of Humanity, München 2022). Es ist sehr lehrreich, sich diese Ursprünge der Wirtschaftsgeschichte immer wieder vor Augen zu halten, um die Leistung moderner Wirtschaften zu würdigen. Natürlich leitet sich daraus eine hohe Legitimation für das Fach ab, was sich mit der Funktionsweise von Wirtschaften beschäftigt, nämlich die Volkswirtschaftslehre. Die historische Methode hat neben der Mathematik, Statistik, Logik, Experimenten u. a. eine gleichberechtigte Stellung in der Volkswirtschaftslehre.  "Die Geschichte hat keinen Sinn - aber der Mensch kann ihr einen Sinn geben", Karl Popper.

Ebenso viele Jahrtausende prägten Kaiserreiche die Geschichte. Eine der ersten Dynastien waren die Pharaonen in Ägypten. Sie wurden von Eliten getragen. Diese forderten den Nachweis der politischen und sakralen Legitimität. Monumentale Bauwerke, Inschriften und Reliefs demonstrierten auf symbolischer und realer Ebene die politische Macht der Herrscher. Die Pharaonen identifizierten sich mit Göttern des traditionellen Mythos vom Sonnenauge und begründeten so ihre geistliche Machtstellung. Das alte Ägypten wurde vor allem von einem Handwerk geprägt, dem Mumifzieren. Es war ein Wegbereiter früher Globalisierung: Harz und Zedernöl aus der Levante, Bitumen aus der Gegend des Toten Meeres, Dammar aus Malaysien, Elemi-Harz aus Südostasien und dem tropischen Afrika. Betuchte Menschen und Menschen aus dem Mittelstand konnten sich Mumifizierer leisten. Die Natur war in der Antike durchdrungen von übernatürlichen Kräften. Gottheiten bildeten in der Weltsicht die oberste Ebene auf der ganzen Welt. Magische Praktiken sollten Leben schützen und im Alltag helfen (Fingergesten, Befragung der Götter durch Orakel). Mächtige und große Kaiserreiche hatten die Perser (Darius), die Makedonier (Alexander der Große, starb 323 v. Chr. erst 32-jährig am Guillain-Barre-Syndrom) und die Mongolen (Dschingis Khan, gestorben 1227 n. Chr.). Auch europäische Monarchen begründeten ihre weltliche Macht, indem sie sich als Stellvertreter Christi auf Erden inszenierten (Bewahrer der gottgewollten Ordnung). Sie fanden immer wieder Wege, sich neben den Papst zu stellen (notfalls war das Reich heilig wie bei Barbarossa). Noch im 19. Jahrhundert gab es zahlreiche große Herrschaftsgebiete, an deren Spitze Monarchen standen: Das Osmanische Reich. Das Österreich-Ungarische Reich. Das Russische Reich des Zaren Nikolaus II. Das Deutsche Reich Wilhelm II. Das Herrschaftsgebiet des englischen Königreichs mit Viktoria an der Spitze. Es erreicht den größten Umfang überhaupt in der menschlichen Geschichte. Ein symbolischer Überrest ist heute das Commonwealth of Nations. Im Kaiserreich China regierte die Kaiserwitwe Cixi in einem Reich, das seit 2000 Jahren bestand. Der Kaiser von Japan, Meiji, galt immer noch als göttlich. Die Herrscher hatten für Stabilität, Sicherheit und Gerechtigkeit zu sorgen. Dafür bekamen sie die Loyalität der Menschen. Irgendwann hatten die Systeme eine Größe und Macht erreicht, dass Menschen sie nicht mehr absetzen bzw. bekämpfen konnten. Erst der 1. Weltkrieg, der die industrialisierte Kriegsführung mit sich brachte, zeigte, dass absolute Herrschaft viel zu gefährlich war. Nach und nach mussten die meisten der Herrscher abdanken und es bildeten sich Demokratien mit allgemeinem Wahlrecht. Vgl. John Higgs: Alles ist relativ und anything goes, Berlin 2016, S. 69ff.

Exkurs. Schriften: Am meisten kann man aus der Vergangenheit aus Schriften lernen. Das sind Zeichen auf Stein, Ton, Papyros, Birkenrinde, Leder, Felsen u. a. Die Sumerer erfanden die Keilschrift. Ähnliche Schriften hatten die Ägypter, Assyrer in Nimrud und Völker in Asien (Tadschikistan, Usbekistan, Afghanistan). Teilweise wurde die Schriften erst in  jüngster Zeit entziffert, manchmal mit Hilfe von KI (wird von Sprachwissenschaftlern, Linguisten eingesetzt). Auch die Inkas, Mayas und Azteken in Mittel- und Südamerika hatten eigene Schriftzeichen, die man erst spät entziffern konnte. Aus ihnen kann man auch einiges über den Untergang und Kriege erfahren.

Wirtschaftsgeschichte und Geschichte allgemein haben generell in Asien einen höheren Stellenwert. In Mesopotamien, im Zweistromland, entstand das erste Wirtschaftssystem der Geschichte. Zwei Sprünge waren dafür entscheidend: Sprache (mit Schrift) und Überschuss. Die schriftliche Verbuchung der Erntemengen steht am Beginn der Erschaffung von Schulden und Geld. Besitzrechte an Getreidevorräten wurden auf Muscheln oder ersten Metallmünzen notiert. Entscheidend war der Glaube an den Tauschwert dieser Einheiten (Glauben = Credere, heute das Wort "Kredit"). Eine kollektive Institution (Staat) wachte darüber: In Mesopotamien (das Land zwischen den Flüssen: Euphrat und Tigris). Drei der wichtigsten Zivilisationen sind dort entstanden: Sumerer, Babylonier, Assyrer. In vielerlei Weise waren die Mesopotamier ihrer Zeit voraus: Frauen galten aus Individuen mit eigenen Rechten, besaßen Land, konnten sich scheiden lassen und Geschäfte führen. Die erste Stadt Uruk bedeutet den Anfang von Schrift, Architektur und Städtewesen. Mit Hilfe der KI kann man heute fast alle erhaltenen Reste der Keilschrift entziffern. In China wird immer wieder darauf verwiesen, dass das Land bis Mitte des 19. Jahrhunderts die größte Volkswirtschaft der Erde war und das viele technologische Errungenschaften aus China kommen. Das Land verfügt über eines der ersten Schriftsysteme der Welt (Jiahu - Schrift, 6600 v. Chr., am gelben Fluss). Schon 4000 vor Christus begannen die ersten Bauern in Südchina, Nutzpflanzen wie z. B. Reis zu kultivieren . In den Lehrbüchern der Wirtschaftsgeschichte oder überhaupt in der Geschichte werden in der Regel die Vorgänge in China ausgeblendet. Das ist verwunderlich, weil das Land von 800 n. Chr. bis ins 18. Jahrhundert die größte Volkswirtschaft der Erde hatte. Entsprechend einflussreich waren die Ereignisse in China für Asien und die ganze Welt. Frühe chinesische Münzen bestanden oft aus Bronze und Kupfer und hatten ein Loch in der Mitte. China war wie alle Reiche dieser Zeit eine Agrarwirtschaft, konzentrierte sich aber allein auf seine Binnenwirtschaft und verteidigte seine Außengrenzen (chinesische Mauer; geringer Handel über die Seidenstraße). Diese wirtschaftliche Ausrichtung änderte sich grundlegend in der Ming-Dynastie (Herrschaftsepoche von 1368-1644).  Die Ming perfektionierten das Steuersystem im Inneren und schufen ein Tributsystem mit den Nachbarstaaten. Sie setzten sehr stark auf den Außenhandel, zunächst in Asien und später mit dem maritimen Europa (Exporte: Porzellan, Seide, Tee). In diese Epoche fallen auch die Fahrten von Eunuch Zheng He über fast die ganze Welt. Sogar kulturell und technisch will man von Innovationen aus Europa profitieren (Aufnahme von Jesuiten, z. B. Matteo Ricci; Astronomie; als "Sohn des Himmels" musst der Kaiser die Zeit im Griff haben). Venedig war zu der Zeit eine Weltmacht im globalen Handel und hatte nahezu ein Monopol im Handel mit China. Aus China importiert wurde Seide und Porzellan. Nach China exportiert wurden Textilien, Schmuck, Gewürze, Lederwaren, edle Hölzer, Pelze. Die Polos hatten Kontore am Ural. Sie betrieben Handel über die Seidenstraße zur Zeit der "Goldenen Horden" der Familie Khan. Marco Polo soll Kublai Khan, den Enkel von Dschingis Khan in Dunhuang oder Shangdu getroffen haben. Der machte ihn zu seinem Präfekten. Marco Polos Lieblingsstadt in China soll Hangzhou gewesen sein. Auf dem Seeweg reiste Polo zurück (von Quanzhou aus, der Partnerstadt von Neustadt Weinstraße).  Marco Polo (1271-1295; in genuesischer Gefangenschaft schrieb er seine Erlebnisse auf; das Erfolgsbuch prägte vor den Jesuiten das Chinabild der Europäer) Er reiste, berichtete und brachte viele Produkte und  Erfindungen aus China, das zu der Zeit die technologische Führungsmacht der Welt war, nach Europa. An den Erzählungen Marco Polos zweifelten schon die Zeitgenossen. 17 Jahre will er das Land bereist haben. Beim Schreiben half ihm der Mitgefangene Rustichello da Pisa. Das Buch heißt "Il Milione". Es wurde in zahlreiche Sprachen übersetzt. Die Dogenrepublik hatte in ihrer Blüte die Kontrolle über Konstantinopel, große Teile der Türkei und Griechenlands einschließlich der Insel Kreta. Venedig war im vierzehnten Jahrhundert die wichtigste Handelsstadt Europas und wohl auch der Welt. Mit der Entdeckung Amerikas 1492 begann der Abstieg der Dogenrepublik. Venedig konzentrierte sich dann auf das "Terra ferma", das Hinterland. Sehr fortschrittlich war das Regierungssystem der streng oligarchisch strukturierten Republik. Adelsfamilien hatten ein perfektes System der zeitlichen Arbeitsteilung von Regierung und Gerichten entwickelt. Führend waren in der Zeit auch viele wichtige Künstlerpersönlichkeiten (Bellini, Canova, Giorgione, Palladio, Tizian, Tintoretto). Noch 1699 meinte der deutsche Philosoph Gottfried Wilhelm Leipnitz, die Chinesen seien in ihrem Rechtssystem und ihrer Ethik überlegen, in Mathematik und Kriegsführung jedoch unterlegen. 1721 hielt ein anderer deutscher Philosoph, Christian Wolff als Prorektor der Universität Halle, eine Festrede über die praktische Philosophie der Chinesen. Seine Ausführungen über Konfuzianismus und Christentum wurden als Ausdruck einer atheistischen Grundhaltung ausgelegt. Er musste die Universität und die Stadt augenblicklich verlassen, um nicht der Gotteslästerung angeklagt zu werden (Quelle: Nadav Eyal: Revolte, Berlin 2020, S. 73). Das Beben in der Türkei und Syrien im Februar 2023 zerstörte viele Zeugnisse der frühen Zivilisationsgeschichte. Die Verwüstung vom Euphrat bis zum Tigris ist groß. Schon vorher waren viele kulturell wichtige Stätten durch Krieg zerstört worden. Hier begann einst die neolithische Revolution mit dem Übergang zu Ackerbau und Viehzucht. Zerstört wurden Antiochien am Orontes, Edessa, Germanicea, aber auch Antakya, Sanliurfa und Kahramanmaras.

Damit läuft hier etwas ab, was sich ab Ende der Achtzigerjahre des vorigen Jahrhunderts wiederholt. Interessant ist die Frage, warum China im 18. Jahrhundert den Anschluss an die führenden Ökonomien im Westen verlor. Hierzu hat der deutsche Ökonom Werner Sombart wichtige Faktoren des Kapitalismus beschrieben: Wettbewerb der Länder durch Kriege und durch Prestigekonsum.  Metropolen sind immer Fixpunkte der Weltwirtschaft gewesen. Viele sind irgendwann grandios gescheitert: So etwa Brügge in Belgien, Lübeck in Deutschland, Venedig in Italien  oder Turku in Finnland. Sie scheiterten an verschiedenen Faktoren: Kein Zugang mehr zum Meer, Handelswege änderten sich, falsche Investitionen, politischer Wandel.

Exkurs: Querdenker der Geschichtsschreibung in China: Auch in China gibt es Querdenker, die gegen den Mainstream anrennen. Man könnte sie Revisionisten der Weltgeschichte nenne. Unklar ist, inwieweit sie im impliziten Auftrag der kommunistischen Führung handeln. Ihre Grundthese ist, dass der ganze Westen eine  missratene Kopie Chinas sei. Herausragende Vertreter sind Dong Bingsheng mit seinen Büchern "Fiktive antike griechische Geschichte" (2015) und "Fiktive Geschichte der westlichen Zivilisation"  (2017). Das alte Rom seien nur Geschichten. Noch weiter geht Xuanshi in seinem Buch "Die fiktive Geschichte der westlichen Kultur" (2017). Die modernen  und postmoderne Wissenschaft habe ihren Ursprung nicht in Europa, sondern in China (bei Menzius, 372 - 289 v. Chr.). Diese These baut Du Gangjian in seinem Buch "Der Ursprung der Zivilisation und die Welt der großen Harmonie" noch aus (2018). Man vermutet, dass sich der historische Verdacht gegen die These richtet, China habe nur vom Westen gelernt und erfolgreich kopiert. Auf der anderen Seite gab es auch Vertreter in China, die die 5000 jährige Geschichte anzweifelten und auf  2000 Jahre reduzierten (Gushi bian 1926). Die neue sonderbare Art der Geschichtsschreibung passt zum Symptom des erstarkten Selbstbewusstseins Chinas. Vgl. Siemons, Mark: Das historische Komplott, in:  FAZ Nr. 54, 5.3.2021, S. 9.

Die Menschheit machte den größten Fortschritt ihrer Geschichte durch landwirtschaftliche Revolutionen. Zuerst in Mesopotamien um 9000 v. Ch. (die Wiege unserer Zivilisation, die ab 2014 systematisch vom IS zerstört wurde, z. B. Nimrud), dann in China um 7000 v. Ch., später in Nordafrika, Mittel- und Südamerika und Europa. In Mesopotamien kommen sieben wichtige Erfindungen: die Schrift, die Monarchie, die Medizin, das Rechtswesen, das Geld, die Zeitmessung und das Rad. Auch die drei großen Weltreligionen "Islam, Judentum, Christentum" gehen letztlich auf Ur zurück, wo Abraham lebte. Er ist gemeinsame Ursprung aller drei Religionen, aus denen die Philosophie hervorging. Einen weiteren großen Fortschritt brachte die Spezialisierung (z. B. nur Getreide, Produktivitätssteigerung, dann Tausch der Produkte mit anderen Menschen).  Im Zweistromland gab es wohl schon Mehlmanufakturen und Brauereien. In Lydien wurden um 600 v. Chr. die ersten Münzen der Welt geprägt (in Sardis unter König Krösus; hier trafen sich die wichtigsten Handelsströme der damaligen Welt und der Tauschhandel musste vereinfacht werden; Kurantmünzen mit festen Regeln nach Gewicht und Reinheit; die Münzen waren aus einer Gold-, Silber-Legierung). Vorher waren in Indien Kaurimuscheln ein Zahlungsmittel. Der wissenschaftliche und technische Fortschritt aus Ägypten,  Persien und Arabien fasst zunächst in Europa auf der Insel Kreta Fuß.  Die ersten großen Reiche der Erde, angefangen von Mesopotamien über die Qin-Dynastie in China und das Römische Reich waren Kooperationsnetzwerke, die sich eine Ordnung mit Werten gegeben haben. 1776 v. Ch. war Babylon die größte Stadt der Welt (das Rechtssystem war der Kodex Hammurabi). Die Sumerer erfanden das erste Datenverarbeitungssystem der Geschichte, das ca. 5000 Jahre alt ist. Sie nannten es Schrift (hier wurde zum ersten Mal Information gespeichert und verbreitet; die Tontafeln waren auch Empfangsquittungen). Sie verfassten auch den ältesten Mythos der Menschheit, das Gilgamesch-Epos. Es geht im Kern um den Sieg des Menschen über den Tod. Der Feldzug Alexander des Großen über Persien und Indien nach Afghanistan im vierten Jahrhundert vor Christus brachte viele Hoch-Kulturen zusammen. Alexander ließ Münzen prägen aus Silber. Er brauchte die Münzen als Sold für seine Soldaten; die Münzen waren aber in der ganzen damaligen Welt gültig (das meiste Silber dafür eroberte er in Persien: 9 Mio. kg = heute 4 Mrd. €). Vor den Römern beherrschten die Kelten Europa (sie besiegten 387 v. Chr. die Römer an der Allia, Nebenfluss des Tiber; Anführer Brennus; Rom kauft sich mit 1000 Pfund Gold frei; "Vae victis"; Geschichtsschreiber Livius). Sie waren technologisch (Waffentechnik) überlegen, zerfielen aber in viele Stämme. Die Römer und später Karl der Große schafften  schon ein erstes Großeuropa (Vorläufer der EU). Von großem Einfluss auf die wirtschaftliche Entwicklung der Erde waren die Wikinger (von vrikingr - "Seekrieger auf langer Fahrt"). Sie erlebten ihre Blütezeit Ende des 8. Jahrhunderts an bis in die Mitte des 11. Jahrhunderts. Sie verwüsteten im 800 Jhrdt. einerseits das damalige "Silicon Valley" in Nordostengland (Kloster Lindisfarne, Jarrow; die Klöster lagerten Gold); andererseits verbreiteten sie die Kultur und prägten die Entwicklung der englischen Sprache, die heute Weltsprache und Wirtschaftssprache ist und stellten die Technik für Schiffbau und Weltreisen zur Verfügung (auch noch im 11 Jhrdt. als Normannen). Die Beutezüge waren wahrscheinlich Initiationsriten für junge Krieger, denn die Wikinger waren reich. Grundlage war eine Sklavengesellschaft (Sklaven als Geiseln der Raubzüge oder als Waren und Arbeitskräfte). Jetzige Historiker sehen die Elitekämpfer als Vorläufer heutiger Gotteskrieger (mit der Durchsetzung des Christentums endete die Ära, Odin war besiegt). Ihre technischen Errungenschaften sind heute noch sichtbar (Langboote, Langhäuser, Häuser aus Torf). Sie verehrten noch die Götter Odin, Thor und Freya. Sie reisten über Flüsse und Meere nach Istanbul, Bagdad und Russland. Von der Wikingerbezeichnung "Rus" kommt das Wort Russland. Eine wichtige Handelsstation war Nowgorod. Die Wikinger entdeckten auch Amerika (Neufundland: L´ance Au Medows, Point Rosee waren Siedlungen mit Eisenverarbeitung; Ausgrabungen). Ihr Anführer dabei war Leif Erickson um 1000 n. Chr. Auf Neufundland lebten die Wikinger um 1021. Sie legten rund 4000 km zurück. Von ihren Reisen berichten die Sagas. Die Indianer vertrieben die Wikinger wieder, auch weiter aus dem Süden (New Brunswick). Um 900 n. Chr. verbreiteten die Wikinger den arabischen Dirham (Münze). Berühmt wurde auch König Blaubart (er ist Namensgeber heute für Bluetooth; 2018 wird ein Schatz von ihm auf Rügen gefunden; er musste vor seinem Sohn fliehen; er liegt im Dom von Roskilde begraben). Berühmte Wikinger Handelsplätze kann man noch heute besichtigen (Haitabu/ Weltkulturerbe; Ribe; Roskilde; Aarhus). Frauen hatten bei den Wikingern eine stärkere Rolle als im Christentum (Erbrecht, Scheidung, Haushaltsführung während der Reisen der Männer). 793 griffen die Wikinger die heilige Insel Lindisfarne im Norden Englands an. Sie änderten den Kurs des Landes für immer. Nach vielen Jahren des Kampfes beanspruchten sie erfolgreich einen Großteil Nordenglands. Die Wikinger traten zum Christentum über, um ihre Handelspartner nicht zu verlieren. Man weiß nicht viel über die Wikinger, weil sie keine schriftlichen Überlieferungen hinterlassen haben (sie waren wohl nicht so grausam wie überliefert, das Wort Berserker steht für leicht bekleidete Kämpfer). Im Jahr 1500 n. Chr. lebten 500 Mio. Menschen auf der Erde, heute sind es fast 8 Mrd. Vor dem 16. Jahrhundert hatte noch nie ein Mensch die Erde umrundet, was sich 1522 mit Magellan änderte (1492 wurde Amerika durch Kolumbus angesteuert und für wirtschaftliche Zwecke genutzt: Edelmetallausbeutung und Handel mit Tabak, Baumwolle u. a.; vorher waren die Wikinger schon da, s. o.). Von 1500 bis 1800, also dreihundert Jahre, wurden Sklaven von Afrika nach Amerika und Asien transportiert, um die arbeitsintensive Landwirtschaft ausbauen zu können. Die meisten Sklaven kamen aus Ghana (Cape Coast). Die meisten waren junge Männer, die in den Heimatländern schmerzlich vermisst wurden. Bis zu 20 Mio. Sklaven wurden transportiert. Die Profite blieben in den europäischen Kolonialländern (Spanien, Portugal, Niederlande, Großbritannien, Deutschland). Es waren die ersten großen Wertschöpfungsketten (Rohstoffe aus Amerika, Sklaven nach Amerika, Waffen nach Afrika). So vermischten sich ganze Kulturen (erzwungene Migration in großem Ausmaß). In den vergangenen fünf Jahrhunderten schafften es die Europäer am besten, Wissenschaft, Kapital und Imperialismus zu verknüpfen und schufen sich ein Weltreich (Vgl. Yuval Noah Harari: Eine kurze Geschichte der Menschheit, München 2013, S. 134ff.). In der industriellen Revolution wurden die fossilen Energiequellen optimal genutzt und verarbeitet. Industrieproduktion schaffte Wirtschaftswachstum, wälzte das Alltagsleben um und änderte die Menschen (Verstädterung, Jugendkultur, Niedergang des Patriarchats, Schwinden der Familie, weniger Gemeinschaft). 1857 bricht die erste Weltmarktkrise aus, eine Krise der Überproduktion. Karl Marx, der in London zu der Zeit lebte, sieht sich in seinen Vorhersagen bestätigt, Friedrich Engels verliert die Hälfte seines Vermögens.  Seit Beginn des 21. Jahrhunderts verliert der Nationalstaat an Boden. Kein Nationalstaat ist mehr vollständig souverän in dem Sinne, dass er eine eigenständige Wirtschaftspolitik machen kann. Weltmärkte, Multis und NGO zeigen Grenzen auf und beeinflussen. "Iß nun das Brot, O Enkidu, denn das gehört zum Leben. Trink auch vom Bier, wie es des Landes Brauch", Gilgamesch-Epos. Vgl. Tomas Sedlacek: Die Ökonomie von Gut und Böse, München 2013, S. 33ff.

Exkurs. Einflüsse des Klimas und Naturkatastrophen auf den Geschichtsverlauf: Klima- und Wettermuster veränderten die Welt von Anfang an. Das Mensch beutete immer die Natur aus und prägte das Klima. Das scheint schon so seit 5000 Jahren zu gehen. Berühmte Beispiele sind: Die Intensivierung des Reisanbaus in China, verbunden mit Brandrodung,  brachte mehr Methan in die Atmosphäre. Das Reich von Angkor der Khmer ging durch Klimaveränderungen unter. Der Vulkan Okmok in Alaska löste 43 v. Chr. Klimakatastrophen aus. Ausbleibende Nilfluten brachten Ägypten zu Fall. Mohammed profitierte stark von veränderten Wettermustern. Die Mongolen profitierten von massiven Regenfällen, was in den Steppen das Gras wachsen ließ. Vgl. Frankopan, Peter: Zwischen Erde und Himmel. Aus dem Englischen von Henning Theis und Jürgen Neubauer. Rowohlt Berlin 2023. Auch Interview in Der Spiegel 29/ 15.7.23, S. 112ff. Erdbeben und damit verbundene Tsunami zerstörten ganze Kulturen. Das kann man besonders gut im Mittelmeerraum beobachten, wo afrikanische Platte und Europa zusammenstoßen. Besonders auf Zypern gibt es dazu einen unerschöpflichen Reichtum von Ausgrabungen (Salamis, Parphos). Wahrscheinlich gingen auch Hochkulturen in Südamerika durch Naturkatastrophen unter.  "Lebe in völliger Harmonie mit der Natur", hinduistisches Yajurveda, vor rund 3000 Jahren

Der Kapitalismus als Wirtschaftssystem, das auf der Idee basiert, aus Geld Geld zu machen (Zugewinn im Mittelpunkt), entsteht um 1300 in Italien (um 600 v. Chr. wird im kleinasiatischen Lydien erstmals Geld verwendet). Der Markt ist das Herzstück. In Florenz und anderen Städten Mittel- und Norditaliens entstehen Banken (Bankwesen) und das System der doppelten Buchführung (der Mönch Luca Pacioli beschreibt dies erstmals in einem Lehrbuch 1494). Er war der Lehrer von Leonardo Da Vinci.  Leonardo Da Vinci machte 20.000 Zeichnungen. 7000 sind bis heute nur erhalten. Er gilt als das größte Genie der Geschichte. Er sah im Grunde genommen fast alles voraus. Am berühmtesten ist sein Gemälde "Mona Lisa", das im Louvre in Paris hängt. Leonardo behielt fast alles für sich. Die Zisterzienser, ein Orden, waren im Mittelalter wirtschaftlich über vier Jahrhunderte außerordentlich erfolgreich. Sie entwickelten ein System der Betriebswirtschaftslehre. Sie waren sehr erfolgreich mit den Produkten Wein und Bier, die sie in ganz Europa vermarkteten. Sie scheiterten an Gegensätzen zwischen Laienmönchen und Hauptmönchen, die sehr privilegiert waren. Die Klöster waren Keimstätten der Kapitalgesellschaft (weil der Papst den Gewinn der Klöster zulassen wollte). Die jüngsten söhne der Adligen mussten in der Regel in die Klöster, was  deren Reichtum auch begünstigte. Je komplexer der Handel und je ausgeprägter die Arbeitsteilung, desto wichtiger wird das Geld (um Güter nicht direkt gegeneinander zu tauschen, auch der Kredit). Kaufleute aus der jemenitischen Aden organisierten schon im 11. Jahrhundert einen regen Handel sowohl mit der Westküste Indiens als auch mit den Suaheli-Händlern Ostafrikas. Am Ende der Herrschaft der Medici Ende des 15. Jahrhunderts wirkte der Mönch Savonarola  in Florenz. Er entwickelte viele Gedanken und Konzepte, die später immer wieder erfolgreich waren: Gottesstaat (Tibet), Kinderarmee (Afrika), straffe, hierarchische  Organisation (Mafia), bessere Kirche (Reformation, Luther). Man weiß wenig über ihn, weil alle seine schriftlichen Werke mit ihm verbrannt wurden (Papst Alexander VI. siegte). Um 1250 gibt es die ersten Banken, die Kaufleuten Darlehen für die Geschäfte ermöglichen. Später entstehen bargeldlose Zahlungsmittel, Aktien, Schuldscheine. 1324 n Chr. kommt es zu einer der ersten und berühmtesten Inflationen der Geschichte: Mansa Musa, König von Mali und damals reichster Mann der Welt, macht seine Reise nach Mekka und gibt dabei soviel Gold aus, dass der Goldpreis weltweit verfällt und 20 Jahre braucht, um sich wieder zu erholen. Von Mitte des 12. bis Ende des 17. Jahrhunderts bildete sich das bedeutendste wirtschaftliche Netzwerk im nördlichen Europa, die Hanse. Sie steht für die Blüte des Fernhandels. Die "Hanse" (Gefolgschaft, Gruppe) war im Mittelalter eine Vereinigung von Kaufleuten. Es ging um Sicherheit, insbesondere der Handelsschiffe. Das Bündnis war relativ leger. In Lübeck zeigt das Europäische Hansemuseum Aufstieg und Niedergang der Kaufmannsvereinigung. 1531 entsteht in Antwerpen die erste feste Börse, um das Kapital zu kontrollieren. Im 17. Jahrhundert ist das Goldene Zeitalter der Niederlande mit globalen Handelsgeschäften und ersten Aktiengesellschaften (das Amsterdam Rembrandts zeigt dies sinnbildlich). Um 1750 erfasst der Kapitalismus verstärkt die Produktion von Gütern. Immer mehr Anleger beteiligen sich auch an Unternehmen. Dann kommt die industrielle Produktion ab 1800, die alle Lebensbereiche verändert. Die industrielle Revolution ist die größte ökonomische Umwälzung der Geschichte nach der Sesshaftwerdung. Zu Beginn des 17. Jahrhunderts tragen niederländische Kaufleute den Kapitalismus in die Welt. Sie gründen die Vereinigte Ostindien-Kompanie (VOC) für das profitable Gewürzgeschäft (um das Monopol der Portugiesen zu brechen). Die Fahrten zu den Gewürzinseln in Südostasien dauerten Monate (mindestens acht) und waren teuer, so dass Investoren Anteile zeichneten. Vgl. Geo Epoche: Der Kapitalismus, Nr. 69, 2014. Der Kolonialismus wurde auch rassistisch begründet (Überlegenheit der Europäer). Die Briten und Kontinentaleuropa konnten zwischen 1750 und 1860 die Kontrolle über die weltweite Textilproduktion übernehmen. Die Hälfte der afrikanischen Sklaven, die zwischen 1492 und 1888 über den Atlantik verschleppt wurden, erteilte dieses Schicksal in der Zeit von 1780 bis 1860. Bis zu den 1780er und 1790er Jahren waren die Antillen und Saint-Domingue die Hauptproduzenten von Baumwolle. Nach dem Zusammenbruch der Plantagenwirtschaft auf Saint-Domingue im Gefolge des Sklavenaufstands von 1791 wurden sie von die Südstaaten der USA abgelöst. Dort war die natürliche Fortpflanzung der Sklaven die sehr viel schnellere und effizientere Lösung als der Sklavenhandel. Erst 1810 wurde der Sklavenhandel offiziell abgeschafft. 75% der in europäischen Textilfabriken verarbeitenden Baumwolle stammt vor dem Bürgerkrieg in den USA aus dem Süden der Vereinigten Staaten. Gegen Indien wurde protektionistische Maßnahmen ergriffen. Im 17. und 18. Jahrhundert wurden Produkte des Verarbeitenden Gewerbes hauptsächlich aus Indien und China importiert und größtenteils durch Goldimporte aus Europa und Amerika (auch Japan) finanziert. Namentlich bedruckte Stoffe und baue Kattune kamen aus Indien. Die europäische Kaufleute heizten die Stimmung gegen indische Textilimporte an und sorgten für hohe Zölle. Dadurch sank der Anteil Indiens und Chinas dramatisch.   Vgl. Piketty, Thomas: Eine kurze Geschichte der Gleichheit, München 2022, S. 68ff. Eine zentrale Frage des Kapitalismus ist, woher ursprünglich das Kapital kommt, was sich so famos vermehrt (Sündenfall). Marx führt die ursprüngliche Akkumulation auf Verbrechen zurück. Als Beispiele nennt er im "Kapital" den Raub der Kirchengüter oder den Raub von Gemeindeland in GB (Schottland), der den Bauern die Lebensgrundlage entzieht. Eine wichtige Frage ist, ob Privateigentum notwendigerweise zum Kapitalismus gehört (in China nur Volkseigentum mit Nutzungsrechten). Das größte kapitalistische Reich der Geschichte und das größte Reich überhaupt war das britische Königreich. Es verdankte seine Existenz dem Ausschöpfen aller Grundzüge des Kapitalismus. Auf seinem Höhepunkt wohnten in ihm ein Drittel aller Menschen. Noch 1926, als Queen Elisabeth II. geboren wurde, bestand das Reich. Ein symbolisches Überbleibsel ist das Commonwealth. Andere Wissenschaftler weisen auf die globale Perspektive hin. Afrikanische, indische, chinesische, arabische und amerikanische Kaufleute , Arbeiter , Bauern und Erfinder seien in der Geschichte genauso wichtig wie jene des europäischen Kontinents. Die Geschichtswissenschaft fängt gerade an, diese globale Geschichte in ihrer ganzen Komplexität zu erkunden. Hundis (Wechsel) und Mufawada (Gemeinschaftsunternehmen) waren Handelswerkzeuge in Indien, China und der muslimischen Welt, bevor es einen Weg zu europäischen Kaufleuten fand. Der Kapitalismus speiste sich aus der wechselseitigen Vernetzung verschiedener Weltregionen. Die Europäer waren so erfolgreich aufgrund ihrer Lage und aufgrund der Verbindung  zu den europäischen Staaten. Vgl. Beckert, Sven: Globalgeschichte des Kapitalismus, Rowohlt 2023. Der Erfolg und Aufstieg Deutschlands bis zum Exportweltmeister im letzten Jahrhundert wird auch noch anders erklärt: "Nicht die industrielle Kontinuität sicherte also die Dominanz der deutschen Wirtschaft im Außenhandel, nicht die "deutsche Wertarbeit" oder gar ein besonderes nationales Arbeitsethos, nicht Erfindungsreichtum oder die über Jahrzehnte kultivierte besondere Organisation der Produktion, sondern die permanente Anpassung von Produktion und Politik an die Erfordernisse des Weltmarktes. Diese Anpassungsfähigkeit ist historisch gesehen vielleicht die große Stärke der deutschen Wirtschaft". Siehe Hesse, Jan-Otmar: Exportweltmeister, Berlin 2023, S. 100. Wenn diese letzte Analyse zutreffend ist, ist das ein Argument dafür, dass Deutschland vielleicht auch jetzt noch einmal die Kurve kriegt. "Jeder Manager, der erfolgreich sein will, muss den Kapitalismus als dauernden Umbruch und Neubeginn begreifen", Dieter Schnaas, Immer mit der Ruhe, in: Wirtschaftswoche 1/23.12.2015, S. 77. "Die Verwandlungsfähigkeit des kapitalistischen Systems ist schwer zu schlagen. Es ist wie bei einem Virus, das dauernd mutiert. So wird dann auch der Untergang des Kapitalismus, der immer wieder prophezeit wird, immer wieder - gerade noch! - verhindert. Der Kapitalismus ist den Untergangspropheten  stets eine Nasenlänge voraus". Hans Magnus Enzensberger, 2022 (in seinem Todesjahr).

Exkurs. Erdapfel (Globus) von Behaim: Er stammt aus dem Jahre 1492. Er wurde von Martin Behaim in Nürnberg geschaffen (Gemeinschaftswerk von Handwerkern, vom Rat in Nürnberg finanziert). Ein paar Kontinente fehlen noch (unter anderen Amerika). Auch die Proportionen stimmen nicht. Der Globus steht heute im Deutschen Nationalmuseum in Nürnberg. Es ist ein merkantilistischer Blick auf die Welt mit Europa als Zentrum (auch Sklavenhandel). Behaim arbeitete mit zeitgenössischen Quellen, unter anderem die Reiseberichte von Marco Polo.  Vgl. Willmann, Urs: Welt ohne Amerika, in: Die Zeit 20/ 11.5.23, S. 31.

Große Umverteilung und Sozialstaat (1914 - 1980): Zwischen 1914 und 1980 wurden in der gesamten westlichen Welt (GB, Frankreich, Deutschland, USA, Schweden usw.), wie übrigens auch in Japan, Russland, China und Indien auf unterschiedliche Weisen Eigentums- und Vermögensverhältnisse abgebaut. Der erste Faktor ist die wachsende Mobilisierung der sozialistischen und gewerkschaftlichen Bewegung seit dem Ende des 19. Jahrhunderts. Bildung, Gesundheit und soziale Sicherung geraten in den Vordergrund.  Man spricht vom Aufstieg des Sozialstaates. Der zweite Quantensprung stellt der Steuerstaat dar. Progressive Einkommensteuer und Erbschaftssteuer werden aufgebaut. Es kommt zu einer realen Steuerprogression. Sie wird zum Abbau von Ungleichheit benutzt. Das Kolonialvermögen wird liquidiert, ebenso die Staatsschulden. Europa baut sich auf mit demokratischen Systemen. Der freie Kapitalverkehr entwickelt sich zur Zensusmacht. Vgl. Piketty, Thomas: Eine kurze Geschichte der Gleichheit, München 2022.

Einige Muster bleiben über die Jahrhunderte gleich. So die Aufstände der Bauern. Sie fürchten zu allen Zeiten um ihre Existenz. Schon vor 500 Jahren stiegen sie auf die Barrikaden - damals machten ihnen die adligen Herren zu schaffen.  Sie verloren viele Kämpfe (Bauernkriege), weil sie falsch einschätzten, wie die Gegner bewaffnete Söldner rekrutieren konnten. Vgl. NZZ, 28.2.24, S. 26.

Geld bzw. Kapital als gesammeltes Geld ist die größte Antriebskraft und eine wichtige Quelle allen Fortschritts in der Wirtschaft und auch des Kapitalismus, gleichzeitig ist Geld ein Schmiermittel, das Milliarden wirtschaftlicher Transaktionen begleitet. Der direkte Handel (Barter Trade, Tauschhandel; 10.000 v. Chr. - 3000 v. Chr.) war zu ineffizient, Münzen und Tontafeln (vor 4000 Jahren Babylon) waren zu unbequem. Sie bestanden aus Edelmetallen (Gold, Silber, Kupfer; sie konnten nicht beschädigt werden). Die ersten richtigen Münzen als Geld wurden in der heutigen Türkei um 650 v. Chr. geprägt. Später entstanden Banknoten (in China, von Quittungen hergeleitet) und der Zahlungsverkehr in den Banken. In Europa war das zuerst 1660 in Schweden. Geldsysteme entstanden mit der Finanzierung von Kriegszügen, z. B. bei den Römern oder im Mittelalter für die christlichen Kreuzzüge. In Oberitalien entstanden im 12. Jahrhundert die ersten Seehandelskredite, die indisch-arabische Zählweise wurde übernommen und es wurden in Florenz die ersten modernen Banken gegründet (Marktstände: "Banchi" oder Einzahl "Banco"). Im 15. Jahrhundert wird dort die doppelte Buchführung eingeführt (siehe oben).  Es entstand auch die neue Zahlungsart "Wechsel". Mit der Entdeckung Amerikas und dem Seeweg nach Indien beginnt ein Aufschwung des Fernhandels und der Kapitalgesellschaften. Edelmetalle, an die das Geld lange Zeit gebunden ist, gelangen in großen Mengen nach Europa. 1531 wird in Antwerpen im heutigen Belgien der erste öffentliche Finanzplatz der Welt eröffnet (Van der Beurze). 1618 stürzt der Dreißigjährige Krieg Deutschland ins Chaos. Der Konfessionskrieg wird zum Kampf um die Vormachtstellung in Europa. Er entwickelt sich zu einer Art Urkatastrophe. Zahlreiche Dokumente belegen Folter, Mord und Vergewaltigung an der Zivilbevölkerung. Hungersnöte und harte Winter verschlimmern die Lage. Für Traumatisierungen gibt es keine Belege. Wahrscheinlich bot die Religion Erklärungsmodelle und auch Möglichkeiten, mit der Krise umzugehen. Im 18. Jahrhundert lösen Aktien von John Law die erste Spekulationsblase aus (Law verkaufte Aktien für die Mississippi Compagnie, aber es gab kein Gold in Louisiana; manche gehen auch vom holländischen Tulpenwahn 1637 aus). Damit gilt John Law auch als einer der "Erfinder" des modernen Kapitalismus. 1716 erhält er per königlichem Dekret die Erlaubnis, in Paris die Banque Generale zu gründen. Um sich Gold zu beschaffen, beteiligt Law das Volk (er verkauft Aktien). Die erste große Gelddynastie waren die Medici in Florenz. Es folgten die Fugger in Deutschland und die Rothschilds in Frankfurt, Paris, London und New York. Vgl. Sonderheft Nr. 4 des Spiegel: Geld, 2009. Die erste große Krise der Weltwirtschaft in der Neuzeit war 1857. Sie wurde von der Ohio Life Insurance Company ausgelöst. Sie hatte zu viel Geld in spekulative Anleihen für Eisenbahngesellschaften investiert. Diese Krise war allerdings rasch überwunden. Geld beruht auf zwei universellen Prinzipien: Es ist universell tauschbar. Mit Geld lässt sich fast alles umwandeln bzw. kaufen (Loyalität, Gesundheit, Wissen, Gerechtigkeit). Geld schafft Vertrauen. Geld kann Menschen immer dazu bringen, zusammen zu arbeiten. In der heutigen Welt ist die physische Präsens des Geldes nicht mehr notwendig, es könnte auch ausschließlich in digitaler Form existieren. In der Corona-Pandemie 2020/21 wird Helikoptergeld, vor allem in den USA, eingesetzt. Auch diese Idee hatte historische Vorläufer: Als 1630 spanische und französische Söldner die Pest in Venedig einschleppten, reagierte der Senat mit den heute bekannten Maßnahmen eines Lockdowns. Gleichzeitig erkannte man, dass die Bürger fiskalische Unterstützung brauchten. Der Senat beschloss also, die Löhne zu subventionieren oder Beschäftigungsprogramme ins Leben zu rufen. Es gab auch schon Kurzarbeitergeld. Diese Maßnahmen wurden durch Steuern, zum Teil aber durch Buchgeld der Banco del Giro finanziert. Das führte zum Wertverlust des Buchgeldes. Es gab so gesehen venezianisches Helikoptergeld, dass verteilungspolitisch motiviert war. Vgl. Hock, Martin: Pandemie und Helikoptergeld, in: FAZ Nr. 303, 29.12.21, S. 25. Die teuerste Banknote der Welt ist die Grand Watermelon Note von 1890 aus den USA. Sie wurde für 2 Mio. $ verkauft. Dann folgt der Red-Seal-1000-Dollar-Schein von 1891, der knapp 2 Mio. Dollar wert ist. Vgl. Cnyrim, P.: Erklärs mir, als wär ich 5, München 2022, S. 22.

Ganz wichtig sind auch die technologischen Errungenschaften der Menschheit für die Ökonomie. "Technikos" bedeutete im Griechischen Handwerk, Kunstfertigkeit. Schon seit 2,5 Mio. Jahren vor Christus gab es einfache Steinwerkzeuge. 1,5 Mio. Jahre vor Chr. kam das Feuer. Erste Speere werden auf 400.000 v. Chr. datiert. Pfeil und Bogen kamen um 20.000 v. Chr. Neuere Forschungen und Funde im Rhone-Tal weisen darauf hin, dass bereits vor 54.000 Jahren Menschen mit Fernwaffen geschossen haben. 9000 v. Chr. konnte man die ersten Metalle verarbeiten. 7000 v. Chr. lernte man das Fertigen von Keramiken. 5.500 v. Chr. wurde der erste Pflug erfunden. 5000 v. Chr. hatten die Ägypter schon Bewässerungssysteme am Nil. 3.500 v. Chr. wurde das Wagenrad erfunden. 1.800 v. Chr. gab es Windmühlen in Babylon. 400 v. Chr. nutzten die Chinesen den ersten Kompass. 150 v. Chr. wird in Rom der erste Beton verbaut. Um 650 n. Chr. wird Schwarzpulver in China oder Byzanz entdeckt. 868 n. Chr. machen die Chinesen den ersten Buchdruck (Holztafeldruck). 1712 gab es die erste Dampfmaschine. 1993 beginnt die Zeit des für alle zugänglichen Internets. Vgl. Lesch, H./ Kamphausen, K.: Die Menschheit schafft sich ab, München 2018, S. 136ff. "Keine Universalgeschichte führt vom Wilden zur Humanität, sehr wohl eine von der Steinschleuder zur Megabombe", Theodor W. Adorno, deutscher Philosoph und Soziologe (2019 wird seine Abhandlung über den Rechtsradikalismus wieder neu aufgelegt. Sie erscheint aktueller denn je).

Exkurs. Rohstoffe und Geschichte: Bodenschätze und ihre Nutzung haben einen großen Einfluss auf die Technologie, die Geschichte und die Ökonomie gehabt (das gilt bis heute). In Europa kann man das besonders gut am Rohstoff "Kupfer" nachvollziehen. Erste Kupfervorkommen wurden auf der Insel Zypern gefunden und abgebaut. Kupfer gab einer ganzen Epoche ihren Namen (Bronzezeit, der Name Zypern kommt von Kupfer). Erste Minen gab es in der Nähe der heutigen Stadt Polis im Süden von Zypern. Von dort wurde es nach Mesopotamien, Ägypten, Karthago, Kreta, Griechenland und Rom exportiert. Die Eroberung der Insel hing immer mit dem Rohstoff und natürlich auch der strategischen Lage zusammen. Heute sind der Iran, Chile und der Kongo die größten Kupferlieferanten. Im Altertum waren die Metalle wichtig, aus denen man Waffen und Gefäße sowie Schmuck machen konnte (Eisen, Kupfer). Später kamen Silber und Gold dazu, mit denen man auch Werte abbilden konnte. Andere wichtige Rohstoffe waren Salz, Zucker und Gewürze. Technologische Geheimnisse, mit deren Produkten gehandelt wurden - wie etwa Porzellan - konnten nur zeitlich begrenzt gewahrt bleiben.  Rohstoffe waren immer wichtige Handelsgüter. Der Stoff "Seide" gab der Seidenstraße ihren Namen. Rohstoffe (Steine, Metalle, Stoffe, Gewürze) und ihr Handel   prägten die Geschichte von der Antike bis in die Neuzeit. Stahl aus Schweden war legendär und gab so dem "Schwedenstahl" aus Kiruna den Namen.

Die Gedanken und Ideen der einflussreichsten Ökonomen waren auch durch die Zeit, in der sie lebten, geprägt. Der Ökonom Atonio Serra in Venedig abstrahierte 1613 eine Wirtschaftspolitik zur Theorie, die Jahrhunderte lang praktiziert worden war (vgl. Erik S. Reinert: Warum manche Länder reich und andere arm sind, Stuttgart 2014, S. 3). Adam Smith (1723 bis 1790, gilt als "Urvater" der Volkswirtschaftslehre) entwickelte das Wettbewerbskonzept der "unsichtbaren Hand". Er bricht mit der bis dahin herrschenden dirigistischen Wirtschaftsform des Merkantilismus (Zölle, Exportsubventionen). Als Zollbeamter liegt sein Focus auf Kauf und Verkauf grenzüberschreitend. James Watt, der Erfinder der Dampfmaschine (und damit Begründer der ersten industriellen Revolution), war zwar ein guter Bekannter.  Aber die Industrialisierung spielt in der Theorie von Smith noch kaum eine Rolle. Ein Freund war der Philosoph David Hume (Watt, Hume und Smith kannten sich vom Studium an der Uni Glasgow). Aus Deutschland ist hier Launhardt, Wilhelm zu nennen. Vgl.  Launhardt, Wilhelm: Mathematische Begründung der Volkswirtschaftslehre, Leipzig 1885. Er wurde 1832 geboren und starb 1918. Er war auch Rektor der Technischen Hochschule Hannover. Berühmt sind auch seine Arbeiten zur industriellen Revolution (Am sausenden Webstuhl, 1900). Werte stehen auch im Zentrum der Theorie von Smith. David Ricardo (1772-1823) plädierte mit seinem Konzept der komparativen Kosten für internationalen Handel (die Unterscheidung zu den absoluten Kosten war revolutionär; auch Arbeitswertlehre). Als weitere Klassiker gelten Thomas Robert Malthus (1766 - 1834, Bevölkerungsmodell) und Jean Baptiste Say (1767 1832, Angebotshypothese). Karl Marx (1818 bis 1883) analysierte den Kapitalismus und knüpfte an die Arbeitswertlehre von Ricardo an. Die ersten 30 Jahre seines Lebens verbrachte er in Trier, Bonn, Köln, Berlin, Jena, Paris, Brüssel), die nächsten Jahre als Staatenloser im Exil in London, wo er auch in Highgate begraben ist. Alfred Marshall (1842 bis 1924) führte das Angebots-Nachfrage-Modell (Marshall-Diagramm) ein und begründete die Wohlfahrtsökonomie.  Leon Walras (1834 - 1910), Hermann Heinrich Gossen (1810 - 1858) und William Stanley Jevons vervollständigen, was die Ökonomen heute neoklassische Mikroökonomik nennen. John Maynard Keynes, ein Schüler von Marshall und wohl größter Ökonom des 20. Jahrhunderts (1883 bis 1946), baute ein neues makroökonomisches Modell, um Weltwirtschaftskrisen zu bekämpfen (Dominanz und Unterstützung der Nachfrage, staatliche Programme, zweites umfassendes makroökonomisches Modell nach Karl Marx). Milton Friedman (1912 bis 2006) wies auf die einmalige Rolle des Geldes hin (Monetarismus). Walter Eucken, Ludwig Erhard und Alfred Müller-Armack bauten die Wirtschaftsordnung der Sozialen Marktwirtschaft in Deutschland nach dem 2. Weltkrieg theoretisch und praktisch auf. Reinhard Selten bekam als einziger deutscher Ökonom für seinen Beitrag in der Spieltheorie den Nobelpreis (lehrte lange in den USA, zuletzt wieder in Deutschland an der Uni Bonn). Berühmte deutschsprachige Ökonomen (Österreicher), die auch in den USA lehrten und in Englisch veröffentlichen, waren J. Schumpeter (1883-1950, "dynamischer Unternehmer"). Er erfand die Vierphasentheorie des Konjunkturzyklus. Kapitalismus ist für ihn "ein Prozess der schöpferischen Zerstörung". Es ist für ihn auch weniger ein Wirtschaftssystem als eine "Kulturform". Gedanklich hat er so Disruption vorweggenommen. F. A. von Hayek (1899-1992, liberales Denken, Nobelpreis) ist ein weiterer international wirkender bekannter deutschsprachiger Ökonom. Als Gründervater der modernen Volkswirtschaftslehre gilt Paul Anthony Samuelson (1915-2009), der das erste weltweite Lehrbuch verfasste und einer der letzten Generalisten war. Mit seinem Faktorpreisausgleichstheorem prägte er eine Denkweise, an die Globalisierung heranzugehen (weltweit für Alle ist Außenhandel von Vorteil) . Die andere Denkrichtung verweist darauf, dass freier Handel die Einkommensschere zwischen reichen und armen Ländern vergrößern kann (z. B. so der schwedische Ökonom Gunnar Myrdal).  Zur Zeit ist für die Allgemeine Volkswirtschaftslehre das Lehrbuch von N. G. Mankiw (Economics) wegweisend (wenn auch zu wenig formal und einseitig: ohne Umwelt, ohne China). Inzwischen gibt es eine Kurzfassung das Buches (auch in Deutsch, 2015), die besser ist. "Ökonomieexperten arbeiten für den Applaus ihrer eignen Kollegen", Paul Samuelson an die New York Times, 1974.

Aber auch vor den großen Ökonomen und ihren Theorien gab es ökonomische Analysen im Rahmen der Philosophie. Wichtige Elemente finden sich bei den klassischen griechischen Philosophen Sokrates (Ethik), Platon (Aufbau der Gesellschaft, idealer Staat) und Aristoteles (z. B. Allmendeproblem; Eigentum Privatbesitz; Logik; Wohlergehen). Xenophon kann als der größte ökonomische Denker der antiken Philosophie bezeichnet werden. 400 Jahre vor Christus schildert er wichtige Grundlagen (Gespräch über die Haushaltsführung; Mittel und Wege, dem Staat Geld zu verschaffen; Gewinnmaximierung; auf ihn soll auch die Verbindung von Oikos und Nomos zurückgehen als Kunst der Haushaltsführung). Hesiod kann als erster bekannter Ökonom überhaupt benannt werden. Er lieferte Grundideen für die moderne Chaostheorie und definierte Arbeit als Quelle allen Guten für die Menschen. 100 Jahre später liefern Thales (Olivengeschäft), Archimedes und Pythagoras (Geometrie) wichtige mathematische Grundlagen. Platon und Aristoteles hatten schon in ihrer Philosophie ein Zinsverbot eingebaut (Schutz der Armen und Schwachen). Das findet sich auch bei biblischen Autoren (Buch Mose: Deuteronomium 23, 20). Es hatte großen Einfluss  auf die Stellung der Juden bis in die Neuzeit (sie waren als Finanzgeber gehasst). Das mittelalterliche Denken, vor allem Augustinus (Der Gottesstaat), haben einen Beitrag geleistet (z. B. kanonisches Zinsverbot, "gerechter Preis", Asketismus). Thomas von Aquin (Scholastik) bereitet mit seiner Weltzugewandtheit, seinen Gedanken über die Natur des Menschen, seine Auseinandersetzung mit der Vernunft den Boden für ökonomisches Denken. Zusammen mit seinem Lehrer Albertus Magnus in Köln  bereitete er auch die Ideenwelt des Aristoteles für den lateinischen Westen auf. Er war im Mittelalter der erste Denker, der sich mit wirtschaftswissenschaftlichen Fragestellungen befasste (Summa contra gentiles; Gerechtigkeit; ethische Grundlagen der Ökonomie; wirtschaftliche Aspekte menschlichen Zusammenlebens). Mitte des 12. Jahrhunderts beginnt die Geschichte der Hanse. Es war eine Schwurgemeinschaft von Fernhandelskaufleuten, um die langen  und gefahrvollen Handelsreisen nach England, Skandinavien und Russland bestehen zu können. "Eng wohnen, weit denken" war der Wahlspruch der Hansekaufleute (in der Altmark gab es die größte Dichte von Hansestädten). Die Vorstufe der EU brauchte, um erfolgreich zu sein, kein von Wissenschaftlern gemachtes Fundament (wie so oft im Geschäftsleben und in der Geschichte). "Es ist das gemeinsame Wohl, das die Städte reich macht", Niccolo Machiavelli, 1469-1527. 1485 betreibt Heinrich VII. eine strategische Wirtschaftspolitik in England (Ausfuhrzoll). Heinrich VIII führte von 1542-1551 eine Abwertung durch, indem er den Silberpenny nur noch zu einem Viertel aus Silber prägte (drei Viertel Kupfer). Als die Spanier jährlich 350 Tonnen Silber aus Potosi (Bolivien) nach Europa importierten war eine Jahrhundert-Inflation die Folge (1540-1640).    Fugger finanziert ab 1505 eine portugiesische Indien-Expedition. Die wachsende Nachfrage nach Gewürzen und die Hoffnung auf Gold und andere Edelmetalle trieb damals Seefahrer auf die Weltmeere.  Große süddeutsche Kaufmannsfamilien wie die Fugger und die Welser profitierten von der ersten Welle der Globalisierung. Martin Luther wetterte gegen die "Ökonomisierung aller Lebensverhältnisse". Er hatte Vorbehalte gegen Geld und unternehmerische Freiheit. Als Beispiel hatte er besonders die Familien Fugger, Tucher und Welser vor Augen, die ihr Geld in Übersee scheffelten (Venezuela, Indien). Sogar die Kaiser waren von ihnen finanziell abhängig. Es gab Staatsschulden, Spekulanten, Globalisierung, Konzentration von Finanzkapital - genau wie heute. Luther stand in seiner Einstellung zur Wirtschaft in der Tradition von Aristoteles und Thomas von Aquin. Konkret störte Luther besonders die kirchliche Sündenverwaltung über Ablass. Er sprach von Mammonismus. "Höchst geschäftig soll ein Christ nicht im Umgang mit Geld, sondern allein gegen den nächsten sein", Martin Luther. Insofern ist die Max Weber-These kurios. Er behauptet ja, dass die protestantische Ethik zur Wirtschaftsgesinnung und damit Entwicklung des Kapitalismus geführt habe. Um 1630 befürwortet Thomas Mun eine merkantilistische Politik. Josiah Child beschreibt 1668 den Freihandel.  William Petty zeigt 1682, wie die Wirtschaftsleistung gemessen werden kann. Der Ire Richard Cantillon (1680 - 1734) analysiert Wohlstand, Handel und internationalen Zahlungsverkehr. Der Franzose Francois Quesnay und die Physiokraten erstellen 1758 Das "Tableau economique" (geht auf William Harvey von 1628 zurück). Die großen Rationalisten (Descartes), die großen Empiristen (Hume) und die revolutionären Denker und Aufklärer in Frankreich (Voltaire, J. J. Rousseau) liefern Beiträge und haben Einfluss. Descartes liefert mit seinem Denken die Wurzeln zum Homo oeconomicus. Der Mensch als Maschine ("Cogito, ergo sum") handelt rational (Reduzierung des Menschen). Bernard Mandeville (The Fable of the Bees; or Privat Vices, Public Benefits, Oxford 1924) erweitert diese Konzeption und schafft den Gedanken, dass wir Gier als Antriebskraft in der Ökonomie brauchen. In Cambridge entsteht ab 1900 die Analytische Philosophie, die zur einflussreichsten Philosophenschule des 20. Jahrhunderts wird. Hier wirken G. E. Moore und Bertrand Russell, die Ludwig Wittgenstein und J. M. Keynes und später Popper in ihrem Denken prägen. 

Die großen deutschen Ökonomen (gemessen an der praktischen Relevanz und Bekanntheit im Ausland) finden in Deutschland eher weniger Beachtung (lieber beruft man sich auf US-Wurzeln ohne die notwendige wissenschaftliche Distanz; man muss ja in US-Zeitschriften rein, um Karriere zu machen). Die Tradition der deutschen Ökonomie geht bis ins 17. Jahrhundert zurück: Veit Ludwig von Seckendorff (1626-1692), Philipp Wilhelm von Hörnigk (1640-1714; beide kameralistische Wirtschaftspolitik),  Simon Peter Gasser (1646-1716) und Jacob Bielfeld (1717-1770; am Hofe Friedrich des Großen, Hauptwerk: Institutions Politiques) sind hier als kleine Auswahl zu nennen. Hinzufügen kann man noch Gottfried Wilhelm Leibnitz (1646-1716) und Christian Wolff (!679-1754), die auf der Naturrechtstradition beruhen und die moderne Staatstheorie prägten. Ebenso später Launhardt, Wilhelm: Mathematische Begründung der Volkswirtschaftslehre, Leipzig 1885. Er wurde 1832 geboren und starb 1918. Er war auch Rektor der Technischen Hochschule Hannover. Berühmt sind auch seine Arbeiten zur industriellen Revolution (Am sausenden Webstuhl, 1900). Der Geldtheoretiker Knapp gilt als Erfinder der New Monetary Theory (NMM). Natürlich unfreiwillig.  Vgl. Knapp, Georg Friedrich: Staatliche Theorie des Geldes, München/ Leipzig 1905 (ein einflussreiches Werk). Geht man auf den deutschsprachigen Raum sind noch Böhm-Bawerk, Ludwig von Mises und Carl Menger (Österreicher) zu nennen. Der erste ungeheuer wichtige Text in deutscher Sprache, der volkswirtschaftlich argumentiert,  wurde von einem Mediziner und Schriftsteller geschrieben (die Ökonomen unterstützten immer eher den Staatsapparat). Es war Georg Büchner. Der Hessische Landbote erschien 1834 und durfte nur unter der Hand verteilt werden. Er sollte die desolate Lage der Bauern darstellen und sie aufrütteln (er führt konkrete ud ausführliche Statistiken an). Er beginnt mit dem Motto der französischen Revolution "Friede den Hütten, Krieg den Palästen".  In seiner Doktorarbeit in Zürich zeigt sich auch seine psychologische Kompetenz ("Was ist, was in uns denkt, lügt und mordet?"). Büchner hatte in Straßburg Medizin studiert (später in Gießen). Das Studium finanzierte er mit dem Stück "Dantons Tod". Straßburg war in der damaligen Zeit das Tor zur Welt. Büchner wurde nur 24 Jahre alt (er starb an Typhus). Sein Stück "Woyzeck"   ist immer noch das meistgespielte Stück in deutscher Sprache auf den Bühnen der Welt. Im Folgenden die größten deutschen Ökonomen (Wirkung, Bekanntheit weltweit):  Johann Heinrich von Thünen (1783-1850; Der isolierte Staat, 1826; vier konzentrische Kreise; Begründer der Wirtschaftsgeographie) hat stark die amerikanische Volkswirtschaftslehre beeinflusst, von wo die Erkenntnisse wieder nach Deutschland kamen (z. B. Neue Ökonomische Geographie, P. Krugman). Karl Marx (von der Ausbildung her Jurist und Philosoph) ist heute noch in China ein Held. Sein Buch "Das Kapital" ( aber auch das Kommunistische Manifest von 1848) gehört zu den meistgelesenen der Welt. Viele Ökonomen und vor allem Chinesen verehren auch Friedrich Engels, der Marx ideell und materiell unterstützte. Seine Umrisse zu einer Kritik der Nationalökonomie sind auch heute noch lesenswert (ebenso sein Briefe aus dem Wupperthal). Die Chinesen pilgern zu seinem Geburtshaus in Wuppertal (das eigentlich im Krieg weg gebomt wurde). Engels war Pragmatiker, Humanist und Lebenskünstler (wird leider oft falsch beschrieben). Engels unterstützte Marx auch indirekt, indem er Artikel schrieb, die Marx unter seinem Namen in der New York Tribune viele Jahre veröffentlichte. Dadurch schieb Marx zu allen aktuellen Ereignissen der Zeit (z. B. Opiumkrieg), was zu den vielen Praxisbeispielen im "Kapital" beitrug. "Welche Elastizität, welche historische Initiative, welche Aufopferungsfähigkeit in diesen Parisern! Nach sechsmonatlicher Aushungerung ... erheben sie sich, unter preußischen Bajonetten ... Die Geschichte hat kein ähnliches Beispiel ähnlicher Größe", Karl Marx. Im gleichen Jahr wie Marx, nämlich 1818, wurde Friedrich Wilhelm Raiffeisen geboren. Von seiner Wirkung auf die Ökonomie her ist er nach Marx der größte deutsche Ökonom (eigentlich Sozialrevolutionär und Verwaltungsbeamter). Seine Idee prägt heute die Sharing Economy und ist stark auf dem Vormarsch im Zeitalter der Digitalisierung.  Zwei Kerngedanken waren revolutionär: Kredite und Geschäftsanteile sind soziale Bindemittel; auch bei knappen Gütern können Menschen partnerschaftlich zusammenarbeiten. Seine Konzeption ist außer in Deutschland sehr erfolgreich in Japan, Indien,  Brasilien und mittlerweile auch in den USA. Sehr bekannt in Asien ist noch Friedrich List, einer der führenden Theoretiker des Protektionismus.  Er lebte von 1789 bis 1846 (erschoss sich). Geboren wurde er in Augsburg, wo man mehr über ihn erfahren kann. Promoviert hatte List wie Marx in Jena. Er war der weltweit wichtigste Zolltheoretiker (Erziehungszoll!). Er war auch Entwicklungstheoretiker (Kritiker von Malthus, Innovation bewältige jedes Bevölkerungswachstum; er kritisiert auch überzeugend die Arbeitswertlehre; lebt auch eine Zeitlang in den USA). Während er heute in Deutschland relativ unbekannt ist, gilt er in Entwicklungs- und Schwellenländern als einer der größten deutschen Ökonomen (auch in Japan). Einen wesentlichen Einfluss auf die ökonomische Entwicklung hatte in Deutschland die Reformation. Sie löste einen Bildungsschub der Bevölkerung aus. Auch wesentlich später noch im 19. Jahrhundert lagen Schulbesuch und Bildungsniveau in protestantischen Gegenden höher als in katholischen. Das prägte die ökonomische Entwicklung positiv (diese Störvariable hat Max Weber leider nicht gesehen). Eine herausragende Bedeutung hat in Deutschland der "Verein für Socialpolitik". Durch die Industrialisierung entstand im 19. Jahrhundert in Deutschland ein Millionenheer von Arbeitern, die für Hungerlöhne in den neuen Fabriken schufteten und in Slums hausten. Der Verein beschäftigte sich als erster damit und schuf die Grundlagen der modernen Wirtschafts- und Sozialstatistik und machte die Probleme der Gesellschaft sichtbar. Die ersten Vertreter wurden als "Kathedersozialisten" (Begriff stammt vom Ökonomen Heinrich Oppenheim) beschimpft, obwohl der Verein gutbürgerlich war. Er schuf auch das Know-how für die Sozialversicherung von Bismarck. Einer der bekanntesten Vertreter war Gustav von Schmoller (Begründer des Vereins 1873 und erster Vorsitzender; wurde 1908 für seine Verdienst geadelt; Hauptvertreter der Historischen Schule). Er vertrat eine normative Sozialwissenschaft und eine staatliche Sozialpolitik zum Abbau von Klassengegensätzen. Zeitlose ökonomische Gesetze lehnte er ab. Er schrieb ein berühmtes Buch der Volkswirtschaftslehre: Grundriß der Allgemeinen Volkswirtschaftslehre, 1900". Ein Kapitel hat den Titel "Die Rassen und Völker". Deshalb gibt es 2021 eine Diskussion im Verein. Carl Menger, der von 1840 bis 1921 lebte und in der österreichisch-ungarischen Monarchie geboren wurde, schrieb grundlegende Werke (Grundsätze der Volkswirtschaftslehre, Untersuchungen über die Methode der Sozialwissenschaften und der Politischen Ökonomie). Ein weiterer bekannter Ökonom aus Österreich ist Gustav Stolper (1888 - 1947, Stolper-Preis). Bekannt ist auch Hermann H. Gossen, 1810-1858: Entwicklung der Gesetze des menschlichen Handelns, und der daraus fließenden Regeln für menschliches Handeln, Braunschweig 1854. Gossensche Gesetze: 1. Der Grenznutzen eines Gutes nimmt mit zunehmender konsumierter Menge ab, kann aber nicht negativ werden. 2. Grenznutzen muss in allen Verwendungsrichtungen gleich sein. Gossen entwickelte eine subjektive Wertlehre, indem er den individuellen Nutzen eines Gutes einbezog. Mithilfe Gossens konnte das so genannte Wertparadoxon der klassischen Ökonomie aufgelöst werden. 1905 erschien ein Buch von Georg Friedrich Knapp: Staatliche Theorie des Geldes, Berlin. Das Buch lieferte die Grundidee für die Modern Monetary Theory heute. Der größte Wissenschaftler dieser Zeit war wohl Werner Sombart. Er begründet eine Typologie diverser Formen des Kapitalismus und verweist auf wichtige Elemente in der Entwicklung des Kapitalismus (Der moderne Kapitalismus, endgültige Ausgabe 1928 in sechs Bänden). Berühmt wurde auch Ernst Engel (1821-1896), der einen Zusammenhang zwischen Konsum und Einkommen analysierte ("Je ärmer eine Familie ist, ein desto größerer Anteil von der Gesamtausgabe muss zur Beschaffung der Nahung aufgewendet werden", 1857; Engelsches Gesetz). Er baute das erste deutsche Statistische Büro in Berlin auf. Der Belgier Adolphe Qetelet hatte schon 1830 damit begonnen, die Gesellschaft mathematisch und statistisch zu erfassen ("Gesetz der großen Zahl"). In der Weimarer Republik war Moritz Julius Bonn ein bekannter Ökonom. Anders als Keynes glaubte er nicht , dass eine General Theory die Ökonomie beherrschbar machen könne. "Praktische Wirtschaftsführung ist nicht Weltanschauung, sondern Anpassung an gegebene Verhältnisse" (s. Ders.: Das Schicksal des deutschen Kapitalismus, 1926; zitiert nach Hacke, Jens: Wie treibt man Neoliberale und Antikapitalisten aus den Schützengräben? in: WiWo 28/ 9.7.21, S. 42). Nach dem Zweiten Weltkrieg entwarfen deutsche Ökonomen die Soziale Marktwirtschaft für Deutschland. Der Begriff Neoliberalismus geht auf den deutschen Ökonomen Alexander Rüstow (1885-1963; studierte Ökonomie, Philosophie, Jura und Physik) zurück. Er propagierte eine ordnungspolitisch eingebundene Form des freien Wirtschaftens. Im Mittelpunkt standen die Verhinderung von Konzentration und Macht. Im Dritten Reich war er in der Türkei im Exil. Heute wird auch oft der Begriff "ordoliberal" als synonym zu "neoliberal" gebraucht. Walter Eucken und Ludwig Ehrhard konstruierten dann die konkrete praktische Ausführung mit dem GWB. Wahrscheinlich starb ein anderer wichtiger deutscher Ökonom zu früh: Heinrich Freiherr von Stackelberg (1905-1946) war ein sehr bekannter deutscher Ökonom. Er habilitierte an der Uni Köln. Er starb an Kriegsverletzungen. Buch: The Theory of Market Economy. Darin entwickelt er eine Marketingtheorie und eine neue Kostentheorie. Er beschäftigt sich auch mit Verbundeffekten. Ende des letzten Jahrhunderts hatte der Deutsche Schumacher weltweit einen enormen Einfluss. Er war seiner Zeit weit voraus. Der deutsche Ökonom lebte in England. Ernst F. Schumacher: Small is beautiful: A Study of Economics as if People Mattered, Vancouver 1973. Gilt als eines der ersten grundlegenden Bücher über kleinere Unternehmen und als Klassiker für eine alternative wirtschaftliche Denkweise (deutsch 1977: Rückkehr zum menschlichen Maß, München: Oekom Verlag 2019). Das Buch ist ein Klassiker der Nachhaltigkeit. Denn die Frage nach dem rechten Maß in Wirtschaft und Technologie ist heute aktueller denn je. Größe ist kein Wert an sich. Sie kann vorteilhaft sein, muss es aber nicht. Er plädiert für eine "Miniaturisierung der Technik" sowie dafür, ein "Maximum an Glück mit einem Minimum an Konsum zu erreichen". Er war seiner Zeit zu weit voraus.  Um aus Überzeugung zu lernen, braucht der Mensch ein gutes Weltbild. Schumacher war Anhänger einer buddhistischen Wirtschaftslehre, in der Arbeit den Menschen darin unterstützt, seine Fähigkeiten zu entwickeln. Im Deutschen trägt das Buch, das eines der einflussreichsten über nachhaltiges Wirtschaften ist, den passenden Titel "Rückkehr zum menschlichen Maß". Gerade an diesen Beispiel zeigt sich, wie problematisch und auch letztlich ideologisch der Wirtschaftsnobelpreis ist. Kaum einer hätte ihn mehr verdient gehabt. Vgl. Roscher, Wilhelm Georg-Friedrich: Geschichte der National-Ökonomik in Deutschland, München 1874. Er lebte von 1817 bis 1894. Er lehrte hauptsächlich in Leipzig.

In der Bundesrepublik (Westdeutschland) gab es einige herausragende Ökonomen. Als Schöpfer der Sozialen Marktwirtschaft gilt Alfred Müller-Armack (später unter Ludwig Erhard Leiter der Grundsatzabteilung im Bundeswirtschaftsministerium; der Katholischen Soziallehre verpflichtet, theoretisch von Walter Eucken/-Freiburg und Wilhelm Röpke beeinflusst). Der einflussreichste und vielseitigste war wohl der Finanzwissenschaftler  Günter Schmölders in Köln (saß auch in mehreren Aufsichtsräten großer Unternehmen), der die sozialökonomische und empirische Verhaltensforschung bekannt machte, als sie die große Mehrheit der Ökonomen noch ablehnte und gar verlachte. Sehr bekannt waren auch der Außenwirtschaftler Herbert Giersch in Kiel (auch Institut für Weltwirtschaft), Wilhelm Krelle in Bonn (Modell, auch Physiker,  stolperte später über seine Nazi-Vergangenheit) oder Fritz Neumark in Frankfurt (beriet im 3. Reich die Türkei und lebte dort). Im 21. Jahrhundert ragt kein Ökonom aus Deutschland mehr heraus, was auch mit der deutschen Sprache zusammenhängt. Es ist auch fast unmöglich, wirklich innovative und neue Gedanken zu entwickeln, die eine Zeit prägen oder ihr voraus sind. Reinhard Selten hat als einziger deutscher Ökonom den Wirtschaftsnobelpreis für seinen Beitrag in der Spieltheorie  erhalten (forschte lange in den USA; von der Spieltheorie hat er sich viel später beim Verein für Socialpolitik distanziert, zuletzt Professor in Bonn). Zur Zeit ist vielleicht noch Hans-Werner Sinn (zuletzt Leiter des Ifo-Instituts/ München; Schüler von Herbert Timm/ Münster) von seinen Veröffentlichungen her (viele aktuelle und populärwissenschaftliche Bücher und Artikel in Zeitungen) der bekannteste deutschsprachige Ökonom. Aber er steht nicht für eine herausragende Idee oder Konzeption. Imponierend an ihm war immer die Unangepasstheit und Konsequenz (vor allem im Vergleich zu korrumpierten Kollegen). Am höchsten in der Karriereleiter schaffte es Otmar Issing (Spezialgebiet "Geld", Lehrstuhl in Würzburg) der bis 2006 erster  Chefvolkswirt der EZB in Frankfurt war. Am ehesten kennt man sonst noch die Leiter der bekanntesten Wirtschaftsforschungsinstitute (Fratzscher, Fuest, Wambach, Schmidt - Stand 2022). Sie mutieren aber wegen der immer größeren öffentlichen Finanzierung (direkt oder über Projekte) immer mehr zu Interessenvertretern. Die Mitglieder des SRW  haben an Bedeutung verloren (genauso wie das jährliche Gutachten des SRW). Sie werden zwar noch bevorzugt von den Medien berücksichtigt ("Gender gerecht" die beiden Damen Veronika Grimm oder Monika Schnitzer, inzwischen Vorsitzende; neu hinzu gekommen ist Ulrike Malmendier aus Berkeley/ USA, geboren in Köln), ihre Aussagen und und ihr Einfluss sind aber eher nachrangig. Das ändert sich etwas im Jahre 2022 durch die Kommission "Wärme und Gas", in der Veronika Grimm den Vorsitz hat. Sie gewinnt damit großen Einfluss auf die praktische Politik. Frau Grimm soll 2024 das Gremium verlassen (von den KollegInnen gefordert) , weil sie bei Siemens Energy einen Aufsichtratsposten übernommen hat. Das Unternehmen hatte eine Bürgschaft erhalten (an der Entscheidung war sie beteiligt). Auch in den wissenschaftlichen Beiräten der Ministerien sind kaum sehr bekannte Ökonomen. Lars Feld, früher im SRW und Professor in Freiburg (List-Preis des bdvb 2023), wird als Berater von Bundesfinanzminister Lindner bekannter. In der Energiekrise 2022 und 2023 zeigen sich die Grenzen theoretischer Marktmodelle und daraus folgender Empfehlungen. "Das Gros der Ökonomen verschanzt sich hinter einer Trutzburg aus mathematischen Formeln und Universaltheorien", Ferdinand Knauß: Wie konnten Ökonomen nur die Geschichte vergessen", in: Wirtschaftswoche 36, 2.9.2016, S. 32f.

Die größten Werke der Wirtschaftsgeschichte beziehen sich auf bestimmte Länder und Epochen und wurden nicht von Historikern geschrieben. Sie sind auch heute noch lesenswert und man findet aktuell nichts besseres. Meiner Meinung nach ist es in Bezug auf die USA das Werk von Alexis de Tocqueville (1805-1859), "Über die Demokratie in Amerika", 1835/ 1840. Er war im Auftrag der französischen Regierung in die USA gereist, um das Rechts- und politische System zu studieren. Er analysierte in seinem Buch das Verhältnis von Freiheit und Gleichheit und die Grenzen der Gleichheit und das Ende des Mitleids. Er analysiert den Konflikt zwischen Ehre/ Bürgerarbeit und Geld. Das Buch ist gerade in Zeiten von Trumpismus sehr aktuell. Es ist eines der meist rezitierten Werke der Sozialwissenschaften. Der Schweizer Jean- Charles Leonard Simonde de Sismondi (1773-1842) schrieb über die Geschichte der italienischen Republiken des Mittelalters (einer der realen Ursprünge der modernen Ökonomie) und den Untergang des römischen Reiches. Seine Kritik an D. Ricardo und die Unterstützung der These von Rosa Luxemburg in Bezug auf die Überproduktion und den Mehrwert und seine Herausstellung der Konsumption sind noch heute sehr lesenswert (führt die Digitalisierung zu mehr Konsum und damit zur Kompensation von Arbeit? hochaktuell).

Die Wirtschaftsgeschichte als Fach und Teilgebiet der Volkswirtschaftslehre ist in Deutschland auf dem "absteigenden Ast". Immer mehr Lehrstühle stehen vor der Schließung. Es gab und gibt aber bekannte Lehrstuhlvertreter (Knut Borchart/ München; Werner Plumpe/ Frankfurt); Jan-Otmar Hesse in Bayreuth.  Ganz anders ist die Entwicklung in den USA. Carmen Reinhardt, Ken Rogoff, Harold James, Niall Ferguson, Daron Acemoglu, Janet Yellen, Michael Bordo  u. a. haben auch großen Einfluss auf die aktuelle Wirtschaftspolitik und ihre Bücher waren oder sind Bestseller. Yellen, vorher Notenbank-Chefin, wird unter Biden sogar Finanzministerin. Die Universitäten Göttingen, Jena und Marburg bieten das Studienfach "Wirtschafts- und Sozialgeschichte" in Deutschland an. Die Anfänge des Faches reichen bis ins 19. Jahrhundert zurück. Mit der Gründung des "Vereins für Socialpolitik" 1872 und der Gründung der Zeitschrift "Vierteljahresschrift für Sozial- und Wirtschaftsgeschichte" 1903 begann der Aufschwung. Die erste Dozentur wurde 1909 an der Kölner Handelshochschule eingerichtet. Mittlerweile gibt es in Deutschland ein Max Planck-Institut für Wirtschaftsgeschichte in Berlin.

Die Wirtschaftsgeschichte als Methode: Langsam gewinnt die Wirtschaftsgeschichte in der Ökonomie wieder an Bedeutung zu. Es gibt führende Ökonomen, die eindrucksvoll den Analysewert aufzeigen. Der Entwicklung bestimmter Staaten kann man sich anders kaum nähern: China, Indien, Russland, Korea, Japan, Deutschland. Im Rahmen solcher Analysen kommen Geographie, Kultur, Institutionen als Raster dazu. Vgl. Acemoglu, Daron u. a.: Volkswirtschaftslehre, München 2020, S. 700ff. Man kann hier mit natürlichen Experimenten arbeiten (nur Institutionen als unabhängige Variable, Kausalität).  Dabei spielen wirtschaftshistorische Daten eine große Rolle. In Deutschland gewinnt ein Professor für Wirtschaftsgeschichte (Davide Cantoni, LMU München, studierte auch bei Acemoglu) 2019 den Hermann-Heinrich-Gossen-Preis. Er forscht über die Folgen historischer Einschnitte. Er bezieht ökonometrische Verfahren in die wirtschaftshistorische Forschung ein. Er machte auch eine bekannte Studie über die ökonomischen Folgen der Reformation. Interessant sind auch seine Forschungen über die Geschichte des deutschen Steuersystems. Die Analyse geht bis ins 15 Jahrhundert zurück. Deutsche Territorien, die ab dem 16., Jahrhundert leistungsfähige Institutionen zur Besteuerung einführten, waren ökonomisch erfolgreicher - und ihr Risiko langfristig von der Landkarte zu verschwinden, war deutlich geringer. Hoch spezialisierte Transkriptionsfirmen in Asien (Indien, Vietnam) übertragen Daten in Exceldateien. Moritz Schularick von der Uni Bonn hat sich mit historisch - empirischen Studien über das Entstehen von Finanzkrisen weltweit einen Namen gemacht.  "Die Digitalisierung und Big Data haben der Wirtschaftsgeschichte einen enormen Schub verschafft. Das führt auch zu besseren Kooperationsmöglichkeiten zwischen Wirtschaftshistorikern und Ökonomen", Davide Cartoni, Wirtschaftsgeschichte LMU München, Quelle: WiWo 22/28.5.21, S. 24.

"Wer die Vergangenheit kontrolliert, kontrolliert die Zukunft. Wer die Gegenwart kontrolliert, kontrolliert die Vergangenheit", George Orwell, "1984".

 

 

  Warschau, Hauptstadt von Polen. Denkmal für die Opfer des 2. Weltkrieges und des Warschauer Aufstands im Ghetto. Hier legte Brandt den Kranz als erster deutscher Kanzler am 7.12.1970  nieder und machte einen Kniefall (sowohl in Deutschland als auch in Polen damals sehr umstritten). Es war der symbolische Beginn der neuen Ostpolitik. Mit dem Überfall der deutschen Wehrmacht auf Polen im September 1939 hatte der 2. Weltkrieg begonnen. Polen ist ein Land, dass die zentrale Frage "Markt oder Staat" sehr gut widerspiegelt. Lange war Polen im Warschauer Pakt nach dem 2. Weltkrieg eine Zentralverwaltungswirtschaft mit Zugehörigkeit zur östlichen Wirtschaftsgemeinschaft "Comecon". Mit dem Ende dieser Bündnisse 1990 vollzog das Land die Wende zur Marktwirtschaft. Heute gibt es wieder Bewegungen Polen, die eine stärkere Planung wollen. Insofern symbolisiert Polen mit seiner Wirtschaft die immer aktuelle Bedeutung dieser Frage. Wie kaum ein anderes Land profitiert Polen von der EU, die die erfolgreiche Modernisierung ermöglicht hat. Trotzdem hat das Land eine kritische Haltung zur EU und stellt sich gegen einige Beschlüsse (Flüchtlinge., Rechtsreform, Rechtsstaatlichkeit u. a.)  2004 reiste ich zusammen mit meiner Frau mit dem Fahrrad durch Polen, um mir einen eigenen, hautnahen Eindruck zu verschaffen. Schon lange vor dem Beitritt Polens zur EU waren Projekte an der Hochschule im Rahmen von Erasmus möglich. Ich habe mich intensiver mit dem Arbeitsmarkt in Polen beschäftigt. Polen profitiert - wie schon gesagt - sehr stark von der EU. Das beeinflusst Entwicklungen in Belarus und der Ukraine, weil die Menschen in unmittelbarer Nähe den Wohlstand mitbekommen. Es geht den Menschen also nicht nur um Freiheit, sonder auch um mehr Wohlstand. 2022 wird Warschau zur Hauptstadt des Ostens: In der Stadt versammeln sich Flüchtlinge aus Russland, der Ukraine und Belarus. Das könnte die neue Heimat verändern.

Markt oder Staat? Staatlicher Einfluss und Eingriffe (Notwendigkeit einer neuen Ökonomie nach den letzten großen Krisen, wissenschaftliche Revolution?; Vgl. auch ähnlich "Wirtschaftsordnungen"):

"Der Prozess der schöpferischen Zerstörung ist für den Kapitalismus wesentliches Faktum..., der unaufhörlich die Wirtschaftsstruktur von innen heraus revolutioniert, unaufhörlich die alte Struktur zerstört und unaufhörlich eine neue schafft", J. A. Schumpeter: Kapitalismus, Sozialismus, Demokratie, New York 1942; S. 137f. (nach der deutschen Ausgabe, München 1980).

Die drei letzten großen Wirtschaftskrisen 2008/09 im Finanzbereich, 2020/21 Corona, 2022 Ukraine-Krieg (Fukushima 2011 und Klima sowie Migrationskrise 2015 nicht mitgerechnet) haben massive staatliche Eingriffe in die Wirtschaft hervorgerufen. Innerhalb kürzester Zeit tat der Staat in aller Welt alles, um die Wirtschaft zu erhalten und ihr wieder auf die Beine zu helfen. Die Konzepte folgten im wesentlichen den Rezepten von John Maynard Keynes (1883-1946), die er in der Weltwirtschaftskrise 1929 entwickelte. (Vgl. Skidelsky, Robert: Keynes: die erneute Rückkehr des Meisters. in: Wirtschaftsdienst 10/2020, S. 763-766). Sie gingen allerdings auch darüber hinaus, insofern als staatliche  Beteiligungen und umfassende Rettungsmaßnahmen systemrelevanter Bereiche (Angebotsseite) dazu kamen. Das hängt damit zusammen, dass die Corona- Krise ein Doppelschock war (sie traf Angebot und Nachfrage gleichzeitig). Diese Instrumente setzten sowohl Marktwirtschaften (USA) als auch Mischwirtschaften (China) ein. Nach Keynes neigt der Kapitalismus zu Instabilität und Krisen und müsse durch staatliche Programme gerettet werden. In der heutigen Volkswirtschaftslehre  vertritt vehement  Paul Krugman in den USA diese Position (Nobelpreis 2008, Kolumne in der New York Times). Ebenso Marianna Mazzucato, wenn sie auch mehr für staatlich gelenkte Technologiepolitik eintritt. Ihre Botschaft ist: Durch ein gezieltes Verhindern der unverdienten Wertschöpfung und ein Bereinigen der Bilanzierung nach objektiveren Wertvorstellungen wäre eine viel nachhaltigere Form von Wirtschaft möglich. (Vgl. Kattel/Mazzucato/Haverkamp/Ryan-Collins: Industriestrategie der nächsten Generation für Deutschland, in: Wirtschaftsdienst 10/2020, S. 757-762). Das sind nur zwei Beispiele relativ weltweit bekannter heutiger Ökonomen. Damit scheint eine Grundfrage der Ökonomie entschieden zu sein: Der Staat muss in die Wirtschaft entscheidend eingreifen, um das System zu erhalten (dem folgen heute auch die Leiter der führenden Wirtschaftsforschungsinstitute in Deutschland und die Mehrzahl der Ökonomen: z. B. Fuest, Felbermayr, Fratzscher). Auch ich muss heute als Ökonom selbstkritisch  eingestehen, dass ein Großteil dessen, was ich an der Uni gelernt habe, und was ich später Studenten vermittelt habe, Ideologie war. Mit dem Abstieg der Leitwirtschaft USA und dem Aufstieg Chinas, verliert die Ausschließlichkeit des Marktes als Legitimationsgrundlage an Boden (man sollte heute sehr vorsichtig sein mit dem Einsatz von VWL - Lehrbüchern aus den USA, die in der Lehre der Hochschulen dominieren: Ein gutes Beispiel ist das weltweit dominierende Lehrbuch von Mankiw, das die Umwelt fast ausblendet und dem vieles andere fehlt). Vgl. Clemens Fuest: Wie wir unsere Wirtschaft retten - Der Weg aus der Corona-Krise, Aufbau 2020. Er warnt darin vor einer staatlich gelenkten Wirtschaft ("Unser Wohlstand wird nicht vom Staat erzeugt, sondern von Unternehmern und Beschäftigten", ebenda). Noch schärfere Kritik von Stefan Kooths, dem Vorsitzenden der Hayek-Gesellschaft 2020: "Mazzucato bietet nur sauren Wein in ausgeleierten Schläuchen - eine Mixtur aus zentral- planerischer Selbstüberschätzung und makroökonomischem Brachialkeynesianismus", in: WiWo 34, 14.8.2020, S. 40f.

Exkurs Mariana Mazzucato: Sie argumentiert für einen starken Staat und eine neue politische Ökonomie. Der soll die Märkte effizienter machen. Der Staat soll die Märkte "formen" und auch so politische Herausforderungen wie den Klimawandel bewältigen. Wenn nötig, könne sich der Staat auch hoch verschulden. Habeck will als Minister für Wirtschaft und Klima in Deutschland dieser Position folgen. Sie (italienisch-amerikanisch) hat einen Lehrstuhl an dem University College London (Bedeutung des Staates für Innovationen, Industriepolitik). Sie ist auch Direktorin des Instituts für Innovation und Public Purpose. Bücher:  "Wie kommt der Wert in die Welt"? 2019; "Mission. Auf dem Weg zu einer neuen Wirtschaft" 2021. "Public Purpose", 2021.

Der Staat baut seine Rolle aus zum universellen Retter (nicht nur der Wirtschaft). Er alleine kann die Seuche bekämpfen. Er kann die Virologie, Medikamentenforschung, Impfforschung unterstützen. Er organisiert die Krankenhäuser und das Gesundheitssystem. Er sorgt dafür, dass Altenheime und Altenpfleger funktionieren. In der Wirtschaft verteilt er Zuschüsse (ohne Rückzahlung), verteilt Kredite, Soforthilfen, er stimuliert die Konjunktur. Es ist im Grunde genommen eine neue Welt mit einem neuen Staat (sicherheitsbewusster, staatsabhängiger, unsicherer, dynamischer, solidarischer). Die Ökonomie als Wissenschaft war darauf nicht vorbereitet. Schon die Finanzkrise hatte sie auf dem falschen Fuß erwischt. Beide Krisen wurden auch nicht vorausgesagt.  Man könnte also auch konstatieren, dass die drei den großen Krisen das ökonomische Denken nach links verschoben haben. Plötzlich werden Probleme diskutiert, die lange ignoriert wurden. Die Krisen könnten einen Wandel herbeiführen (wie es der Ökonom M. Friedman schon wusste). Themen wie Ungleichheit, Staatsfinanzen ohne Grenzen, Gesundheit und Klimawandel, Kulturkonflikte als Ideologie sowie Krieg stehen plötzlich im Mittelpunkt. Man sucht auch nach neuen Wegen: Private Initiativen und staatliche Intervention schließen sich nicht mehr aus. Alte Ideen  - wie die Genossenschaft - werden wieder belebt. Vgl. Pausch, Robert/ Schieritz, Mark: Mehr Staat, weniger Markt? in: die Zeit Nr. 8, 18. Februar 2021, S. 3.

In der Geschichte der Wissenschaft wurden allerdings immer viele Gegenpositionen vertreten. Adam Smith, einer der Begründer der Wissenschaft "Volkswirtschaftslehre" wollte den Nachtwächterstaat. Er sprach von der "Unsichtbaren Hand" des Marktes. Preise lenken die unsichtbare Hand. Karl Marx und Friedrich Engels sahen im Staat die Macht der herrschenden Klasse. Deshalb müsse zuerst die Gesellschaftsstruktur geändert werden, damit das Proletariat die Wirtschaft beherrschen könne. Nach dem 2. Weltkrieg gewannen wieder die Anhänger des Marktes die Oberhand. Walter Eucken (1891-1950), Milton Friedman (1912-2006), Ludwig von Mises (1881-1973) sowie Friedrich August von Hayek (1899 - 1992; um nur einige zu nennen) plädierten für den Vorrang des Marktes. Der Staat solle nur Eigentum, Freiheit und Frieden schützen. Der Markt sei immer effizienter. Natürlich setzte die Siegermacht USA nach dem 2. Weltkrieg auch ihr System durch. Mit dem Zusammenbruch der führenden zentralistischen Planwirtschaften (China, Russland, DDR) schien die Frage Ende der 1980er Jahre des letzten Jahrhunderts zugunsten des Marktes entschieden zu sein. Die westliche Ökonomie hatte immer an den Grundgedanken ihrer Väter Smith und Ricardo festgehalten: Der Mensch handelt als Egoist und häuft Vermögen an. Am Ende entsteht auf wundersame Weise Wohlstand für alle (allerdings vergrößerte sich der Abstand zwischen Arm und Reich immer mehr, vor allem in den USA). Trotzdem hatte sich der Kapitalismus als effizienter erwiesen und größeren Wohlstand für die Masse der Bevölkerung generiert.

Doch dann kam die globale Finanzkrise 2008 und danach der exogene Schock durch die Corona-Krise im 21. Jahrhundert 2020 und das Pendel schlug Richtung Staat um. Den Rest brachte dann der Ukraine-Krieg. Die drei Krisen machten klar, dass Märkte solche Krisen nicht in den Griff bekommen. Andere Ökonomen setzten ihre Hoffnung auf den Staat, weil er für eine Einkommensumverteilung sorgen soll (Thomas Piketty in Frankreich; vgl. Ders.: Die deutsche Ideologie und die Erneuerung Europas, in: Wirtschaftsdienst 10/2020, S. 739-741). Es ist gegenwärtig so gut wie überhaupt nicht umstritten "ob" und "wie" sowie "wem" der Staat helfen soll.  Lobbygruppen versuchen, den Kreis der Anspruchsberechtigten allerdings immer mehr zu vergrößern. Bei der staatlichen Beteiligung und bei vielen anderen Maßnahmen ist umstritten, welche Bedingungen der Staat mit seiner Hilfe verknüpfen kann. Das wird am Beispiel der Lufthansa besonders deutlich: Wenn es so gut wie keine Flüge mehr gibt, kann eine Fluggesellschaft nicht überleben. Also muss der Staat sich beteiligen (was er an der Lufthansa sowieso schon ist). Dafür will er auch Einfluss auf die Geschäftspolitik nehmen. Die Staaten Schweiz und Österreich haben schon Hilfe in Milliardenhöhe zugesagt mit der Bedingung, dass das Geld nur ihren Landesgesellschaften (Töchter der Lufthansa) zur Verfügung steht. Deutschland will Hilfe bereitstellen (9 Mrd. €). Es soll eine Mischung zwischen Krediten und Beteiligung sein (dafür will der Bund auch Einfluss nehmen, wie der französische Staat auf die Air France). Die Beteiligung des Staats soll etwa 25% betragen (auch Sitz im Aufsichtsrat; Auflagen: keine Dividendenzahlungen). Die Lufthansa muss im Mai 2020 noch 1,8 Mrd. € für stornierte Tickets zurückzahlen. Sie hat insgesamt noch 4 Mrd. € Barmittel. Am 25.05.20 einigt man sich, allerdings müssen EU und Aktionäre noch zustimmen: Kredite über die KfW in Höhe von 3 Mrd. €. Beteiligung von 20% in Höhe von 6 Mrd. € (WSF). Das Engagement ist auf Zeit gedacht mit Ausstieg (es geht um ca. 100.000 Arbeitsplätze). Die EU-Kommission stimmt Ende Mai 2020 zu, auch der Vorstand und Aufsichtsrat der Firma. Die Lufthansa muss auf Flugrechte in Frankfurt und München verzichten. Diese werden an Konkurrenten versteigert, die nicht staatlich subventioniert werden. Das Projekt wird zur Blaupause für Dutzende andere Rettungsaktionen des Bundes mit Beteiligung. Großaktionär Thiele blockiert kurz vor der Hauptversammlung den staatliche Eingriff. So ist eine Insolvenz in Eigenverantwortung nicht mehr ausgeschlossen. Dann kommt es doch zu einer Einigung. Im Januar 2021 wird der Staat Großaktionär bei TUI. Die Eigentümer des schwer angeschlagenen Reisekonzerns haben grünes Licht gegeben. 4,8 Mrd. € wurden in drei Hilfspaketen zur Verfügung gestellt (25%  Anteil). Es soll noch eine Kapitalerhöhung von rund 500 Mio. € kommen.   Staatsbeihilfen (Beteiligungen, Hilfskredite) erhielten 2020 unter andere, folgende Firmen: Curevac, Tui, Sixr, Puma, Media Markt, Leoni, Kion Group, Tom Taylor, adidas, ThyssenKrupp.

Exkurs. Der Staat als Unternehmer. Systematik der Rettungspolitik in der Corona-Krise und im Ukraine-Krieg. Grundsätzlich können drei Stränge unterschieden werden: 1. Es gibt Unternehmen mit guten Geschäftsmodell. Wenn die Pleite gehen, entsteht großer Schaden. Hier biete der Staat Liquiditätshilfen an, vorrangig Kredite. Notfalls überhaupt der Staat 100% des Ausfallrisikos (Basuka). Es stellt Fremdkapital dar, das zurückgezahlt werden muss. Ganz selten springt der Staat mit Eigenkapital ein. Die Abwicklung läuft über die KfW. 2. Es gibt Risiken in der Welt, die nicht vorhersehbar sind. Sie schlagen wie ein Schock zu. Hier muss auch der Staat eingreifen. Das macht er dann ex-post wie mit einer Versicherungsgemeinschaft. In diese Gruppe gehört die Kurzarbeit (Teil der Fixkosten). 3. Beteiligung an Unternehmen. Geringere Maßnahmen wie Steuerstundung und Verlustrücktrag reichen in keinem Falle aus. So setzt man bei großen Unternehmen den WSF ein (für die Sofin in der Finanzkrise). Der Staat beteiligt sich an 15 Unternehmen (8,5 Mrd. €, 114 Unternehmen hatten nachgefragt). Der Staat arbeitet mit Eigen- und Fremdkapital. Die Beteiligungen bringen schwierige Bewertungsfragen mit sich (Zinssatz, temporär, wann Ausstieg, keine Verluste, Organisation der Stimmrechte über Dritte). Bei KMU arbeitet man mit Überbrückungshilfen (Zuschüssen). Sie sollen das Überleben sichern. Die Finanzämter waren hier mit ihrer IT - Infrastruktur überfordert. Deshalb hatte man eine eigene Auszahlungsplattform entwickelt. Als Resümee kann man jetzt schon sagen, dass man eine Insolvenzwelle verhindert hat. Noch nicht absehbar sind Auswirkungen auf Innovationsprozesse in der Zukunft. Ebenfalls offen sind Entwicklungen in Problembereichen (Innenstädte, Kultur, Gastgewerbe, Hotels), Quelle: Vortrag von Jacob von Weizäcker, Leiter der Grundsatzabteilung im BMF (Chefvolkswirt, auch Mathematiker rund Physiker) in der Bdvb - Lounge am 20.4.21 18.00 Uhr. Im Ukraine-Krieg kommt es zu einer Energiepreis-Explosion und zu Inflation. Als Russland die Gaslieferungen ganz einstellt, muss ein Gaspreisdeckel eingeführt werden. Systemrelevante Gaslieferanten werden verstaatlicht (Uniper). Tochterunternehmen russischer Energiefirmen (Gazprom, Rosneft) werden in Deutschland unter Treuhand-Aufsicht gestellt.

Grundsätzlich ist staatlicher Einfluss berechtigt. Über die Kriterien muss diskutiert werden. Es war ein grundsätzlicher Fehler der Treuhand-Institution in der Phase der deutschen Vereinigung, dass ein Bedingungskatalog unter dem Zeitdruck nicht entwickelt werden konnte (hat sich extrem negativ bei der Privatisierung der Wirtschaft in Russland ausgewirkt). Das sollte sich nicht wiederholen. Die Wirkungen von staatlichen Hilfen in Unternehmen müssen viel mehr erforscht werden (Evaluation). Nur so kann man auch erfahren, welche Maßnahme zu welchem Unternehmen wie passt. Außerdem sollte der Staat klarer vorgeben, wo es langgehen soll. Er muss die Klimadebatte jetzt endlich in die Praxis umsetzen und Ernst machen mit der grünen Wirtschaft. Er sollte also Kriterien vorgeben, die der Energiewende und dem Umweltschutz förderlich sind. Eine Abwrackprämie wäre sicher ein völlig falscher Anreiz. Besser sollte der Staat in eine neue Infrastruktur der Mobilität investieren. "Die Welt ist mit drei großen Krisen konfrontiert: die Klimakrise, die Ungleichheitskrise und eine Krise der Demokratie. Und dennoch geben uns die etablierten Wege, wie wir ökonomischen Fortschritt messen, nicht den leisesten Hinweis darauf, dass wir ein Problem haben könnten", Joseph Stiglitz, US-Ökonom (The Guardian, 24.11.2019).

Damit sind wir bisher nur auf der nationalen Ebene. Die Pandemie hat aber globale Wurzeln und auch globale Folgen: Mobilität, Urbanität, Vernetzung, weltweite Arbeitsteilung, Umweltzerstörung haben sie begünstigt. Die Auswirkungen werden weltweit sehr unterschiedlich sein: In der EU hat Deutschland die weitaus größten finanziellen Reserven. Die Schieflage zum Süden wird sich verstärken. Die Billionenschulden werden die Leitwirtschaft USA und auch Japan behindern, sie werden China zum schnelleren Aufstieg verhelfen. China kann seinen Einfluss ausdehnen. Schon allein der direkte Vergleich in der Pandemie ist nur noch blamabel für die USA (auch, wenn man falsche Statistiken in China voraussetzt). Wahrscheinlich werden auch die ökonomischen Folgen in den USA dramatischer sein: BIP-Rückgang, Export-Rückgang, Direktinvestitionen im Ausland mit den USA als Herkunftsland. Alle bisherigen Daten deuten darauf hin, dass in absehbarer Zeit eine Wachablösung in der Welt stattfinden wird. Vielleicht lassen sich aber - gerade wenn es keine Leitwirtschaft mehr gibt - Kooperation und Multilateralismus erhalten. Diese Werte werden dringend für die Erhaltung der Umwelt gebraucht. Vielleicht ist es sogar von Vorteil, weil Outsourcing zurückgefahren wird, insofern wäre Globalisierung zukünftig nur noch eine Produktionsmethode. "Wenn Güter knapp werden, kann der Markt eben doch nicht jedes Problem lösen. Und der Staat ist nicht immer der, der Freiheiten beschneidet, sehr oft ermöglicht er sie erst. Um die Probleme der neuen Realität zu lösen, müssen wir uns von halbierten Denkschablonen lösen. für knappe Güter, die den gesamten Planeten umfassen, müssen globale Ansätze gefunden werden, selbst wenn uns das schwierig erscheint", Maja Göpel, in: Dies.: Unsere Welt neu denken, Berlin (Ullstein) 2020, S. 155.

Die digitale Technologie bekommt weltweit einen Schub in Arbeit, Bildung und Alltag. Sie wird die Arbeitswelt jetzt schneller verändern (Vormarsch des Homeoffice). Die Kostenvorteile bei der Arbeit von Asien werden international geringer. In Asien steigen sie durch den Wohlstand und den Aufbau von Sozialversicherungssystemen und Gewerkschaften, in Europa sinken sie durch die Automatisierung. Der internationale Handel wird auch stark durch den steigenden Protektionismus behindert, der besonders von den USA vorangetrieben wird. So könnte eine Phase der De - Globalisierung bevorstehen. Die Bevorratung gewinnt wieder an Anhängern gegenüber der Just-in-time-Produktion mit Outsourcing  (zu der Einsicht war schon Japan in der Fukushima - Katastrophe gekommen). Zur Automatisierung trägt auch die 3-D-Technik bei. Die Digitalisierung kann so die De - Globalisierung begünstigen, allerdings sind die digitale Infrastruktur und der Cyberspace auch sehr anfällig. Jedenfalls braucht die technologische Transformation eine reformierte soziale Ordnung. Dazu gehören z. B. folgende Punkte:  Existenzsicherung in einer digitalen Ära benötigt eine Renaissance der Mitarbeiterbeteiligung. Chancengerechtigkeit muss wiederhergestellt werden. Vgl. Sattelberger, Thomas/ Felser, Winfried: Update für die soziale Marktwirtschaft, in: HB, Nr. 71, 14.4.21, S. 48.  "In der Welt lernt der Mensch nur aus Not und Überzeugung", Johann Pestalozzi, Schweizer Pädagoge. Um aus Überzeugung zu lernen, braucht der Mensch ein gutes Weltbild. Das hat sehr überzeugend der in England lebende deutsche Ökonom Ernst Friedrich Schumacher in seinem Buch "Small is Beautiful" beschrieben. Schumacher war Anhänger einer buddhistischen Wirtschaftslehre, in der Arbeit den Menschen darin unterstützt, seine Fähigkeiten zu entwickeln. Im Deutschen trägt das Buch, das eines der einflussreichsten über nachhaltiges Wirtschaften ist, den Titel "Rückkehr zum menschlichen Maß". Wie so oft, wird auch Schumacher als einer der größten deutschen Ökonomen im eigenen Land wenig geschätzt (wie Thünen, Marx, List; Raiffeisen; alle sind im Ausland sehr bekannt und geschätzt). Natürlich hat er auch keinen Nobelpreis der Ökonomie bekommen (die schwedische Akademie fährt im Schlepptau der USA!). 

Die letzten Krisen, die Folgen und wirtschaftspolitischen Eingriffe legen gnadenlos offen, wie veraltet die Ökonomie als Wissenschaft ist. Mit den oben skizzierten Konzeptionen kommen wir nicht mehr sehr weit. Keynes hatte zumindest die offene Wunde des Kapitalismus klar erkannt: "In the long run we are all dead", Keynes. Der Staat muss immer kurzfristig unter Zeitdruck handeln. Die Theorien über den uneingeschränkten Vorteil von Freihandel in der Globalisierung und über den Markt als besten Lenkungsmechanismus zu jeder Zeit waren auch viel zu einseitig und Kinder ihrer Zeit. Bei lebensnotwendigen Gütern ist eine Abhängigkeit sogar gefährlich, wenn Grundstoffe alle aus China oder Indien kommen (Medikamente, Schutzausrüstung). Außerdem dürfen Wertschöpfungs- und Lieferketten nicht zu anfällig sein. Das sind wichtige Erkenntnisse der letzten Krise. Der Kapitalismus und die Ökonomie als Wissenschaft dazu muss sich also jetzt neue Alternativen erschaffen. Das kapitalistische Wirtschaften muss sich erneuern und durch größere Innovationen sein Überleben sichern. Es muss auch berücksichtigen, dass zukünftig mit China ein kapitalistisches Mischsystem in der Welt dominieren wird, das die staatliche Kernkompetenz als Kennzeichen hat. Vgl. auch: Reiermann, Christian: Nicht kaputt zu kriegen, in: Der Spiegel Nr. 24/6.6.20, S. 78f. Schon Krugman hatte in seiner strategischen Handelstheorie nachgewiesen, dass unter bestimmten Bedingungen (Hochtechnologie, Oligopolmärkte) staatliche Subventionen notwenig und nützlich sind. Auch die USA werden werden bei einem Wahlsieg von Biden ihre Strategie "America first" und Buy America" nicht radikal ändern. Sie werden Zölle als nützliches Instrument gegen lästige Konkurrenten (China, EU) beibehalten. Vgl. auch: Horn, Gustav A.: Der verdrängte Keynes, in: Wirtschaftsdienst 4/2021, s. 294ff.

Es wird befürchtet, dass die Pandemie die Konzentration der Konzerne begünstigt (mehr Fusionen) und den Staatseinfluss auf die Wirtschaft spürbar erhöht. Die Gründung von Start-ups könnte verhindert oder schwerer werden. Die Monopolkommission will sich in ihrem Hauptgutachten im Juli 2020 mit den Corona-Folgen für die Wettbewerbspolitik beschäftigen. Es könnte künftig weniger KMU in Deutschland geben (höhere Insolvenzrate bei den kleinen Unternehmen). Eine Machtverlagerung zu größeren Unternehmen könnte eintreten. Es wird auch nachhaltige Struktur - Veränderungen geben: Das wird vor allem den Dienstleistungsbereich und den Handel betreffen. Folge könnte auch eine Interventionsspirale sein, in der Staaten finanzielle Risiken von Unternehmen übernehmen. Notwendige Anpassungen des Ordnungsrahmens könnten unterbleiben. Die kurzfristige finanzielle Handlungsfähigkeit unterstützt die Dominanz der Finanzmärkte. Der langfristige effiziente Einsatz von Ressourcen wird vernachlässigt. Vgl. Schellenbach, Jan: Waldbrände im Wirtschaftssystem, in: WiWo 25, 12.6.20, S. 42f. Außerdem werden eher bestehende Unternehmen und Geschäftsmodelle erhalten. Man setzt zu sehr auf Bewahren und weniger auf Erneuern. Vgl. Horn, Alexander: Die Zombiewirtschaft. Warum die Politik Innovation behindert und die Unternehmen in Deutschland zu Wohlstandsbremsen geworden sind, Novo Argumente Verlag 2020. In absehbarer Zeit muss der Staat zu einer Konsolidierung der Staatsausgaben zurück kommen. So brauchen wir in Deutschland  auch die Schuldenbremse zurück. Es gibt auch den Begriff "Woke Capitalism" ("wacher" Kapitalismus). Damit ist ein System gemeint, das sofort auf politische Forderungen reagiert. Wer am lautesten und besten sich bemerkbar macht, kann sich mit seinen Bedürfnissen durchsetzen. Vgl. Jan Fleischauer: Woke Capitalism, in: Der Focus 34/2020, S. 6f. 2020 gibt es auch eine Diskussion in der Ökonomie über die Grenzen der Staatsmacht. Wo liegen sie bei Beteiligungen, Wandelanleihen, Krediten. Wie muss das nach der Corona-Krise zurückgefahren werden? Vgl. z. B. Feld, Lars/ Südekum, Jens: "Das lasse ich mir nicht vorwerfen", in: WiWo 37, 4.9.20, S. 36ff.

Drei Trends werden nach den drei großen Krisen die Weltwirtschaft in der Zukunft beherrschen: Stärkerer Einfluss des Staats (mit Machtgewinnung der Nationalstaaten, wo sind die Grenzen des Staates? Wo ist er überfordert und versagt?), der Rückgang der Globalisierung (Grenzen der internationalen Zusammenarbeit, Decoupling) und niedrigere Wachstumsraten (weil die Krisen kosten und bezahlt werden müssen). Am härtesten trifft es bei den Wachstumsraten die Entwicklungsländer (Ende von Investitionen, Einbrüche der Exporte, weniger Auslandsüberweisungen). Die neuen Wachstumsraten könnten neue Wachstumsmodelle hervorrufen. Vgl. auch: Dani Rodrik: Straight Talk on Trade. Ideas for a Sane World Economy. Princeton University Press 2017. Gibt man das Wachstumsziel auf, wie es viele alternative Ökonomen befürworten, muss man sagen, wie mehr Steuereinnahmen sonst generiert werden können. Unser ganzes Umverteilungssystem basiert noch auf Wachstum - auch in der VR China. Auch die steigende Staatsverschuldung beruht auf dem Vertrauen, dass irgendwann der Staat die Gelder zurückzahlen kann und wird (das Wort Kredit kommt aus den lateinischen Begriff credere - glauben). Man spricht aber vom "entrepreneurial state", der große Innovationen ermöglichen , neue Märkte erschließen und so in der Lage sein soll, die Schulden zurückzuzahlen.  "Sämtliche Versuche im 20 Jahrhundert, eine Alternative zum Kapitalismus aufzubauen, endeten in einer Katastrophe für Mensch und Umwelt", Andrew McAffee, MIT (Quelle: WiWo 36/ 28.8.2020, S. 39).

Exkurs: Kriterien für Markt oder Staat durch die ökonomische Wissenschaft: Die Ökonomie als Wissenschaft kann sich nicht von ihrem gesellschaftlichen und staatlichen Hintergrund lösen. Die westliche Ökonomie lieferte theoretisch den Beleg dafür, dass die Marktwirtschaft effizienter sei  (Maßstab ist meist die Leitwirtschaft, in diesem Falle die USA). In der Folge trug die Ökonomie Züge einer Rechtfertigungslehre für die Wirtschaft der USA. Das flog erst mit der radikalen Umstellung auf Handelskrieg unter Trump auf. Die Ökonomie der kommunistischen Planwirtschaft kam zu einer höheren Effizienz für den Staat (vgl. auch meinen Artikel dazu: Wirtschaftsordnungen). Politisch siegt das System, das ökonomisch den höchsten Erfolg aufweist, gemessen in Wohlstand (Verteilung?). Die Parteien in Deutschland neigen entweder mehr zum Staat (SPD, Die Linke) oder mehr zum Markt /CDU, FDP). Bei den Grünen gibt es beide Lager etwa gleich stark. Wichtig ist der Zeitpunkt der Problembeurteilung (in Corona waren alle für den Staat und es gab keine sinnvolle Alternative). Die Frage ist, ob und wann der Markt wieder dominieren soll? Die benötigten Steuereinnahmen für die nächsten Jahre kann der Markt am effizientesten erwirtschaften helfen. Wahrscheinlich wird dieses Thema den Bundestagswahlkampf in Deutschland 2021 beherrschen. Hoffentlich kommt ein sachlicher Diskurs zustande und man erniedrigt sich nicht auf das Niveau des Wahlkampfs in den USA. In der Praxis bzw. empirisch fällt die Beurteilung auch schwierig. Hier scheint Wettbewerb im Markt zumindest für die bessere Personalqualität zu sorgen. Beim Führungspersonal für den Staat gibt es zu viele abgehalftere Politiker, die versorgt werden müssen, zu viel Parteien-Proporz, zu viel Personal, das anderswo nichts werden kann (negative Selektion). Da immer das Verhalten von Menschen in der Wirtschaft entscheidend ist, hat der Markt hier klare Vorteile. Man sieht auch in Zentralverwaltungswirtschaften bzw. Mischwirtschaften (China) die Herausbildung elitärer Kader, die ihr Vermögen im Ausland anlegen und ihre Privilegien vererben. Immer wieder wollen diese Systeme Korruption in den Griff bekommen, schaffen es scheinbar aber nie. Offensichtlich werden aber auch Marktwirtschaften von Eliten beherrscht oder zumindest maßgeblich beeinflusst (besonders deutlich in Frankreich und Japan). Wenn die Wissenschaft Kriterien für die Reform von Märkten bereitstellen kann (wie nach der Finanzkrise für die Finanzmärkte), wird die praktische Umsetzung von Lobby-Gruppen verhindert (Wallstreet/ N. Y., Londoner Bankenkreise). Demokratien im ursprünglichen Sinne von "Herrschaft vom Volk" funktionieren in vielen Ländern nicht mehr richtig. Aber auch im Ursprungsland Athen war es schon eher  eine Herrschaft von Eliten. So steht dieser Punkt immer wieder im Mittelpunkt von Wahlkämpfen (z. B. 2020 in den USA im Präsidentschaftswahlkampf: als Teil der Elite definiert sich Trump aber als Outsider). Das Thema "Staat versus Markt" wird uns in Zukunft intensiv beschäftigen. Es wird aber auf einer anderen Ebene diskutiert werden als in der Vergangenheit. Das Band zwischen Kapitalismus und Liberalismus ist gelockert. Vor allem in China, aber auch in den USA und Europa. Allokative Ineffizienz muss weiter gründlich erforscht werden ("Deadweight loss"). Alle Experten sind sich darin einig, dass staatliches Handeln und Marktprozesse intelligent kombiniert werden müssen. Es geht nur um die genaue Aufteilung und Quantifizierung. In der Phase der sozialen Marktwirtschaft /etwa 1950-1980) hat viele Länder eine Marktwirtschaft mit staatswirtschaftlichen Komponenten. Das staatliche Kapital lag bei 20 bis 30%. Im Zuge der Privatisierung staatlicher Vermögensbestände seit 1980 und der ausufernden Staatsverschuldung brach da staatliche Kapital ein. Die Schulden waren größer als die Vermögensbestände (USA, GB, Japan). In Deutschland hat man nur knapp einen positiven Wert. In China steht der Staat besser da: Die Beteiligung des Staates am Kapital des Landes (Immobilien, Unternehmen, Boden, Infrastruktur, technische Anlagen) liegt seit 2006 etwa bei 30% (1978 70%). Vgl. Thomas Piketty: Der Sozialismus der Zukunft, München 2021, S. 77ff. "Richtig verstandene Ökonomie sagt nicht, was gut oder schlecht ist, sondern was besser und schlechter ist. Das überfordert aber den Intellekt mancher Politiker", Binswanger, Matthias: Mehr Markt - oder mehr Staat? Falsche Frage! in: WiWo 24/ 9.6.23, S. 42f. Vgl. weiterhin zu dem Thema: Andritzky, Jochen/ Hesse, Nils: Soziale Marktwirtschaft, aber richtig, in: FAZ , Nr. 164, 18.723, S. 16. Sie versuchen klare Kriterien zu begründen. 

Exkurs: Grundlegende Literatur zum Thema, bitte im Original lesen. Es sind die beiden "klassischen" Antipoden: 1. John Maynard Keynes: "Das Ende des Laissez-faire", Aus dem Englischen von Jürgen Schröder, Stuttgart (Reclam) 2020. 2. Milton Friedman: Kapitalismus und Freiheit, Aus dem Englischen von Paul C. Martin, München (Piper) 1982 (1962 The University of Chicago).

Wir brauchen deshalb dringend neue Ansätze, die auch in die Struktur von Unternehmen hineingehen. Die Ansätze müssen makroökonomische Plattformen (die von der Realität ausgehen und nicht bloß Ideologien darstellen) mit Unternehmen verknüpfen und dieses Zusammenwirken besser durchleuchten (und das ganz anders als es früher die Mikroökonomie gemacht hat, die relativ stereotyp war). Wahrscheinlich werden eher verhaltensökonomische Ansätze zum Zuge kommen (die vom egoistischen Denken weggehen zum kooperativen). Gerade mittelständische Strukturen mit ihren komparativen Vorteilen sind zu beachten (vgl. ,einen Artikel dazu auf der Seite "casestud"). Die Vormachtstellung der USA in der Ökonomie als Wissenschaft geht dem Ende entgegen. Wir müssen mehr auf Asien schauen und gleichzeitig in Europa einen eigenen Weg gehen. Buddhismus, Konfuzianismus und Daoismus machen neue Konzepte möglich (man sollte sich zumindest mit diesen Strömungen auch beschäftigen; Kollektivismus statt Individualismus ist in der Diskussion; auch die Integration des Marxismus in diese Strömungen  in China ist sehr interessant). Ich plädiere für einen Ausbau und Test meiner eigenen Konzeption: Ausgehend von den Produktionsfaktoren "Umwelt" (mit Energie/ Rohstoffe), "Arbeit" (mit Digital) und "Kapital" (mit Global) immer die Verknüpfungen zu den Unternehmen herstellen und analysieren (Entrepreneurial Economics bzw. Managerial Economics genannt). Hier liegt meiner Ansicht nach die Zukunft der Ökonomie als Wissenschaft (vgl. den Aufbau und die Struktur dieser Plattform). Eine solche Ökonomie ist pluraler, realitätsnäher und zukunftsorientierter. Uns bleibt als Ökonomen nichts anderes übrig, als uns der neuen Realität zu stellen, blinde Flecken zu schließen und die Wirtschaft mit zu gestalten. Natürlich müssen auch die entscheidenden Grundfrage der heutigen Ökonomie geklärt werden: Ist heute wirklich die zentrale Aufgabe der Notenbank, die Zahlungsfähigkeit des Staates sicherzustellen und wo ist die Grenze (zentrale These der Modern Monetary Theory, vgl. weiter unten)? Brauchen wir immer noch Wachstum oder geht es auch anders? Wie kann man die Strukturprobleme in wichtigen Ländern lösen (Italien, Frankreich)?  Wie stark muss der Staat sich in die Industrie einmischen (Industriepolitik)? Wie können Deutschland und die EU im Wettbewerb mit den Großen (China, USA) mithalten und welche Rolle übernehmen sie? Wie kann der Nationalismus (mit steigendem Populismus) aufgehalten und ein Mindestmaß an Multilateralismus (Klimawandel!) gewährleistet werden? Wie kann in einer digitalen Welt die Spaltung der Gesellschaft verhindert werden? Vgl. auch: Fratzscher, Marcel: Die Neue Aufklärung, Berlin/ München 2020, S. 81ff. Über die Hintertür ist die Bekämpfung des Klimawandels auch mit unserem Thema "Markt oder Staat" verknüpft: Mittlerweile fordern Stahlkonzerne, Fluggesellschaften und Autobauer eine Umstellung auf saubere Energieversorgung. Das soll der Steuerzahler bezahlen mit Milliardensubventionen an die Branchen. Auch hier stellt sich die Frage, ob diese "grüne Staatswirtschaft" wirklich nötig ist und was sie bringt?  Vgl. dazu auch: Haerder, Max: Das muss ausgefochten werden! Streitgespräch zwischen Lars Feld/ Freiburg und Moritz Schularick/ Bonn, in: WiWo 1/2 8.1.2021, S. 30ff. Der Angriffskrieg Russlands gegen die Ukraine macht deutlich, dass ökonomische Kampfinstrumente alleine nicht reichen, man braucht noch die militärischen in der Hinterhand.

Es gibt eine innovative neue Theorie, die aber nur die Realität rechtfertigt und sich ihr anpasst und die langfristigen Folgen offen lässt (und auch nicht auf die spezifischen strukturellen Probleme eingeht, wie z. B. Anstieg der Vermögenspreise). Es ist die Modern Monetary Theory (MMT): Eine Regierung, die in der eigenen Währung Kredite aufnimmt, kann nicht zahlungsunfähig werden. Sie kann so viele Banknoten drucken lassen, wie sie für die Bezahlung ihrer Verbindlichkeiten benötigt. Einige Befürworter der Theorie rechtfertigen auf Basis des Konzeptes exzessive Staatsausgaben. Sie ignorieren die Probleme hoher Staatsverschuldung. Substanziell neu sind die Erkenntnisse nicht. Sie werden auch eher von Politikern zur Rechtfertigung genutzt.  In den USA wollen die Vertreter dem Weißen Haus Zugang zur Notenpresse verschaffen. Das könnte nach der nächsten Wahl zügig eingeleitet werden. In den USA ist Stephanie Kelton eine der Protagonistinnen der Theorie ("The Deficit Myth"). Sie spricht von einer "kopernikanischen Wende". Der Staat könne so viel Geld drucken wie er wolle. Der Staat sei der "monetäre Souverän". Mit Steuern könne er nur ein Teil seines Geldes wieder einziehen. Man darf diese Theorie gar nicht zu Ende denken. Sie könnte die obigen Erwägungen des Absatzes ad absurdum führen. Dann hätte der Staat gar nicht mehr selbst die Wahl zwischen Markt und Staat. Kommt eine Inflation, würde er auf die geldpolitische Bremse treten (Zinsen steigen, Aktienmärkte stürzen ab, Staaten, Unternehmen, Haushalte  werden insolvent, die nächste große Finanzkrise wäre da). Oder die Zentralbanken lassen die Inflation laufen, drücken die Zinsen weiter, kaufen noch mehr Staats- und Unternehmensanleihen oder übernehmen letztlich das ganze Finanzsystem (Verstaatlichung). Dann wäre alles staatlich. Vgl. Becker, B./ Fischer, M./ Goffart, D./ Schnaas, D.: Haste mal `ne Milliarde oder zwei? in: WiWo 42, 9.10.20, S. 16ff.

Die Frage "Markt oder Staat" kann vielleicht auch gar nicht allein theoretisch entschieden werden. Mit der Idee des Marktes ist notwendigerweise die These verbunden, dass eine Wirtschaft wachsen muss. Binswanger spricht von einem Wachstumszwang moderner Wirtschaften. Das gilt so lange, wie Unternehmungen mehr Geld einnehmen als sie ausgegeben haben un dsie untereinander im Wettbewerb stehen. Vgl. Binswanger Mathias: Der Wachstumszwang, 2020. Es kann aber sein, dass dieses aufgrund der beschränkten Ressourcen irgendwann gar nicht mehr möglich ist. Also muss und kann die Marktwirtschaft so repariert werden, dass eine überzeugende soziale Utopie kommt: Diese besteht darin, dass Wirtschaft auch als Marktwirtschaft einfach, robust, effizient und gerecht ist. Vgl. Richters, Oliver/ Simoneit, Andreas: Marktwirtschaft reparieren, 2020. Ähnlich sieht das der FDP-Generalsekretär Volker Wissing: Markt und Staat sollten keine Gegner sein, sondern Verbündete im Kampf für Demokratie, Freiheit und Wohlstand. Unternehmen seien viel innovativer als die Regierung. Vgl. mehr Markt, weniger Staat, in: HB Nr. 52, 16.3.21, S. 48 und Plumpe, Werner: Warum wir den Kapitalismus brauchen - und auch seine Kritiker, in: WiWo 1/2 2022 (7.1.), S. 43. Sehr interessant auch der Aufsatz von Otmar Issing: Die intellektuellen Verächter der Marktwirtschaft, in: FAZ Nr. 299/ 23.12.22, S. 18.

Das Wirtschaftsdenken war zu allen Zeiten ein Ausdruck der jeweiligen Zeit. Der Ökonom bewegt sich nicht im luftleeren Raum. Darauf hat immer das Wirtschaftslenken aufgebaut. Niemand das das besser analysiert als Marx und Engels. Die digitale Revolution hat zu sehr viel Pragmatismus geführt. Digitalisierung, Klimaschutz und Globalisierung sind nicht mit der einen ökonomischen Theorie oder Ideologie in den Griff zu bekommen, sondern verlangen Gespräche, Debatten und Verhandlungen. Die Finanzkrise und die Corona-Krise sowie der Ukraine-Krieg werden zu Änderungen führen müssen: steuerliche Zugriffe auf die Vermögenden, gerechte Besteuerung der Digitalgiganten, viel bessere Analyse von Wohlstand. Vgl. Heuser, Jean: Keine Selbstbedienung, bitte! in: Die Zeit Nr. 26, 24. Juni 2021, S. 19. Grundsätzlich stehen sich weltweit der angelsächsische Wirtschaftsliberalismus (GB, USA, Kanada, Australien) und der chinesische Staatskapitalismus gegenüber. Die Frage ist, ob es einen eigenständigen Weg für die EU und Deutschland gibt. Ökonomen wie Fuest und Felbermayr warnen: Wenn Politiker und Lobbyisten darüber entscheiden, wo die knappen Ressourcen der Wirtschaft - Kapitel und Arbeitskräfte - eingesetzt werden, verursacht das hohe Kosten. Vgl. Rudzio, Kolja: Der neue Superstar, in: Die Zeit Nr. 8/ 17 Februar 2022, S. 21. Relativ offen ist auch noch der Zusammenhang des ökonomischen Systems mit dem politischen. Kommunistische Länder wie Russland und China stellen notwendigerweise den Staat in den Mittelpunkt. Aber auch hier gibt es fundamentale Unterschiede: Russland ist eine reine Diktatur geworden (KGB-Geflecht), in China funktioniert die Machtkontrolle noch halbwegs.

Exkurs: 2020 erscheint ein Buch von Branko Milanovic (Ausbildung in Belgrad/ Serbien, heute als US-Staatsbürger an der City Uni in N. Y., auch Weltbank). Der Titel de Buches lautet: Kapitalismus global, Berlin  (Suhrkamp, Originaltitel "Capitalism Alone"). Seine Grundthese ist: Die westlichen Mittelschichten stehen gleich von zwei Seiten unter Druck. Von der durch die Globalisierung geschürten Konkurrenz in Asien und von den Reichen im eigenen Land. Die Pandemie 2020 hat diese Trends verschärft. Die Mittelschicht der reicheren Länder hat den Kürzeren gezogen. Die Enttäuschung darüber habe zum Aufstieg "populistischer" Parteien und Führer im Westen geführt. Die "Gelbwesten in Frankreich und die Trump - Wähler in den USA hätten den gleichen Ursprung. Die sinkende soziale Mobilität zwischen den Generationen und die zunehmende soziale Polarisierung komme hinzu. Die Einkommenszuwächse verschieben sich vom Einkommen des Faktors Arbeit zu den Kapitalbesitzern. Milanovic sieht große Schwächen im liberalen Kapitalismus der USA und im politischen Kapitalismus Chinas. Seine zentrale Frage ist, ob der Kapitalismus trotz der sozialen Zerreißprobe überleben kann. Er macht auch konkrete Vorschläge, um den Kapitalismus zu retten: Erneuerung des kapitalistischen Bewusstseins, höhere Steuern auf Vermögen und Erbschaften, mehr öffentliche Investitionen, Verbot privater Wahlkampffinanzierung, Verhinderung wirtschaftlicher Konzentration, Wiederbelebung des moralischen Imperativs des "Ehrbaren Kaufmanns".

Die Coronakrise und Russlands Angriffskrieg gegen die Ukraine haben die oben gestellte und diskutierte Frage nach Markt oder Staat durch die Realität überholt (Anfänge liegen schon in der Finanzkrise 2008 und in Fukushima 2011). Der Staat hat - wie immer in Krisen und Kriegen - seinen Einfluss auf Wirtschaft und Gesellschaft stark erhöht. Dieser Machtzuwachs wird sich kaum mehr korrigieren lassen. So werden sicher Marktwirtschaft und Freiheit zurückgedrängt.  In Krisenzeiten werden die Ausgaben stark erhöht, was mit einem Anwachsen der Staatsquote einhergeht. Das ist auch von Ökonomen ausführlich analysiert worden (Alan Peacock und Jack Wiseman für GB, Robert Higgs für die USA, Herbert Timm für Deutschland). Vgl. Fischer, Malte: Die Rückkehr von Big Government, in: WiWo 14/ 1.4.22, S., 40f. Auch: Schmidt, Christoph M.: Die Wirtschaft muss resilienter werden - und der Staat kann ihr dabei helfen, in: WiWo Nr. 40/ 30.9.22, S. 10. Unter den Kanzler Scholz hat sich der Staat so stark in die Wirtschaft eingemischt wie selten zuvor. Dabei scheint der Kanzler aber kein ökonomische Konzept zu verfolgen ("Scholzonomics"?), sonder muss auf bestehende Krisen reagieren, deren Ursache er selbst kaum verändern und bekämpfen kann. Reagieren und Ändern müssen sich aber auch die Bürger. Vgl. Pletter, Roman: Der Mann, der Alles wusste, in: Die Zeit 49/ 1.12.22, S. 25.  In Deutschland gibt es die reine Lehre nicht mehr, denn überall mischt der Staat mit, dessen Geld gebraucht und genommen wird.

Andere innovative Konzeptionen werden im Folgenden vorgestellt, wovon viele allerdings die Schwäche der konkreten, praktischen Umsetzbarkeit haben. Vgl. auch https://www.entrepreneurs4future.de . Wenn man aber zu sehr in bestehende, Systemen denkt, wie zum Beispiel "Soziale Marktwirtschaft", kann man vielleicht keine Visionen entwickeln.  Man braucht aber beides: Visionen und Pragmatismus. Das wusste schon der vielleicht genialste deutsche Wissenschaftler Albert Einstein: "Man kann Probleme niemals in der selben Denkweise lösen, mit der sie entstanden sind"

"Es gibt keinen Gegensatz von Staat und Markt. Die große Aufgabe von Ökonomen besteht heute darin, die Agenda von Regierungen von Nichtagenda zu unterscheiden", nach Joseph Schumpeter (Quelle: Wiwo 41, 8.10.21, S. 14.

 

 

"...Kernthese lautet, dass unsere Wirtschaftsexperten die Krisenerscheinungen der Gegenwart deshalb nur unzureichend erfassen und deuten, weil sie zu einer besseren Analyse schlicht und einfach nicht in der Lage sind. ... Die Ursache ihres Nichtkönnens liegt vielmehr in einer gewohnheitsmäßig tradierten, unhinterfragt angenommenen und insofern überaus starren, viel zu engen Forschungsperspektive", Frank Niessen: Entmachtet die Ökonomen! Marburg 2016, S. 14.

  Wie im letzten Abschnitt beschrieben, halte ich persönlich den Ansatz "Managerial bzw. Entrepreneurial Economics" für den viel versprechendsten. Er muss verhaltensökonomisch fundiert sein und VWL und BWL integrieren. Dieser Ansatz ist auch eher in der Lage, die Kritik der Freihandelsthese und des Nutzens von Globalisierung aufzunehmen. Bei Umwelt und Klimaschutz kann er besser den Eigennutz berücksichtigen. Digitalisierung wird auf die Unternehmensebene herunter gebrochen. Die Gestaltung der Wirtschaft sollte im Vordergrund stehen (dann muss sie automatisch ideologiefrei realitätsnah, zukunftsorientiert und plural sein).

Neuere Konzeptionen und Ansätze in der Ökonomie (welcher Ansatz wird sich durchsetzen? Criticisms:

"It`s the Economy, stupid", Friedrich Engels.

"Wirtschaftswissenschaft ist die Analyse des menschlichen Verhaltens bei ganz alltäglichen Dingen", Alfred Marshall, britischer Ökonom.

Vorbemerkung: Ein theoretisches Fundament ist für die empirische Forschung und die Politikberatung unabdingbar. Wichtige Fragen müssen entschieden werden, bevor eine Datenbasis vorhanden ist. Überprüfungen zeigen, dass beim Nachrechnen empirischer Studien oft etwas anderes herauskommt. Nichts ersetzt eine gute Theorie am Anfang. Vgl. Hanno Beck/ Alois Prinz: Nichts ersetzt eine gute Theorie, in: FAZ 8. Februar 2016, S. 18. Theorien verhindern auch Scheinkorrelationen (z. B. Zusammenhang zwischen Zahl der Störche und Zahl der Geburten kann nur durch Theorie als Scheinkorrelation entlarvt werden).

Es gibt noch einen anderen Grund für die Suche nach einem guten und fruchtbaren Ansatz: Die Ökonomie ist als akademische Disziplin hoch ideologieanfällig. Das kann den Blick auf die ökonomische Realität verzerren. Die Ökonomie sollte so objektiv wie möglich agieren, eine klare Sprache wählen (so dass möglichst viele Menschen die Erkenntnisse verstehen) und auch den relevanten Forschungsfragen folgen. Wirtschaftspolitische Empfehlungen beruhen selten auf einer Eins-zu-eins-Umsetzung wissenschaftlich erzielter Erkenntnisse. Meist gibt es eine Mischung von Theorie, Empirie und auch Ideologie. Das ist nichts Schlimmes, muss aber immer transparent gemacht werden. Dazu muss man erstmal einen Überblick über die Ansätze haben.

Wenn man nach innovativen Konzeptionen sucht, sollte zunächst der "Mainstream" charakterisiert werden: Das Menschenbild des Homo Oeconomicus steht im Mittelpunkt. Der methodologische Individualismus herrscht vor. Das Denken zeigt sich in theoretischen Modellen. Der formal-mathematische Ansatz überwiegt. Grundannahme ist Markteffizienz und Marktgleichgewicht. Dazu gehören auch rationale Präferenzentscheidungen, Geld als neutrales Tauschmittel, BIP-Wachstum als wichtigster Indikator des Fortschritts. Weitere Elemente sind: Mindestlohn vernichtet Arbeitsplätze, mehr Gleichheit schwächt die Wirtschaftsleistung, Staatsschulden bremsen das Wachstum. Vgl. Rudzio, Kolja/ Schieritz, Mark: Das Mainstream-Monopol, in: Die Zeit Nr. 5, 28.01,2021, S. 24. "Universitäten sind Misthaufen, auf denen manch schöne Blume blüht", Albert Einstein (dieser Spruch erklärt sich aus seiner Biographie; er trifft aber voll auf die Mainstream-Ökonomie an den Unis zu).

Einige solcher neuer Ansätze, die in die Zukunft weisen können, sollen vorgestellt und behandelt werden. Dabei ist Theorievielfalt angesagt (auch bei mir im Unterricht). Man sollte heute in der VWL auf Pluralität bauen und die Studenten in die Lage versetzen, nach Kriterien selbst eine Auswahl zu treffen. Ganz sicher muss der Ansatz der Zukunft ein ganzheitlicheres Verständnis von Ökonomie mit sich bringen. Es ist schon mehr als bedenklich, dass eine Handvoll US-Ökonomen (Mankiw, Krugman, Acemoglu, Stiglitz, Pindyk)  die Lehrbücher weltweit dominieren. Darin verbreiten sie ihre Ideologien und Weltanschauungen, die nicht mehr zeitgemäß sind (ohne auf die philosophischen Wurzeln und Geschichte in der Antike einzugehen). Sie sind didaktisch meist gut und einfach verständlich und kommen der Reduzierung der VWL - Curricula (vor allem an angewandten Hochschulen) sehr entgegen. Lehrbücher waren immer ein Spiegel ihrer Zeit, die heute aber mittlerweile eine andere ist (Aufstieg Chinas, mehr Staatseinfluss, neue Rolle des Geldes, Digitalisierung). Vgl. Kolja/ Schieritz a. a. O. Vgl. auch: Assheuer, Thomas: Im reichsten Armenhaus der Welt, in: Die Zeit Nr. 45, 2910.2020, S. 57.

Meine eigene Position kann ich nicht einem der Ansätze allein zuordnen, sondern ich verorte mich vorwiegend in der Verhaltensökonomik, der Entrepreneurial Economics und der Pluralen Ökonomik. Faktoren wie Nachhaltigkeit, Emotionen, Kontext, Innovationen und Gemeinwohl sind sowieso dabei, so dass man dafür keine eigenen Ansätze braucht. Vgl. auch die Diskussion dazu im Wirtschaftsdienst 2017/12, S. 835ff. Ich plädiere auch für einen ganzheitlichen Ansatz, der die Trennung von VWL und BWL aufgibt (heute schon bei "Finance" und "Taxation").

Trotzdem sollte auch der Ökonom immer die Grenzen seines Ansatzes und Denkens kennen und benennen. Die großen Philosophen Sokrates und Laotse wussten schon beide, dass das Bewusstsein des Nichtwissens am wichtigsten ist. Am besten hat dies Kohelet um 300 v. Chr. (besser unter Prediger bekannt) ausgedrückt: "Den Wissenden und den Unwissenden trifft dasselbe Schicksal". Die Erkenntnis des Nicht-Wissens ist die Zierde des Wissenschaftlers. Der Mensch ist im Kosmos bedingt. Insoweit hatte auch Marx mit dem Denken als Überbau recht. Kohelet drückt es so aus: "Alles ist Windhauch und Luftgespinst". Insofern ist jeder Ansatz der Ökonomie auch nur Windhauch im Lauf der Geschichte. Man sollte es als Ökonom nur zugeben.

Seit der Welt-Finanzkrise 2008 ist die Ökonomie in einem großen Umbruch.  Die meisten Volkswirte haben die Krise nicht kommen sehen. Das hat das Grundvertrauen der Bevölkerung und der Politik in in Ökonomie und Märkte erschüttert. Die Ökonomie ist von der Dogmatik abgerückt (in Deutschland vor allem an den Fakultäten in Freiburg und Köln). Marktversagen ist mehr ins Blickfeld gelangt, wenn auch Marktlösungen weiterhin staatlichen Vorgaben meist überlegen sind. In der Welt haben die USA unter Trump sich von der alten Weltordnung verabschiedet. China strebt nach der ökonomischen Dominanz und wird die USA ab 2030 oder schon früher irgendwann überholen. Der dynamische Wechsel kennzeichnet heute die Entwicklung in allen drei Bereichen der Ökonomie: in Umwelt, Arbeit und Globalökonomik. Die entscheidende Frage für den Menschen dabei ist: Kann in dieser Entwicklung die Freiheit gewahrt bleiben? Diese aktuellen Trends müssen in einem ökonomischen Ansatz der Zukunft berücksichtigt werden. Die Corona-Krise 2020/ 21 legt die Schwächen der herrschenden Ökonomie schonungslos offen. Vgl. auch: Graupe, Silja: Die Blindheit der Ökonomen, in: WiWo 33, 7.8.20, S. 42f. Die US-Ökonomie, die mal dominant in der Welt war, ist eigentlich in einer Spaltung: Auf der eine Seite die Neoliberalen und Keynesianer, die das "reichste Armenhaus der Welt" nicht in den Griff kriegen. Sie finden keine Lösung für das Verteilungsproblem der USA, das durch die Digitalisierung verstärkt wird. Auf der anderen Seite die "demokratischen Sozialisten" (Bernie Sanders u. a.), die in der demokratischen Partei nicht zum Zuge kommen. In Wirtschaftsfragen dominieren Veteranen in den USA, die schon bei Obama dabei waren. Viele führende deutsche Ökonomen sind nicht eigenständig, sondern plappern den vermeintlichen Starökonomen nach.

Das Wirtschaftsdenken war zu allen Zeiten ein Ausdruck der jeweiligen Zeit. Der Ökonom bewegt sich nicht im luftleeren Raum. Darauf hat immer das Wirtschaftslenken aufgebaut. Niemand das das besser analysiert als Marx und Engels. Die digitale Revolution hat zu sehr viel Pragmatismus geführt. Digitalisierung, Klimaschutz und Globalisierung sind nicht mit der einen ökonomischen Theorie oder Ideologie in den Griff zu bekommen, sondern verlangen Gespräche Debatten und Verhandlungen. Die Finanzkrise und die Corona-Krise werden zu Änderungen führen müssen: steuerliche Zugriffe auf die Vermögenden, gerechte Besteuerung der Digitalgiganten, viel bessere Analyse von Wohlstand. Vgl. Heuser, Jean: Keine Selbstbedienung, bitte! in: Die Zeit Nr. 26, 24. Juni 2021, S. 19. 

Ganz entscheidend wird sein, ob der Wohlstand der jetzt noch führenden Industrienationen stagniert oder schrumpfen sollte. Dann werden die Verteilungskonflikte kommen, die dann nur schwer lösbar sind. Das sieht man heute schon in den USA. Dann werden sich ganz sicher neue Ansätze durchsetzen. Wachstum auf Pump wird aber nicht funktionieren. Das Geld muss was wert sein Diese Grundregel wird bleiben. Ebenso muss die Politik ihre Kurzzeitigkeit beenden. Nur mit langfristigen Strategien wird man gegen China eine Chance haben.

Ökonomische Phrasendrescherei: "Geldhähne aufdrehen, Märkte fluten, Rettungspakete schnüren, an der Zinsschraube drehen, Konjunkturmotor ankurbeln".

Verhaltensökonomik (Behavioral Economics): Die Verhaltensökonomik befindet sich als Teilgebiet und Ansatz der Volkswirtschaftslehre an der Schnittstelle zur Psychologie. Sie arbeitet mit empirischen Methoden, nutzt Befragungen und Experimente. Sei will verstehen, warum Menschen sich so verhalten, wie sie es tun. Diesen Forschungsbereich gibt es schon sehr lange in der Volkswirtschaftslehre, vor allem wenn man die Klassiker einschließt. In Deutschland wurde diese verhaltensökonomische Forschung nach dem 2. Weltkrieg von Günther Schmölders in Köln aufgebaut. In den Neunzigerjahren wird die Forschungsrichtung in den USA wieder populärer, insbesondere nach der Finanzkrise (bekannter Vertreter Robert Shiller). Emotionen (Gefühle allgemein) und das soziale Umfeld spielen eine größere Rolle als die Rationalität. Gerade an den Finanzmärkten haben irrationale und ineffiziente Elemente (Herdentrieb, Überschätzung) eine große Bedeutung. Kritik an der Verhaltensökonomie kommt auf, weil sie sich zu sehr auf Experimente konzentriert und dabei Testpersonen bewusst "aufs Glatteis führt". Es fehlt sicher eine aussagefähige und konsistente Theorie (vgl. Hanno Beck: Der Mensch ist kein kognitiver Versager, in: FAZ Mo. 11.02.13, Nr. 35, S. 18; auch Ders.: Behavioral Economics, N. Y., Heidelberg, Wiesbaden 2014). Nudge (Nudging) als zentrales Element: Zentraler Fachbegriff aus der Verhaltensökonomik. Er wurde von R. H. Thaler (Nobelpreis 2017) and C. R. Sunstein eingeführt (vgl. Dieselben: Wie man kluge Entscheidungen anstößt, 2009/ USA 2008; ebenso D. Kahnemann: Schnelles Denken, langsames Denken, München 2012, USA 2011). Kahneman führt folgende Bausteine ein: Zwei Selbste, Econs und Humans, Zwei Systeme. "Nudge" ist das Gegenteil eines Verbots oder eines Befehls. Es geht um kluge, durchdachte Entscheidungshilfen und -anstöße.  Damit ist die Kraft, Menschen zu beeinflussen, größer. Beispiele bei Thaler sind eine Fliege im Urinal oder Obst in Griffnähe. Bei total freien Märkten kann Nudge zum Desaster führen, weil die Menschen keine guten Entscheider sind (Argument für die Regulierung von Gesundheitsmärkten). Der Begriff spielt heute auch in der Marketing-Kommunikation eine große Rolle. Die bekannteste Art von Nudges sind Standardvorgaben, die Defaults. Diese sollen Menschen in eine bestimmte Richtung "stupsen". Nudges können die Entscheidungen von Menschen verbessern, wie sie in Form gut aufbereiteter Informationen angeboten werden. Sie können auch die Selbstbindung verstärken (Selbstkontrollprobleme reduzieren; z. B. durch Wetten). In der Praxis kann Nudging in der Wirtschaftspolitik (Gefahr: Verwaltungsfreude, Obrigkeitsdenken), bei Konsumente (Gefahr: Manipulation), in der Alterssicherung und beim Verbraucherschutz bewusst eingesetzt werden. So gesehen ist es sanfter Paternalismus und verhaltensökonomisch fundierte Ordnungspolitik. Die Frage ist, ob unvollständige Rationalität eine hinreichende Begründung ist. Zur Kritik an Nudge werden meist die folgen Argumente angeführt: 1. Der Eigenwert irrationalen Verhaltens wird negiert. 2. Bestimmtes Menschenbild liegt zugrunde (Kahnemann: Menschen sind nicht imstande, kurzfristiges Tun mit langfristigen Interessen abzugleichen). 3. Framing ist an konkretes Ziel gebunden (auch ideologisch). 4. Sozialer Druck wird erhöht. 5. Nudging als Illusion ("optische Täuschung"). Vgl. Schnaas, Dieter: Gütiger Himmel, in: Wirtschaftswoche, Nr. 13, 23.03.15, S. 38f. Aktuell 2022 erscheint ein Buch von Armin Falk (Warum es so schwer ist, ein guter Mensch zu sein, München). Es führt die Verhaltensökonomie wieder näher an Psychologie und Soziologie heran, wo auch die Ursprünge liegen.   "Die Mehrheit in den Wirtschaftswissenschaften denkt den Menschen immer noch als eine egoistische Kreatur, der es nur um den eigenen Vorteil geht und die dadurch auf wundersame Weise für alle Wohlstand schafft. Dieses Menschenbild ist falsch und muss dringend einem Update unterzogen werden. Ein System, das Egoismus belohnt, erzieht zum Egoismus. wir brauchen eine Neubetrachtung der Werte, die Menschen in ihrer kooperativen Lebendigkeit zeigen", in: Maja Göpel: Unsere Welt neu denken, Berlin 2020, S. 72f.

Hirnforschung in der Ökonomie (Neuroökonomie): Sie verbindet psychologische, medizinische und ökonomische Erkenntnisse. Es geht um "Production of people and personalities" (Ernst Fehr, Uni Zürich). Im ökonomischen Leben eine wichtige Rolle spielen spielen Gefühle wie Angst und soziale Normen wie Fairness eine wichtige Rolle. Um sich diesen Phänomenen zu nähern, arbeitet man mit Gehirnscannern. Es gibt einen ausgeprägten Hang, so genannte Trittbrettfahrer zu bestrafen. Grundfragen sind die folgenden: Wie werden wir zu der Persönlichkeit, die wir sind? Wie funktionieren wir Menschen überhaupt? Warum ist jemand kooperativ und ein anderer egoistisch? Woher kommen unsere Präferenzen? Wo ist im Kopf der Knopf, mit dem der Kunde zum Kaufen und Wählen gebracht wird? Damit werden die Alternativen zum Modell des Homo oeconomicus aufgezeigt.  Mittlerweile werden Gehirne an Computer angeschlossen. Damit werden Cyborgs erschaffen. Hirnschnittstellen könnten eine ähnliche Revolution sein wie einst der Computer. Die Neurowissenschaft räumt mit vielen Vorurteilen auf: Daten und Informationen  werden am besten aufgenommen, wenn sie mit Gefühlen verbunden sind. Je größer das Wissen im Gehirn ist, desto leichter ist das Lernen.  "Wir können ethischen Verhalten ändern und haben die Möglichkeiten dafür noch längst nicht ausgeschöpft", Ernst Fehr, Uni Zürich. Auch: "In der Modellwelt der Ökonomie wird viel weggelassen, was im Leben eine wichtige Rolle spielt". (Zitiert nach: Torsten Riecke: Mit warmem Herzen und kühlem Kopf, in: Handelsblatt, Nr. 35, 19. 02.2015, S. 12,13). "Maschinen werden noch sehr lange nur einzelne Funktionen übernehmen, aber nicht den Menschen simulieren können, weil wir unseren neuronalen Code ja noch gar nicht verstehen", Tania Singer, Direktorin des Max-Planck Instituts für Kognitions- und Neurowissenschaften in Leipzig, s. Handelsblatt 29./30./31. Mai 2015, S. 56, 57.

Digitale Ökonomie (Internetökonomie): Machtkonzentration und Totalitarismus durch die Digitalisierung: In der Internetökonomie liegt eine große Gefahr, das Private abzuschaffen und Menschen effektiv zu kontrollieren. Am Anfang steht oft Freiwilligkeit (wie in der Share Economy), dann kommt Profit in der Regel durch Werbung und am Ende Machtakkumulation (alle Informationen über das soziale Leben). Teilweise erhöhen Unternehmen mit diesen Informationen den Druck auf die Menschen (z. B. wenn Versicherungen einen Bonus zahlen, wenn man sein Verhalten kontrollieren lässt). Die Internetunternehmen versuchen auch, an immer jüngere Nutzer heranzukommen. Ein Beispiel ist die Streaming-Plattform "YouNow". Danach muss sich auch die Wettbewerbspolitik neu ausrichten. Sicher gilt in der digitalen Ökonomie zwei Gesetzmäßigkeiten: 1. Information entwickelt sich zum wichtigsten Rohstoff zur Welterschließung ("Informationskapitalismus" löst den "Finanzkapitalismus" ab). 2. Der Mensch selbst wird zur Information und zum Rohstoff. Die Rolle de Menschen verändert sich: Er ist gleichzeitig Datenkonsument und Datenproduzent (große Gefahr der modernen Sklaverei). Er lässt sich aber auch zurichten (Empfehlungen von Streaming - Diensten, Follower). Monopole, insbesondere die aus dem Silicon Valley, gewinnen an Bedeutung (sie werden als Garant des Fortschritts beworben). In der Preisbildung wird das Image immer wichtiger (Beispiel Apple: macht den Preis nicht der Markt). Informationsdienste - etwa Google - streben eigentlich die Integration aller Marktzugänge an. Digital-industrielle Komplexe ersetzen die Gesetze von Angebot und Nachfrage. Vgl. Douglas Rushkoff, Present Shock, Orange Press, 2015; Yvonne Hofstetter, Sie wissen alles, 2015. Deutschland und Europa haben fast kein Internetunternehmen unter den Top 20 der Welt (SAP Ausnahme). Damit fehlt die Schnittstelle in der Wertschöpfung. Die digitale Ökonomie besteht aus mindestens folgenden Bausteinen: Produktion 4.0, Internet der Dinge (kommunizierende Geräte), digitale Transformation (vor allem Dienstleister mit Plattformen), Breitbandausbau. Sie beeinflusst insbesondere folgende Branchen (Rangfolge): Technologie, Medien/ Unterhaltung, Handel, Finanzen, Telekom, Bildung, Gastgewerbe, Fertigung, Gesundheit.  Im internationalen Vergleich ist die deutsche Digital-Wirtschaft nur Mittelmaß. Sie hat großen Nachholbedarf (Studie von TNS Infratest und ZEW 2015). "Wir wissen, wo du bist. Wir wissen, wo du warst. Wir wissen, was du denkst", Alphabet-Chairman Eric Schmidt (Google). "Wir erfüllen eine soziale Mission, indem wir die Welt offener, vernetzter und transparenter machen", Facebook-Chef Mark Zuckerberg 2015.

Entrepreneurial Ökonomie (Managerial Economics): Die Rolle der Unternehmer in der Volkswirtschaft steht im Mittelpunkt. Die "unternehmerische Ökonomik" gilt als Gegenentwurf zu unrealistischen, klassischen Gleichgewichtsmodellen. Die ideengeschichtliche Schule von Joseph Schumpeter steht dabei in der Regel im Vordergrund. Es sollen aber alle ideengeschichtlichen Schulen behandelt werden (zusammen mit Kulturgeschichte, Philosophie und Soziologie). Ich selbst folge diesem Ansatz ganzheitlich und gebe die Trennung von Volks- und Betriebswirtschaftslehre auf. Die Wirtschaft muss immer als Teil der Gesellschaft gesehen werden (Vgl. zu meiner Konzeption die Seite "Dozentenprofil").  Dafür tritt auch eine große Studentengruppe an der Uni Köln ein. Sie nennt sich "Oikos". An der Hochschule für Wirtschaft und Recht in Berlin findet ab 26.11.15 eine dreitägige Konferenz mit dem Titel "Ökonomische Lehre im 21. Jahrhundert" statt. Entrepreneurial Design ist ein künstlerischer Prozess, der ökonomisch, ökologisch und sozial denken voraussetzt. Hinzu kommen die Aspekte "Sympathie, Aufmerksamkeit und Authentizität". Mit den Rahmenbedingungen Fantasie, Mehrfachnutzungen, in Komponenten denken, Ernstbedingungen testen und stimmig zum Markt schließt das Konzept. Am Ende könnte eine Citizen Entrepreneurship stehen. Die wachsenden Probleme unserer Zeit sind nur noch durch tragfähige Unternehmenskonzepte zu lösen. Vgl. Günter Faltin: Wir sind das Kapital. Erkenne den Entrepreneur in Dir. Aufbruch in eine intelligentere Ökonomie, Hamburg 2015. "Wir haben eine Chance, eine bessere Welt zu bauen. Liebevoller, witziger, feinfühliger und künstlerischer, als es jemals zuvor möglich gewesen ist. Aber wir müssen selbst in den Ring steigen, es selbst in Gang bringen, es selbst unternehmen. Es nicht der bloßen Gewinnmaximierung überlassen", Günter Faltin (Text auf dem Umschlag). Vgl. auch: Purpose Stiftung: https://www.purpose-economy.org und https://www.entrepreneurs4future.de .

Plurale Ökonomie (Heterodoxe): Netzwerk von Ökonomen. An vielen Universitäten vertreten. Gegen den Dogmatismus der VWL. Beschäftigung mit Hunger, Umweltzerstörung, Klimawandel, soziale Ungleichheit und Arbeitslosigkeit. Berücksichtigung von historischem und kulturellem Kontext. Mehr Analysen mit qualitativen Methoden. Mehr praktischen Bezug auf die Gesellschaft. Vgl. zu mehr die Homepage: https://www-plurale-oekomik.de . (auch Berliner Studenteninitiative "Was ist Ökonomie?" www.wasistoekonomie.de ). 2015 ist Lisa Großmann Vorsitzende des Netzwerks. Parallel zum Treffen des Vereins für Sozialpolitik in Münster 2015 findet in der Nachbarschaft ein eigener Kongress statt. Die pluralen Ökonomen nennen sich auch Heterodoxe. Wahrscheinlich lässt auch folgendes Buch dieser Richtung zuordnen: Frank Niessen: Entmachtet die Ökonomen! Marburg 2016. Die Plurale Ökonomik steht auf fünf Säulen: Theorienpluralismus, Methodenpluralismus, Historische Fundierung, Wissenschaftstheoretische und ethische Reflexion, Inter- und Transdisziplinarität. Vgl. Ehnts, Dirk/ Zeddies, Lino: Die Krise der VWL und die Vision einer Pluralen Ökonomik, in: Wirtschaftsdienst 2016/10, S. 769ff. Vgl. auch Till van Treeck, Sozialökonomie Universität Duisburg. 2017 erscheint das erste Lehrbuch der Pluralen Ökonomie: Core (Curriculum Open Access Resources Economics, kostenlos nutzbares Online-Lehrbuch der Volkswirtschaftslehre; University College London, Wendy Carlin, unterstützt von George Soros). Vgl. auch Gesellschaft für Sozioökonomische Bildung & Wissenschaft (2016 gegründet in Tutzing, 80 Wissenschaftler aus dem deutschsprachigen Raum).

Marxistische Ökonomie: 1. Die Niederlage des Kapitalismus ist historisch vorbestimmt. 2. Gier und Egoismus determinieren die Kulturen. 3. Von Einkünften aus Kapital profitieren nur die Reichen. 4. Kapital entsteht durch Ausbeuten der Arbeitskraft. 5. Die relative Verelendung der Arbeiter führt zu einer Revolution. 6. Die Diktatur des Proletariats schafft die Grundlagen des Kommunismus, in dem alle Menschen gleich sind. 7. Eigentumsrechte sind abgeschafft und müssen nicht mehr auf Märkten gehandelt werden (Volkseigentum). Marx sah viele Probleme des Kapitalismus voraus, die noch heute eine Rolle spielen (und von Rechtspopulisten behandelt werden). Er sah sich auch sehr genau die Arbeiterklasse und die Kapitalisten an. Managergehälter (einschließlich Pensionsfonds und Lebensversicherungen) kosten die Eigentümer von Unternehmen Abermillionen. Er beschrieb die Folgen der Ausbeutung der Arbeiter. In seiner Krisentheorie spielt das Gesetz von der tendenziell fallenden Profitrate eine große Rolle. Das Kapital vermehre sich schneller als die Arbeit. Irgendwann werde die Rendite der Unternehmen zu gering. Sie würden keine Investitionen mehr wagen. Diese These ist wieder hoch aktuell. Mit zwei Dingen hat Marx richtig gelegen: Mit der Prognose der Globalisierung und der Fragilität der Finanzmärkte (deshalb wurde er auch 2008 wieder aktuell). Im Kern ist auch die Analyse des Kapitalismus richtig: Märkte werden von Unternehmen und Geld dominiert. Unternehmen koordinieren die Produktion und schöpfen den Mehrwert ab. Dafür bieten sie der Gesellschaft Arbeitsplätze an. Preise sind zuverlässige Indikatoren für verdichtete Informationen. Big Data, Künstliche Intelligenz verändern die Spielregeln heute, sie können Angebot und Nachfrage besser zusammenbringen. So stellt sich wieder einmal die Frage, was bleibt von Marx heute (verstärkt im Marx-Jahr 2018!). Durch den Aufstieg Chinas und die Übernahme der ökonomischen Führungsrolle in Zukunft wird der Marxismus aktuell bleiben. Die Grundfragen des Marxismus sind auch die zentralen Fragen jeder Ökonomie: 1. Das Verhältnis zwischen den Produktionsfaktoren. 2. Die Beziehung zwischen Markt und Staat. 3. Die Bedeutung der Wirtschaftsstruktur (Globale Unternehmen, KMU). 4. Der Zusammenhang zwischen Kultur, Politik und Wirtschaft. 5. Ist der langfristige Weg der Wirtschaft vorhersagbar? (digitale Revolution mit welchem Ziel?). Vgl. auch: Hilferding, Rudolf: Das Finanzkapital, Wien 1910.  Durch die Zusammenbrüche bzw. die Transformation der großen Planwirtschaften in China und Russland, die sich theoretisch mit dem Marxismus legitimierten, haben sich Berührungsängste in der Wissenschaft herausgebildet. Vgl. als aktuelle Literatur auch: Katja Kipping: Wer flüchtet schon freiwillig, Frankfurt/Main 2015. In der Vergangenheit habe ich immer wieder Vorträge zu Karl Marx gehalten (Bedeutung in China, "Keynes meets Marx" bei der Keynes-Gesellschaft u. a). Vgl. auch folgende Biographie: Jürgen Neffe: Marx. Der Unvollendete, München 2017 (Bertelsmann). Neffe erklärt auch die ökonomischen Theorien in verständlicher Form und konfrontiert sie mit der Realität. Er teilt die Gedankenwelt von Marx in folgende Abschnitte ein: Arbeit und Entfremdung, Herrschaft und Eigentum, Kollektiv und Plan, Welt und Gott, Kopie und Original, Kapitel 8.  "Sein Fazit: Marx ist nicht tot, er ist aktueller denn je" (Quelle: Ebenda, Umschlagtext).

Innovative und lernende Ökonomie: Der Anstieg des Lebensstandards beruht in erster Linie auf Produktivitätserhöhungen. Wir müssen lernen, wie wir die Dinge besser machen können. Politische Eingriffe sollten darauf gerichtet sein, das Lernen in der Volkswirtschaft anzuregen. "Es kann nicht angenommen werden, dass Märkte Wissen und Lernprozesse effizient erzeugen und verbreiten. Im Gegenteil: Es ist anzunehmen, dass Märkte nicht effizient sind" (Joseph E. Stiglitz/ Bruce C. Greenwald: Die innovative Gesellschaft, Berlin 2015, S. 47). Die Theorie des komparativen Vorteils muss heute neu definiert werden: Heute sind Wissen und Lernfähigkeit entscheidend. So muss gelernt werden, Organisationen und Gesellschaften zu führen. Ebenso müssen die Fähigkeiten und Lernen erlernt werden. Der Prozess des Lernens umfasst "Learning by Doing", Lernen durch Lernen, Lernen von anderen, Lernen durch Handel, Technologie verbessern. Lernen hängt ab von Lernfähigkeit, Zugang zu Wissen, Katalysatoren, Kontakten, kognitivem Rahmen und Kontext. Lernen hat Spillover-Effekte. Vgl. ebenda S. 92ff.

Barfuß-Ökonomie: Sie wurde von dem chilenischen Ökonom Manfred Max-Neef entwickelt. Sie stellt ein System von Thesen dar. Kern ist die Kooperation und das Motto "Small is beautifull" . Der deutschstämmige Wissenschaftler lebte lange in Slums bei Kleinbauern. Er übernahm auch die Genossenschaftsidee von Raiffeisen. Diese soll 2016 von der UNESCO als Kulturstandard zum deutschen Weltkulturerbe ernannt werden.

Cheesecoin: Es geht auch um alternative Formen des Wirtschaftens. So etwa um Cheesecoin. Das ist ein Tauschsystem. Es wird eine Geschenk-Ökonomie modelliert. die Nachbarschafts- und Peer-to-peer-Tauschsysteme nachempfindet. Dinge werden verschenkt, um ein komplexes Geflecht sozialer Beziehungen zu kreieren. Es  gibt auch ein "Internet des Gestanks". Schimmel.Bakterien und Pilze des Käse sind Echt-Zeit-Sensoren. Sie messen Umweltbedingungen. Wenn die Bedingungen günstig sind, werden Chese-Coins erzeugt. Die Herstellung der Cheese-Coins wird auf einem Geschenk-Holz überprüft. Es hat dei Funktion eines traditionellen Kerbholzes, das Schulden aufzeichnet. Cheesecoin wird ausführlich auf der 15. Documenta in Kassel 2022 präsentiert.

Zivilkapitalismus: "Zivilkapitalismus bedeutet, dass der verantwortungsvolle Bürger sich die Ökonomie aneignet, als Ganzes, als Gestaltungsmittel, als Instrument zur Weltverbesserung", s. Wolf Lotter, Zivilkapitalismus, Wir können auch anders, München 2013, Umschlagtext. Kapitalismus ist ein Kind der Aufklärung. Nichts hat die Lage der Welt so verbessert wie er. Es ist die einzig bekannte Methode zum Erzielen von Wachstum und Gerechtigkeit. Er hat sich in allen Kulturen durchgesetzt. Aber der Kapitalismus befindet sich in einer Krise. Deshalb sollte sich der Bürger Ökonomie als ein Mittel der Befreiung, zur Selbständigkeit und zur Wahrung der Menschenwürde aneignen. "1. Wir sind erwachsen, 2. Wir sind selbst bestimmt, 3. Wir ermöglichen Zugänge, 4. Zivilkapitalisten gehören sich selbst, 5. Zivilkapitalismus ist eine Graswurzelbewegung, 6. Zivilkapitalismus ist Realwirtschaft, 7. Zivilkapitalismus ist Interesse am anderen, 8. Zivilkapitalismus stärkt die Übersichtlichkeit, 9. Zivilkapitalisten sind fortschrittlich, 10. Was zu tun  ist; ebenda, S. 209ff.

Gemeinwohl-Ökonomie: Das Konzept wurde vom österreichischen Attac-Mitbegründer Christian Felber entwickelt. Im deutschsprachigen Raum gibt es etwa 1400 Unternehmen, überwiegend kleinere, die sich dem Konzept verpflichtet fühlen. Ein Drittel legt jährlich eine entsprechende Bilanz vor. Langfristig wird angestrebt, eine solche Bilanz gesetzlich verpflichtend zu machen. Unternehmen mit einer guten Gemeinwohlbilanz sollen von niedrigeren Steuern, günstigeren Krediten und Bevorzugung bei der Auftragsvergabe profitieren. Manche zählen auch die Sozialunternehmen dazu. So etwa "morethanshelters" (2012 von Daniel Kerber gegründet). Das Unternehmen betreut soziale Projekte, wie etwa das Flüchtlingscamp Saatari in Jordanien., das modulare Zeltsystem Domo und eine Innovations- und Planungsagentur. Hier gehen auch Crowdfunding - Gelder und Fördergelder ein. Am besten haben die Genossenschaften diese Idee berücksichtigt. Sie ist also schon viel älter. Das Credo der Genossenschaftsidee ist: Eigenverantwortung durch Selbsthilfe, Selbstverantwortung und Selbstverwaltung.  Das Revolutionäre seiner Idee liegt darin, Kredite und Geschäftsanteile als soziales Bindemittel zu sehen. Kreditgeber und Kreditnehmer sind Mitglieder. Es herrscht Symmetrie der Macht. Die Mitglieder helfen sich selbst, es fließen keine Mittel an Investoren. Das Motto lautet "Hilfe zur Selbsthilfe", Mildtätigkeit reicht nicht aus. Menschen verfolgen nicht nur egoistisch wirtschaftliche Ziele, sondern können partnerschaftlich zusammenarbeiten und kooperieren bei Geschäftsprojekten. Das schont ganz erheblich Ressourcen. Die Genossenschaftsidee ist damit auch nachhaltig. Versucht man die Genossenschaftsidee auf den Punkt zu bringen, besteht sie aus drei Prinzipien: Selbstversorgung (Menschen nehmen ihre eigenen Interessen in die Hand), Selbstverwaltung (jedes Mitglied hat das gleiche Stimmrecht), Selbstverantwortung (alle Mitglieder haften für die Genossenschaft). Die Genossenschaft ist von der Finanzierung her ein Beteiligungsmodell. Jedes Mitglied zahlt in das Genossenschaftsvermögen ein und erhält Anteile. Sie bilden das Eigenkapital des Unternehmens. Jedes Mitglied hat eine Stimme unabhängig von der Höhe der Einlage (anders als bei der AG). Entscheidungen dauern länger, haben aber eine breitere Basis. Wenn man die Idee der Gemeinwohl-Ökonomie umfassend sieht, ist sie schon sehr alt und geht auf Raiffeisen zurück, wenn man sie speziell auf Felber bezieht, ist sie etwas über 10 Jahre alt. Grundwerte sind Menschenwürde, Solidarität, Mitbestimmung, soziale Gerechtigkeit, Ökologische Nachhaltigkeit, Transparenz. Sehr interessant ist die Verknüpfung von Markt und Unternehmen: Das geschieht durch Gemeinwohl-Matrix und Gemeinwohlbilanz. Sie beziehen ein: Lieferanten, Geldgeber, Mitarbeiter, Kunden, gesellschaftliches Umfeld. Vgl. https://www.ecogood.org/de .

Integrale Ökonomietheorie des Gemeinwohls: Bausteine sind Degrowth in Europa, Post-Extraktivismus in Lateinamerika, Care-Ökonomie, Gemeinwohlorientierung der Anthroposophen, Gemeingutelemente (kollektivistische Landnutzung und Landformen), Treuhänderische Wirtschaft und Soziale Innovationen. Diese Form der Gemeinwohlökonomie hat ihre Wurzeln im Mittelalter in Deutschland. Es ist zum Beispiel die Niklashauser Wallfahrt von 1476. Im Mittelpunkt steht das Verhältnis von Eigennutz und Gemeinwohl im Umgang mit geistigem Eigentum, Geld, natürlichen Ressourcen, sowie das, was ein erfülltes , gutes Leben sei. Man wendet sich gegen das Menschenbild des Homo Oeconomicus, das die gesellschaftliche Wirklichkeit suggestiv verstelle. Vgl. Peper, Ines/ Kunze, Iris/ Mollenhauber-Klüber, Elisabeth: Jenseits von Wachstum und Nutzenmaximierung: Modelle für eine gemeinwohlorientierte Wirtschaft, Bielefeld (Aithesis Verlag) 2019.

Solidarische Ökonomie: Sie wurde 2008 ins Leben gerufen als Arbeitsgemeinschaft in der Stiftung Ökumene. Es geht um Alternativen zur kapitalistischen Wirtschaftsweise. Entwickelt werden Modelle einer lebensdienlichen, solidarischen und zukunftsfähigen Ökonomie. Vgl. www.akademie-solidarische-oekonomie.de . Vgl. auch: Simon, Klaus: Zwickmühle Kapitalismus. Auswüchse und Auswege, Marburg (Tectum-Verlag) 2014. Solidarische Ökonomie stellt nicht den eigenen Vorteil und das Profitstreben in den Mittelpunkt (Bedürfnisse der Mitarbeiter und Gemeinschaft; nicht konkurrieren, sondern kooperieren; eigene Initiative und Selbstorganisation). Im Brennpunkt stehen Commons (Gemeinschaft entsteht durch Gemeingüter). Entscheidenden Einfluss auf diese Richtung dürfte das Standardwerk von Elmar Altvater von 2005 gehabt haben: "Das Ende des Kapitalismus, wie wir ihn kennen". Hier plädiert Altvater ("der profilierteste undogmatischer Marxist der Bundesrepublik", Der Spiegel, 19/2018, S. 133) schon für eine solare und solidarische Gesellschaft. Altvater ist 2018 gestorben.

Caring Economics/ Ökonomie der Fürsorge: Nutzenmaximierung wird abgelehnt. Menschliche Entscheidungen werden stärker in den Kontext der Sozialpsychologie gestellt.

Kate Raworth: Die Donut-Ökonomie, München (Hanser) 2018. Die englischsprachige Originalausgabe ist 2017 in London erschienen: Doughnut Ecomomics. Seven Ways to think Like a 21sr-Century Economist. "Das Wesen des Donuts: ein gesellschaftliches Fundament des Wohlergehens, unter das niemand abstürzen sollte, und eine ökologische Decke des planetarischen Drucks, über die wir nicht hinausgehen sollten. Zwischen beiden Bereichen liegt ein sicherer und gerechter Raum für alle", S. 20. Wenn das Ziel der Menschheit im 21. Jahrhundert darin besteht, in das Innere des Donuts zu gelangen, welche ökonomische Denkhaltung eröffnet uns dann die besten Chancen, dies zu erreichen?", S. 20.  "Das machtvollste Werkzeug in der Ökonomie ist nicht das Geld, auch nicht die Mathematik. Es ist der Bleistift. Denn mit einem Bleistift kann man die Welt neu zeichnen", S. III. Vgl. www.kateraworth.com . Ihr Konzept besteht aus sieben Denkansätzen: 1. Das Ziel ändern. Der Donut. 2. Das Gesamtbild erfassen. Eingebettete Ökonomie. 3. Die menschliche Natur pflegen und fördern. Sozial anpassungsfähiger Mensch. 4. Den Umgang mit Systemen lernen. Dynamische Komplexität. 5. Auf Verteilungsgerechtigkeit zielen. Von vornherein Verteilungsgerechtigkeit anstreben. 6. Eine regenerative Ausrichtung fördern. Von vornherein regenerativ ausrichten. 7. Eine agnostische Haltung zum Wachstum einnehmen. Agnostisch gegenüber  Wachstum. Ihr Buch wurde bis 2021 in 18 Sprachen übersetzt. Sie betreibt mittlerweile auch ein Active Lab (Practice). Vgl. https://doughnuteconomics.org . Ratworth lehrt in Amsterdam und forscht in Oxford. Ihr Werk ist eng mit dem Gedankengebäude der Gemeinwohl-Ökonomie verbunden. Es gibt in Deutschland viele Regionalgruppen. Vorlesungen von ihr zu ihrer Konzeption findet man auch bei YouTube.

Faironomics: Die Welt sollte fairer und ökologischer sein. Wie kann man sie dazu machen? Dazu sollten konkrete Wege aufgezeigt werden. Da ist der Inhalt dieser ökonomischen Richtung. Eine bessere Welt sit machbar, wenn wir unsere Unternehmen, Organisationen und Initiativen so gestalten, dass eine ökosoziale Welt entsteht. Vgl. Koglin, Ilona/ Rohde, Marek: Faironomics, München (dtv) 2019

Konzept des Zivilen Ungehorsames (Revolution ohne Gewalt):  Maßnahmen von NRO, Ökoräten und Institutionen der direkten Demokratie: 1) Steuerboykott: Möglichst auf Massenbasis. In Deutschland keine Straftat. Der Staat kann aber die Steuerschuld zwangsweise eintreiben. 2) Wahlboykott: Als Mittel zivilen Ungehorsams, weil heutige Parteien, Parlamente und Regierungen die Probleme der Umweltzerstörung, Klimawandels und geplanten Obsoleszenz sowie des Zockerkapitalismus nicht lösen. 3) Konsumverweigerung, Produktstreik und Produktumstellung: Wirkt nur organisiert als Massenphänomen. 4) Generalstreik: Wirksamstes Mittel. Vgl. Jürgen Bruhn: Die Bestie zähmen. Wege aus dem Raubtierkapitalismus in eine Neue Ökonomie, Marburg 2015.

Kontextuale Ökonomie: Sie betrachtet wirtschaftliche Prozesse im Zusammenhang mit gesellschaftlichen, kulturellen und historischen Entwicklungen. Es ist also eine sozialwissenschaftliche Ökonomie. Sie steht in einem ständigen Dialog mit Historikern, Psychologen und Soziologen.

Komplexitätsökonomik: Volkswirtschaftslehre als komplexe Systeme. Volkswirtschaften werden anhand von Mathematik und Erkenntnissen aus Physik und Biologie als große, miteinander vernetzte Systeme gesehen.

Emotional Economics: Dynamische, zeitabhängige Prozesse bei den Auswirkungen von Arbeitsbelastung. Insbesondere Folgen von psychischem Stress. Auch Zusammenhänge zwischen Emotionen und ökonomischem Verhalten, insbesondere auch im finanziellen Bereich. Vgl. www.emotional.economics.uni-mainz.de; (auch Vertreterin an der Uni Heidelberg).

Postwachstumsökonomie (ökologische Ökonomik, Climate Economics): Alternative zum Denken in Wachstumskategorien und zur neoklassischen Volkswirtschaftslehre, die die Finanzkrise 2008 nicht vorhergesehen hat.  Wachstumskritik. Vertreter: Niko Paech. Vgl. Felix Rohrbeck, Der Verstoßene, in: Die Zeit, Nr. 11, 09. März 2017, S. 28. Der Nachhaltigkeitsaspekt sollte eigentlich Bestandteil jeder Volkswirtschaftslehre sein, insofern ist der Begriff tautologisch. Eine ökologische Priorität ist sowieso unerlässlich für das Überleben der Menschheit. Paech will die gesamte Wirtschaft schrumpfen. Er will das sogar im Alltag vorleben. Der britisch Ökonom Tim Jackson rechnet sich auch der Bewegung zu (im Englischen "Degrowth"). Gegner dieser Bewegung verweisen immer wieder darauf, dass man Wachstum braucht, um einen Sozialstaat zu finanzieren (Umverteilung). Vgl. Katharina Matheis: Es reicht jetzt, in: Wirtschaftswoche 1/2 2018, 05.01.18, S. 62f. Paech entwirft eine Konzeption, um institutionelle Innovationen politisch zu flankieren: Bausteine sind 1. Suffizienz. 2. Subsidenz. 3. Regionale Ökonomie. 4. Globale Arbeitsteilung. Zur Postwachstumsökonomie hinzu kommen müssen eine Reduzierung der Arbeitszeit auf 20 Stunden und ein entkommerzialisierter Bereich. Vgl. Paech, Niko: Befreiung vom Überfluss. Auf dem Weg in die Postwachstumsökonomie, München 2012. Vgl. auch: Wellbeing Economy Alliance (Globales Netzwerk von Organisationen und Individuen, die zu einer Ökonomie im dienst von Natur und Menschen forschen, experimentieren, publizieren, sich organisieren und zunehmend vernetzen): https://www.wellbeingeconomy.org . "Souverän ist nicht, wer viel hat, sondern wenig braucht", Niko Paech (Umschlagsrückseite). Vgl. zur Postwachstums-Ökonomie auch: Tim Jackson: Wohlstand ohne Wachstum, München 2017, insbesondere S. 230ff.

Economics of Diversity: Partha Dasgupta, Uni Cambridge/ GB. Er stammt aus Bagladesch, hat an der Uni in Delhi/ Indien studiert. Er plädiert dafür, die Natur als Produktionsfaktor zu sehen. Er hat mehrere Reports für die UN erstellt. Ein Bericht behandelt die "Economics of Diversity".

Freakonomics: ökonomische Auswertung von originellen natürlichen Experimenten am Rande der Ökonomie (Fernseh-Spielshows, Sumo-Ringen). Zuerst kommt die "sexy" Datenlage und dann wird "clever" mit einer interessanten Fragestellung das Beste daraus gemacht. Vgl. Steven Levitt/ Stephen Dubner: Freakonomics, 2005; mehr: Freakonomics Blog . Die Grundidee dieser Richtung geht auf den US-Nobelpreisträger Gary Becker zurück. Ausgangspunkt ist seine Definition des ökonomischen Ansatzes: "Wenn die beiden Annahmen, dass Menschen Maximierer sind und Märkte weitgehend frei und wettbewerbsorientiert , machen sie zusammen den Kern des ökonomischen Ansatzes aus", Gay Becker (The Economic Approach to Human Behavior). Gary Becker war dafür bekannt, die gesamte Ökonomie durch die Brille des eigennützigen homo oeconomicus zu sehen ("Ökonomik von Allem"). Er schrieb eine sehr interessante Doktorarbeit mit dem Titel "The Ecomonics of Discrimination". Er konzentriert sich darin auf die Idee, dass Heuchelei für den Heuchler kostspielig ist. Das Buch ist sehr lesenswert, weil es an das Grundproblem der USA geht. Becker ignoriert die Motivation der Arbeitgeber. Besser können die Grenzen der Ökonomie bei einer Analyse nicht deutlich werden.

Feministische Ökonomik : Feministische Ökonomik scheitert oft schon bei der Definition. Geht es um die Interessen der Frauen oder um weiblichere Techniken und Strategien bzw. um Ökonominnen. Der Begriff ist oft ideologisch besetzt. Besser wäre der Begriff "Gender Economics". Das ist auch das Leitthema 2020 bei der Jahrestagung des Vereins für Sozialpolitik. "Im VWL -Studium liegt der Frauenanteil bei 30 Prozent. In der Professorenschaft ist er noch niedriger, da zählt der Frauenanteil in Deutschland europaweit zu den niedrigsten," Nicola Fuchs-Schündeln, Professorin für VWL an der Uni Frankfurt und Vorsitzende des Vereins für Sozialpolitik, in: WiWo 39/ 20.9.2019, S. 40f.

Volkswirtschaftslehre 4.0: Volkswirtschaftslehre steigt in ihrer Bedeutung mit der Digitalisierung und Globalisierung stark an. Das zeigt sich auch konkret darin, dass die großen Tech - Firmen, insbesondere im Silicon Valley, ihre volkswirtschaftlichen Abteilungen massiv ausbauen. Sie sollen bei der Suche nach neuen Geschäftsmodellen helfen. Auf der anderen Seite bieten die Datenflut und die Plattformen Ökonomen neue Möglichkeiten, Theorien und Hypothesen zu testen. Die vorrangigsten Aufgabe der Volkswirte ist aber, Muster zu erkennen (Algorithmen), Szenarien durchzuspielen und neue Start - ups in ihren Strategien auszurichten. Die angewandten Hochschulen in Deutschland (frühere Fachhochschulen, oder die dualen Hochschulen) haben auf diesen Trend noch nicht reagiert. Sie handeln anti-zyklisch. Die Mechanismen der Selbstverwaltung sind zu stark politisch (durch Finanzen) gegängelt und zu stark an den eigenen Berufszielen (oft Lebensqualität) ausgerichtet. Vgl. Buhse, Malte: VWL 4.0: Wie Wissenschaft und Techunternehmen voneinander lernen, in: Wirtschaftswoche, 50/ 2.12.16, S. 40f.

Narrative Economics: 2019 wird das gleichnamige Buch von Robert Shiller (Yale; emeritiert; Wirtschaftsnobelpreis 2013) erscheinen. Er meint damit eine neue Erklärung für Krisen und wirtschaftlichen Erfolg gefunden zu haben. Es ginge bei der Wirtschaft um Geschichten. Narrative seien nicht nur bloße Erzählungen, sondern sie interpretieren Ereignisse und geben ihnen so eine Bedeutung. Narrative seien ansteckend und prägten so das Denken und Handeln der Menschen. Erzählungen können die Wirtschaft maßgeblich beeinflussen. Besonders einflussreich seien Geschichten mit Moral. Als Beispiele nennt er Trump und die Geschichte um Blockchain. Im Januar 2017 stellt Shiller seine Konzeption auf dem Treffen der Ökonomen in Chicago vor. Geschichten müssen nicht unbedingt wahr sein, um Wirkung zu entfalten (Beispiel: Laffer - Kurve). Vgl. Buchter, Heike: Erzähl mir was! in: Die Zeit Nr. 45, 31. Oktober 2018, S. 30. Es ist im Zuge dieser Richtung auch zu einer Veränderung von Narrativen gekommen. Die neoklassische Grundidee, dass Unternehmen nach Gewinnmaximierung streben, wurde in den Anspruch auf eine Mindesteigenkapitalrendite entsprechend dem Marktdurchschnitt transformiert. Dadurch gewannen Kapitalmärkte an Bedeutung und verzeichneten auch Wertzuwächse, die das Wachstum der Wirtschaftsleistung übersteigen. Ökonomen unterschätzen seiner Meinung nach die Bedeutung von Narrativen für die Wirtschaft. Auch die Greta-Euphorie sei eine bedeutsame "große Erzählung". 2020 im März erscheint die deutsche Übersetzung von "Narrative Economics" im Plassen-Verlag.  Die "Global Solutions Initiative", die der ehemalige Präsident des Instituts für Weltwirtschaft in Kiel Dennis Snower, ins Leben gerufen hat, soll eine Gemeinschaft internationaler Thinktanks sein. Es geht um Wert und Normen und wie man diese schmieden kann. Vgl. Gespräch mit Uwe Jean Heuser in Die Zeit, Nr. 6, 31. Januar 2019, S. 24f.

Pragmatischer Problemlöseansatz: Statt Modelle stehen Probleme und Projekte im Vordergrund. Es geht um Kita - Plätze, Organspenden, Rettung von Korallenriffen und ähnliches. Datenanalysen, Labor- und Feldexperimente sollen als Werkzeugkasten konkrete Probleme lösen. Ökonomen sehen sich als Marktingenieure.  Vorreiter dieser Richtung ist der Nobelpreisträger Alvin Roth (2012), der über "Matching" forschte  (Zusammenbringen von Angebot und Nachfrage auf Märkten ohne Preise). Vgl. Elke Pickartz: Plötzlich nützlich, in: Wirtschaftswoche 42/06.10.17, S. 66f.

Verschwörungstheorien: Sie beseitigen den Zufall und geben dem Einzelnen eine Chance, eine simple Erklärung für etwas zu finden, was ihn nervt oder verängstigt. Man kann sich aus der Masse hervorheben und als einziger verstehen, "wie der Hase läuft". Ursachen sind oft Verunsicherung und Marginalisierung. Seit dem Wahlsieg von Trump in den USA sind die Verschwörungstheorien wieder auf dem Vormarsch (nach Umfragen 40% aller Amerikaner), auch in der Volkswirtschaftslehre. Häufig wird eine Verbindung eingegangen mit Populismus. Letztlich führt dies zu Fragmentierungen in der Gesellschaft, die gefährlich für die Demokratie sein können. In der Corona-Krise 2020 haben Verschwörungstheorien Hochkonjunktur. Die einen verbreiten, dass die Chinesen den Virus als Kampfstoff einsetzen (kommt aus einem Labor in Wuhan, das vom Militär kontrolliert wird; Mao schwamm in Wuhan durch den Fluss, um seine Gesundheit im hohen Alter unter Beweis zu stellen). Andere rufen zum Widerstand gegen  den Staat im Shutdown auf, weil er die Diktatur schaffen will (Evangelikale in den USA, orthodoxe Juden in Israel, Rechtsradikale in Europa). Verschwörungstheorien haben die wichtige sozialpsychologische Funktion, Menschen Halt zu geben. Teilweise bilden sich um einzelne Theorien auch Gruppen, wie zum Beispiel Q. Typisch für Verschwörungstheoretiker ist die These: "Es gibt geheime Mächte, die die Welt steuern". Dabei denken viele auch an Wirtschaftsunternehmen, Banken oder das Finanzkapital. In Deutschland könnten bis zu einem Drittel der Bevölkerung Sympathien für solche Theorien haben. Quelle: Umfrage 2020, Konrad-Adenauer-Stiftung.

Volkswirtschaftslehre für eine unsichere Welt (John Kay, Universität Oxford): Er fordert eine neue Art von Volkswirtschaftslehre, die für eine unsichere Welt geeignet ist. Er gründete auch die Denkfabrik "Institute for Fiscal Studies" in London. Er fordert einen neuen Begriff des Risikos. Vgl. Thomas Fischermann: Chance oder Risiko, in: die Zeit 31, 25. Juli 2019, S. 21. "Ich glaube, dass Unwägbarkeiten eine gute, anregende Sache sind", John Kay.

Netzwerk für ein neues Denken (Forum for a new Economy): 2019 bildet sich weltweit das Forum New Economy. Es ist ein Netzwerk von Ökonomen für ein neues Denken. Man knüpft bei Thomas Kuhn an, der sich mit Denkrevolutionen beschäftigte. Es geht um Alternativen zur reinen Marktlehre. Die Diskrepanzen zwischen Theorie und Praxis in der Ökonomie sollen verschwinden. Vgl. https://www.newforum.org. https://www.neweconomicsforum.com.

Coronomics: Das ist der Titel eines Buches von Daniel Stelter, das 2020 in der Corona-Krise entstanden ist (Frankfurt/ New York 2020, Campus). Der Untertitel des Buches zeigt deutlich, worauf sich der Begriff bezieht: Nach dem Corona-Schock: Neustart aus der Krise. Im Kern geht es also um die Logik, was zumacht, muss auch wieder aufmachen. Man könnte den Begriff auch umfassender interpretieren, wenn man ihn auf die Welt der Ökonomie nach Corona bezieht. Stelter selbst wagt folgende Prognose: Aktive Notenbanken, aktive Staaten, Abkehr von der Globalisierung. Neue Prioritäten: Investition statt Konsum. Echte Reformen von Staat und Gesellschaft.

Vgl. auch: New Economics Foundation. www.neweconomics.org . Fundierte Quellen zu alternativen Ansätzen der Ökonomie mit Analysen und innovativen Vorschlägen zu aktuellen Debatten.

"Die einzigen Räder, die der Nationalökonom in Bewegung setzt, sind die Habsucht und der Krieg unter den Habsüchtigen, die Konkurrenz", Karl Marx, MEW, 40, S. 511.

 

Zur Rolle der Ökonometrie/ Statistik in der Ökonomie:

Zwischen Mathematik, Statistik und Ökonomie finden wir eine neue Disziplin, die man Ökonometrie nennen könnte", Ragnar Frisch, Norwegen, (1895-1973). Er begründete in den 1930er-Jahren diese Disziplin. Er leistete Pionierarbeit bei der Anwendung mathematischer und statistischer Verfahren in den Wirtschaftswissenschaften. 1969 erhielt er zusammen mit Jan Tinbergen den ersten Nobelpreis für Wirtschaftswissenschaften. Die erste quantitative Wirtschaftsanalyse im großen Stil veröffentlichte Gregory King 1696: Natural and Political Observations.

"Gerade in wirtschaftlich schwierigen Zeiten sind einigermaßen valide Zahlen unverzichtbar. Allerdings wird die Wirtschaft immer schnelllebiger. Neue Informationen können mittlerweile schnell die Gemengelage verändern", Christoph Schmidt, Vorsitzender des Sachverständigenrats für Wirtschaft, 2019.

Der Abakus ist eine uralte Rechenmaschine. Er ist in einigen Ländern Wahrzeichen der Statistik (auch in Deutschland). Dieser Abakus auf dem Bild steht in einem Park in Xi ´an, der alten, zentralen  chinesischen Kaiserstadt. Noch heute wird in ländlichen Gegenden Chinas oder in Sibirien in kleinen Läden an der Kasse mit dem Abakus gerechnet.

In der Ökonometrie werden statistische Methoden und mathematische Testverfahren und Daten auf Zusammenhänge der Volkswirtschaftslehre angewendet. Oft werden historische Daten in mathematische Modelle eingesetzt, um Wechselwirkungen zwischen ökonomischen Parametern abzubilden und Verhalten zu prognostizieren. Meist wird mit Computersimulation auch eine Prognose von Wachstum, Inflation oder Beschäftigung erstellt. Der Schwerpunkt liegt aber immer auf Ergebnisgrößen der Volkswirtschaft (Wachstum, Schulden). Dabei sind Ursache und Wirkung schwer zu trennen. Letztendlich soll eine statistische Basis geliefert werden, mit der sich Theorien beweisen oder widerlegen lassen. "Lass Vergangenes nicht dein Leben diktieren, doch nutze es als Ratgeber für deine Zukunft", aus China.

Die Volkswirtschaftslehre muss somit Vorstellungen vermitteln über die Wirkungen wirtschaftspolitischer Maßnahmen. Es muss eine Wirkungsschätzung erfolgen, so dass eine Bewertung der Wirtschaftspolitik mittel eines Modells möglich ist. Am wichtigsten sind dabei die Multiplikatoren (Haavelmo-Theorem, Investitionsmultiplikator). Je nach Situation müssen unterschiedliche praktische Konsequenzen aufgezeigt werden. Im Grundlagenunterricht stelle ich ein stark vereinfachtes IS-LM-Modell (nach Keynes in der Version von Hicks) in den Mittelpunkt. Dabei gehe ich von der Verwendungsgleichung aus und setze den Staat und das Ausland ceteris paribus. Damit kann ich mit leichtem mathematischen Aufwand den Multiplikator und das güterwirtschaftliche Gleichgewicht ableiten. Lernziel sind dann die beiden Fallen bei Keynes: die Liquiditätsfalle und die Investitionsfalle. Anhand der Funktionsweise der Fallen kann man gut aktuelle Situationen analysieren (z. B. die Wirtschaftspolitik in Japan). "Volkswirte dienen dem Volk, nicht der Politik. Doch hören die Politiker ihnen nur zu, wenn es auch das Volk tut", Hans-Werner Sinn 2016 (zitiert nach Capital, Ausgabe 2/ 2016, S. 66.

Ein großer Irrtum ist aber, dass empirische ökonometrische Analysen klare Antworten auf wirtschaftspolitische Fragen geben können. Es gibt immer Alternativen und einen Bewertungsspielraum. Die Entscheidungen treffen Regierungen und Parlamente. Der Wissenschaftler muss Transparenz und Offenheit wahren, so dass dieser Spielraum immer erkennbar ist. In der Politikberatung sind in der Regel immer gegensätzliche, oft auch parteipolitische, Gegensätze im Spiel. Insofern müssen den Grundlagen Aussagen über die Rahmenbedingungen, Nebenbedingungen und die Abhängigkeiten hinzugefügt werden. Gerade im Fall der Rechenfehler bei Reinhart und Rogoff zeigt sich, wie wichtig es ist, Daten und Rechenwege offen zulegen. Vergangene Theorie garantieren auch nicht, dass die Märkte sich in Zukunft genauso verhalten. Alle erdenkbaren Variablen können nie berücksichtigt werden. Absolute Gewissheiten kann es in der Ökonomie nicht geben (wenn dies jemand behauptet, ist Misstrauen angebracht). "Vieles von dem, was wir über ökonomische Phänomene wissen wollen, lässt sich ohne technische, ganz zu schweigen von mathematischen, Verfeinerungen der üblichen Denkweisen und ohne ausgefeilte Behandlung statistischer Zahlen entdecken und feststellen", Joseph Schumpeter, The Common Sense of Econometrics, Econometrica 1, Nr. 1 (1933), S. 5-12.

Die ökonomische Theorie kann auch keine klaren Aussagen zur Lösung wirtschaftspolitischer Probleme liefern. Wird ein gegenteiliger Eindruck von Wissenschaftlern erweckt, handelt es sich um Ideologie oder Manipulation (deshalb sprechen Politiker auch oft von "so genannten Experten"). Da aber die Theorie immer Basis statistischer Modelle ist, können diese nicht mehr. Insbesondere psychologische Faktoren sind schwer einbaubar und messbar. Mangelndes Vertrauen in die Schuldenfähigkeit der EU in der ganzen Welt (USA, Asien) ist auch ein Schlüssel, die Krise in Euroland zu verstehen. "Die Methode der rechtzeitigen Fehlerkorrektur ist nicht nur eine Weisheitsregel, sondern geradezu eine moralische Pflicht: Es ist eine Pflicht zur dauernden Selbstkritik, zum dauernden Lernen, zu dauernden kleinen Verbesserungen unserer Einstellung", Karl Popper.

Insofern sollte die Volkswirtschaftslehre Objektivität wahren, indem die Regeln der Wissenschaft eingehalten werden (dies muss notwendig zum Selbstverständnis gehören, vgl. oben). Vorrangig muss Transparenz (auch Offenlegung der Bezahlung), Offenheit, Zuverlässigkeit und Gültigkeit  gewährleistet sein. Werden diese Regeln nicht eingehalten, werden die Volkswirte ihren Einfluss, der ohnehin gering ist in der Wirtschaftspolitik und in den Institutionen der Wirtschaftspolitik gegenüber den Juristen, noch mehr verlieren. Die Unabhängigkeit von Ökonomen könnte besser abgesichert werden. "Und der schlimmste von allen menschlichen Schmerzen ist der, große Einsicht zu haben und keine Macht", Herodot (aus der Rede des Persers Attaginos).

Großen Schaden für das Renommee der Ökonometrie richten Wirtschaftsberichte an, die nur Instrumente im Parteienstreit sind. Die Instrumentalisierung der Statistik hat erheblich zugenommen. Große Zahlen werden systematisch in der politischen Argumentation eingesetzt und sollen Sicherheit suggerieren (z. B. Beschäftigungseffekte von Mindestlohn und TTIP; vgl. Die Zeit, Nr. 5, 30.01.15, S. 23: Petra Pinzler, Nützliche Ideologien). Fundamental ist immer die Frage, wer das Institut finanziert (z. B. IW  Wirtschaft und Unternehmerverbände, deshalb auch Vorsicht bei Stellung zum Mindestlohn). "Kostprobe" 2015: "Stimmt es, dass die Kluft zwischen Armen und Reichen wächst? Schauen wir uns die Vermögensverteilung an, so ist in längerer Frist keine Veränderung festzustellen", Michael Hüther, Direktor des IW 2015 (Handelsblatt, Nr. 19, Mittwoch 28.01.15, S. 2). Kein Kommentar! Oder folgende Antwort: "Er war nicht reich, er verfügte nur über unerschöpfliches Taschengeld", Bodo Kirchhoff, Dichter, geb. 1948. Das gilt vor allem beim Einmischen in Wahlkämpfe (Beurteilung der Vermögensteuer durch ZEW).  Systematisch werden in diesen Berichten bestimmte Aspekte ausgeklammert (starke Vereinfachung). Wer z. B. niedrige Steuern, mehr Investitionen und weniger Schulden fordert, sollte auch den ökonomischen Weg dahin aufzeigen. Eine besondere Instrumentalisierung kann man bei Prognosen beobachten. Ständige Wirtschaftsprognosen dienen nur noch interessengeleiteter Politik (immer Institutionen wie Destatis oder Eurostat bevorzugen bei der Info-Abfrage). Bei vielen wichtigen Fragen sind viele Institute auch nicht mehr nur Informationslieferanten und Erklärer, sondern sie machen selbst Politik. Vgl. zu anschaulichen Beispielen: Mark Schieritz, Wahlen mit falschen Zahlen, in: die Zeit Nr. 30, 18. Juli 2013, S. 8. Ohne die ökonomischen Analysemethoden kann man aber auf der anderen Seite komplexe Wirtschaftsbeziehungen national und international weder verstehen noch steuern.  Das "Abwägen von Alternativen" (M. Burda, Quelle: Die Zeit 39/19. Sep. 2013, S.33) sollte ebenso wie maximale Transparenz (was ist Wissen, was ist Vermutung) im Vordergrund stehen. Gerade hierbei sieht man, welch hohes Gut die institutionelle Unabhängigkeit von Professoren und Hochschulinstituten ist. Vgl. Christoph M. Schmidt: Kodex für Politikberater, in: Die Zeit Nr. 40, 26. Sep. 2013, S. 39. Auch: Expertenwissen im politischen Prozess - Nutzen, Grenzen und Gefahren, in: Wirtschaftsdienst 2017/ 4, S. 239ff.  "I strongly feel that the chief task of the economic theorist or political philosopher shoud be to operate on public opinion to make politically possible what today may be politically possible what today may be politically impossible", F.A. von Hayek (Denationalisation of Money, London 1977).

Für die Hochschulen oder andere Institutionen, die mit empirischen Daten arbeiten, ist der Zugang gut und wird immer besser, aber die Kosten sind oft zu hoch. Gerade kleinere Einheiten und einzelne Professoren können sich größere Datensätze nicht leisten.  Weiterhin fehlen Daten hinsichtlich der Evaluierung von Gesetzen. Zum Beispiel beim Mindestlohn  können entsprechende Daten zur Versachlichung beitragen. An der Hochschule ist der Statistikunterricht oft veraltet. Gebraucht werden weniger Rechenqualitäten (hier sind die Computer nicht zu schlagen), sondern mehr Anwendungs - Einschätzungen (welche Methode ist die beste?) und  Interpretationsfähigkeiten. "Statistical Literacy"  nennt man die Allgemeinbildung zur Interpretation von Statistiken. Behauptete Zusammenhänge sollten auch immer kritisch gesehen werden. Vgl. Gerd G. Wagner: Neue Offensive, in: Die Wirtschaftswoche, Nr. 7, 10.02.14, S. 42 und "Mehr Transparenz wagen", Interview mit Monika Schnitzler, Vorsitzende des Vereins für Sozialpolitik, in: Wirtschaftswoche, Nr. 36, 1.9.2014, S. 40-42.. "Es ist erwiesen..., dass die Dinge nicht anders sein können, als sie sind, denn da alles zu einem Zweck geschaffen worden ist, muss es natürlich zum besten Zwecke sein", Professor Pangloss aus dem Roman "Candide" von Voltaire.

Der Einfluss von Wirtschaftswissenschaftlern in den Medien und auf die Wirtschaftspolitik kann nur schwer gemessen werden. Immer wieder wird als Indikator das FAZ-Ökonomenranking genannt. Es besteht aus drei Teilbereichen: Forschung, Medien und Politik. Daneben gibt es eine Gesamtwertung. Vgl. Haukamp, J./ Thomas, T./Wagner, G. E.: Welchen Einfluss haben Wissenschaftler in Medien und auf die Wirtschaftspolitik, in: Wirtschaftsdienst 2015/1, S. 68ff. In letzter Zeit geraten Ökonomen und Politiker immer häufiger aneinander. Das mag damit zu tun haben, dass die meisten "Main Stream" - Ökonomen Neoliberale sind und in der Großen Koalition Gerechtigkeitsfragen wieder mehr Gewicht gewinnen. Ökonomen bringen immer mehr ihre politische Überzeugungen und Grundhaltungen ein. Sie lösen sich damit vom kritischen Rationalismus (Popper) und werden politisch abhängig (vgl. Petra Pinzler, Die Zeit, a. a .O), befriedigen damit aber zumindest ihre Eitelkeit (nicht seltene Eigenschaft bei Professoren). "Der Einfluss der Ökonomen war noch nie so groß wie heute", Clemens Fuest (zitiert nach Capital, Ausgabe 2/ 2016, S. 68).

Ein großes Betätigungsfeld für empirisch - ökonometrische Studien wäre die Evaluationsforschung. Sie könnte untersuchen, ob politische Projekte wirklich erfolgreich sind. Das wäre eine Art TÜV für die Wirtschaftspolitik der Bundesregierung. Vgl. Monika Schnitzer, in: Wirtschaftswoche 20/ 08.05.2015, S. 42.

Für den Normalbürger ist es nahezu unmöglich, alle Daten zu verstehen. Gleichzeitig ist er abhängig von Daten. Einziger Ausweg ist, den Daten zu vertrauen. Insofern wird Vertrauen immer wichtiger. Die gesellschaftlichen Institutionen müssen die Datenverarbeitung kontrollieren. Das ist aber nicht kostenlos zu haben. Vgl. Colin Crouch, Die bezifferte Welt, Frankfurt/ Berlin (Suhrkamp) 2015. "Fakten allein machen keinen Sinn", Deirdre Mc Closkey, Uni Chicago, emeritiert.

Durch Big Data wächst die Bedeutung empirischer Studien. Es gibt aber immer mehr Statistikfehler und frisierte Daten. Immer wichtiger wird daher die Überprüfung vorliegender Studien. Replikationsstudien sind aber umstritten ("Forschungsparasiten"). Es gibt sogar Experten, die die These vertreten, dass durch eine "geeignete" Auswahl der Daten sich fast alle postulierten Zusammenhänge bestätigen oder falsifizieren lassen - je nach Interesse. Die gleichen Wissenschaftler finden immer dasselbe heraus. Frisierte Studien könnten insofern Standard sein. Vgl. Binswanger, Matthias: Sind frisierte Studien Standard? in: WiWo 13/ 26.3.21, S. 44f.

Neue Methoden der Ökonometrie gewinnen an Boden. Die berühmte Ceteris-Paribus-Klausel, die ökonomische Wirkungszusammenhänge nur unzulänglich aufzeigen kann wird immer mehr durch natürliche Experimente ersetzt. Dabei werden Statistiken aus der realen Wirtschaft durchforstet. Berühmt ist das Experiment , das Wechselwirkungen zwischen Mindestlöhnen und Beschäftigung untersucht. Forscher entdeckten zwei aneinander grenzende Bezirke an der US-Ostküste, in denen wirtschaftlich fast alles gleich war (New Jersey, Pennsylvania). In einer Region war der Mindestlohn, in der anderen nicht. Die Erhöhung des Mindestlohns beeinflusste die Beschäftigungslage so gut wie nicht. Man spricht vom Card-Krueger Experiment. Card erhielt dafür den Wirtschaftsnobelpreis 2021 (Krueger ist tot). Vgl. Fischermann, Thomas: Nobelpreis, in: Die Zeit Nr. 42, 14.1021, S. 25.  Der Co-Preisträger Joshua Angrist legte Methoden fest, um aus den natürlichen Experimenten auch tatsächlich Kausalketten abzuleiten. Das ist wichtig, um Fehlschlüsse zu vermeiden. Der weitere Preisträger Guido Imbens schuf die Grundlagen für eine mehrstufige Auswertung.

"Ökonomen sind moralisch gesehen keine schlechteren, aber auch keine besseren Menschen als der Rest der Welt", Gebhard Kirchgässer, in: FAZ, 26. Oktober 2012, Seite 12 (Zur Rolle der Ökonometrie in der wissenschaftlichen Politikberatung, Thünen-Vorlesung beim Verein für Sozialpolitik). Vgl. auch: Wo sind die Ökonomen?, in: Die Zeit, Nr. 23, 29. Mai 2013, S. 21.

 

Zusammenhang "Modell, Planspiel, Rollenspiel und Simulation" (Staistical Modelling):

"Des Menschen Auge sieht weit, des Menschen Verstand sieht weiter", Dschingis Khan.

Das Modell ist ein vereinfachtes Abbild eines Stückes der Realität. In der Volkswirtschaftslehre ist das Denken in Modelle eine übliche Vorgehensweise. Das Abbild ist immer subjektiv geprägt. Wenn man mit einem Modell arbeitet, das über Zahlen definiert ist und damit Vorgänge nachahmt, und das zusätzlich noch eine dynamische Betrachtungsweise hat, spricht man von Simulation. Meist wird der formulierte Spielrahmen heute am Computer berechnet. Sind in dieses Simulationsmodell Menschen mit ihrem Verhalten als Entscheidungsträger eingebaut, nennt man dies Planspiel.  Vgl. Matischiok, G. M.: Denken in wirtschaftlichen Zusammenhängen, Stuttgart 1999, S. 21. Beim Rollenspiel wird ein Planspiel in sehr kompakter Form in der Regel als Theaterstück vor einem Publikum vorgespielt. Dies kann persönlich ablaufen oder vorher in einem Video aufgenommen sein. Vgl. als Veranstaltung hierzu "Psychologie &Kommunikation".

 

Empirische Forschungsmethoden in der Ökonomie und den Sozialwissenschaften insgesamt (insbesondere für Bachelor- und Masterabschlussarbeiten: meine Erfahrungen. Quantitative und qualitative Methoden).

Die Wahrheit finden wollen, ist Verdienst, wenn man auch auf dem Wege irrt", Georg Christoph Lichtenberg, deutscher Philosoph.

Bei den Methoden der Datenerhebung wird bei Bachelor- und Masterarbeiten (Stichprobe ist gebildet aus von mir betreuten Arbeiten und meiner beruflichen Erfahrung) noch in der Hauptsache mit Interviews gearbeitet. Quantitative Interviews werden heute überwiegend im Internet (häufig auch über soziale Netzwerke) durchgeführt. Dazu stellt die Hochschule eigene Software zur Verfügung (z. B. Qualtrics von SAP an der HWG Lu).  Der Trend geht zu qualitativen Interviews, insbesondere bei explorativen Fragestellungen (vor allem in Masterthesen). Die qualitativen Interviews werden noch überwiegend persönlich vorgenommen. Komplexe statistische Auswertungsmethoden finden hier meist keine Anwendung (vgl. unten). Schwierig ist die Bedingung der Zuverlässigkeit hier zu erfüllen, weil oft der individuelle Datenschutz gewährleistet sein muss. Die wissenschaftlichen Methoden für qualitative Interviews haben sich aber weiterentwickelt. Vgl. z. B.: Helfferich, C.: Leitfaden- und Experteninterviews, in: Baur, Nina/ Blasius, Jörg (Hrsg.), Handbuch der empirischen Sozialforschung, Wiesbaden , S. 559-574.

Immer mehr wird auf die Methode der Inhaltsanalyse zurückgegriffen. Das hängt mit der sehr starken Bedeutung des Internets zusammen. Homepages von Firmen oder von anderen Organisationen sind eine bevorzugte Quelle (z. B. bei Arbeiten über CSR, Ethno - Marketing, Ethik, Diversity). In der Regel erfolgt die Analyse qualitativ. Die Inhaltsanalyse kann auch auf das Intranet der Unternehmen ausgedehnt werden (Datenschutz und Geheimhaltung beachten; die Firmen wollen oft anonym bleiben). Auch auf andere, vergleichbare empirische Untersuchungen, kann mit der Inhaltsanalyse zugegriffen werden. Vgl. Mayring, P.: Qualitative Inhaltsanalyse, Weinheim 2015.

Die Beobachtung ist traditionell wichtig. Fallstudien, Praktika oder Jobs im Betrieb bieten eine hervorragende Quelle. Gerade Praktika im Ausland (z. B. in Unternehmen in China) sind ergiebig. So liegt normalerweise eine teilnehmende Beobachtung vor. Sie ist sehr nützlich bei seltenen kulturellen Phänomenen (z. B. Matriarchat: sehr wichtig für Prognosen durch steigenden Frauenanteil in Führungspositionen). Andere Formen, wie die nicht teilnehmende Beobachtung, sind selten. Die Studenten nutzen die Chancen der Beobachtung noch zu selten.

Kaum arbeiten Studenten mit dem Experiment. Laborexperimente können im Marketing, in der Marktforschung oder Werbung Anwendung finden. Neuerdings arbeitet man in der Emotional Economics zunehmend mit Laborexperimenten (z. B. Entscheidungen unter Stress und Unsicherheit). Die Aussagen sind allerdings oft eingeschränkt, weil Studenten (Freunde, Bekannte, Kohorte) als Versuchspersonen eingesetzt werden. Die Stichprobengröße ist meist sehr gering, so dass die Repräsentativität nicht hoch ist. Alle relevanten Faktoren sind schwierig zu kontrollieren. Natürliche Experimente sind nützlich in der Volkswirtschaftslehre. So erzeugte die historische Parallelwelt der DDR einzigartiges Datenmaterial für die deutsche Volkswirtschaftslehre. Ein einzigartiges Experiment ist auch die Entwicklung in China. Vgl. Ökonomen lernen vom Sozialismus", in: Handelsblatt, Nr. 124, 5.11.12, S. 12. "Wir müssen sehen, wo uns die Geschichte ein Experiment anbietet", Davide Cantoni, Uni München, s. ebenda).

"All life is an experiment. The more experiments you make, the better."Ralph Waldo Emerson (1803 - 1882), US philosopher.

Bei den Methoden der Datenauswertung steht das Programm SPSS im Vordergrund (ist an der HWG Lu vorhanden). Grundauszählungen müssen immer gemacht werden. In der Volkswirtschaftslehre wird oft mit Regressionen und Korrelationen gearbeitet. In der Betriebswirtschaftslehre hängt die Auswertung stark vom Thema ab. Hypothesentests und  Diagramme kommen meist vor. Die Tabellenanalyse sollte mehr eingesetzt werden (verlangt allerdings eine gewisse Erfahrung). Problematisch dabei ist oft, dass meist keine Zufallsstichproben vorliegen, die Studenten aber multivariate Methoden und Hypothesentests anwenden wollen (multivariate Analysen als Selbstzweck sind negativ zu bewerten). Die Statistik bietet hier pragmatische Normwerte für n an (z. B. n=30). Bei qualitativen Untersuchungen, aber auch quantitativen Analysen explorativer Art, sind statistische Hypothesentests oft nicht möglich oder sinnvoll. Hier spielen Einfühlungsvermögen und Intuition eine große Rolle. Bei den Qualitätskriterien Gültigkeit und Zuverlässigkeit müssen bei den Arbeiten der Studenten oft Abstriche gemacht werden (Zeitdruck, Anonymität u. a.). Dem Wunsch der Unternehmen nach Anonymität sollte entsprochen werden (kann auf Kosten der Zuverlässigkeit gehen). Außerdem versuchen die Firmen manchmal, Einfluss auf die Ergebnisse zu nehmen (Objektivität in Gefahr!). Besonders wichtig ist mir, dass die Grenzen der empirischen Forschung erkannt werden und die Ergebnisse kritisch diskutiert und gewertet werden (Relativierung).

Als gute Basis muss eine gründliche theoretische Analyse mit plausiblen und sinnvollen Hypothesen vorhanden sein. Die theoretische Analyse mündet also in den Hypothesen oder zumindest Forschungsfragen als Ergebnis. Vorher sollte der Forschungstand klar beschrieben werden. Überprüfungen vieler empirischer Studien zeigen, dass beim Nachrechnen oft etwas anderes herauskommt. Insofern brauchen empirische Arbeiten mehr Kontrolle. Die beste Kontrolle erlaubt aber eine saubere methodische Arbeit. Nichts ersetzt eine gute Theorie. Vgl. Hanno Beck/ Alois Prinz: Nichts ersetzt eine gute Theorie, in: FAZ 8. Februar 2016, S. 18.

Studierende haben in den Methoden der empirischen Forschung sehr oft Defizite. Das hat drei Gründe: Spezifisch werden diese Methoden in der Regel nur im Studium der Soziologie oder Psychologie gelernt. Das Ökonomie-Studium verlässt sich auf die Vermittlung der Statistikkenntnisse. Die Methoden der empirischen Sozialforschung sind aber nicht in jedem Curriculum (wie überhaupt der Statistik-Unterricht meist nicht mehr zeitgemäß ist). Im Marketing werden sie manchmal bei der Marktforschung mit vermittelt. Die Statistikausbildung beschränkt sich in der Ökonomie oft auf den ersten Studienabschnitt (früher als Hilfswissenschaft auch zur Selektion). Die Thesis bildet aber den Abschluss des Studiums.

"Mit Statistik kann man alles beweisen, sogar die Wahrheit. Also bin ich für Statistik", Marcel Reich-Ranicki, Literaturkritiker, gestorben 2013.

Ludwig von Mises war der Ansicht, dass empirische Methoden nicht auf die Sozialwissenschaften angewendet werden sollen.

 

Die Zukunft der Wirtschaft (Prognose der Weltwirtschaft 2013 bis 2033)

"Viele leben zu sehr in der Gegenwart: die Leichtsinnigen; andere zu sehr in der Zukunft: die Ängstlichen", Arthur Schopenhauer (Die Welt als Wille und Vorstellung; er war ein Wegbereiter der Moderne).

Zukunft als Gegenstand: Florence Gaub: Zukunft. Eine Bedienungsanleitung, München (dtv) 2023. Inhaltsverzeichnis: Kap. 1 Technische Daten: Was ist Zukunft? 2. Kap. Bedienelemente und Geräteteile: Woraus besteht Zukunft? Kap. 3: Inbetriebnahme: So funktioniert Zukunft. Kap. 4: Sicherheits- und Warnhinweise. 5. Kap.: Störungsbehebung. "Wir alle reisen gedanklich mehrfach täglich in die Zukunft, häufiger als in die Vergangenheit... Daher sind wir nicht nur ein Wesen, das durch seine Fähigkeit zur Vernunft definiert ist, sondern durch seine Fähigkeit, gedanklich in die Zukunft zu reisen", Umschlagtext.

Methode: Prognosen sind immer bedingte Prognosen, in dem Sinne, dass sie von Randbedingungen abhängen. Meist werden die Zusammenhänge von heute auch in Zukunft vorausgesetzt.  Prognosen sind immer in ein Gesamtsystem eingebettet. Die Analyse dieses Systems ist hochkomplex. Bestimmende Trends der Gegenwart werden prolongiert, wie z.B. Klimawandel, Globalisierung, technischer Fortschritt und Bevölkerungsentwicklung. Insofern ist jede Prognose in der Gegenwart verankert (die Regeln sind: keine Wunder/ Sprung im technischen Fortschritt, kein dritter Weltkrieg, keine bösen Flaschengeister/ weltweite Wirtschaftskrise, die Modelle von heute sind ausreichend gut, vgl. Laurence C. Smith, a. a. O. S. 22f.). Das Verhalten der Menschen wird in der Regel konstant angesetzt. Besonders wichtig sind die Bildungsbeteiligung, die Erwerbsbeteiligung, das Weiterbildungsverhalten, das moralische Verhalten und das Konsumverhalten. Die Handlungsoptionen für die Politik werden oft ausgeklammert. Durch politische Eingriffe verändern sich Parameter entscheidend. Kurzfristige Prognosen, die auf gigantischen Mengen von persönlichen Daten beruhen ("Big Data"), werden immer genauer. Optimierte Logistikprozesse bei den Unternehmen führen zu geringeren Kosten. Verkaufprognosen für einzelne Produkte werden immer genauer. Weil Speicherplatz fast nichts mehr kostet und die Computer immer leistungsfähiger werden, kann mithilfe geeigneter Algorithmen im virtuellen Raum immer genauer und klarer in die Zukunft gesehen werden. Algorithmen werden aber zielgerichtet programmiert und dienen meist Profitinteressen (Beispiel das Suchsystem von Google, das individuell lernt). Bestimmte Zusammenhänge ändern sich aber im Zeitablauf. Heute tun schlechte Prognosen der Aktienbörse gut (früher war es umgekehrt, weil gute Konjunkturprognosen steigende Unternehmensgewinne anzeigten). Heute fehlen Alternativen in den Anlagen. Für 2013 lieferte die Deutsche Bundesbank die treffsichere Prognose (Wachstum 0,4%, Inflation 0,5%). Die Wirtschaftsforschungsinstitute, die EU-Kommission und die Banken hatten das Nachsehen. "Prognosen sind schwierig - vor allem wenn sie die Zukunft betreffen", Niels Bohr (1885-1962, Wissenschaftler der Physik).

Wirtschaftstrends der Gegenwart mit Ausstrahlung in die Zukunft: Die Staatsverschuldungen bergen ein großes Risiko in sich. Nicht nur die absolute Höhe der Gesamtverschuldung ist wichtig (z. B. ist sie in Japan weit über 200%, aber die Verschuldung ist beim eigenen Volk und Japan ist großer Gläubiger, z. B. für die USA). Die gegenwärtige Geldschwemme in der Welt bringt große Probleme für die Zukunft. Verlierer sind die große Mehrheit der Bürger, deren Ersparnisse in Sparbüchern und Lebensversicherungen angelegt sind. Die Messung der Inflation über den Konsumgüterpreisindex ist verschleiernd (die Explosion der Immobilienpreise begünstigt Vermögende). Die großen Gewinner sind die Reichen, die sich die Spekulationsprofite sichern (Kluft zwischen Arm und Reich wird größer). Das Wachstum der Industrieländer hat und wird sich weiter verlangsamen (in den G7-Ländern war es zwischen 1960 und 1969 mit 5,1% am höchsten, zwischen 2000 und 2010 nur noch 1,3%). Wachstum hängt stark vom Basiseffekt ab (deshalb ist es in Schwellenländern immer höher). Endloses Wachstum kann und wird es nicht geben. Die USA funktionieren nicht mehr als Konjunkturlokomotive der Weltwirtschaft (ihre Bürger sind zu hoch verschuldet, die Parteien sind zerstritten; mit Basiseffekt ist sie gegenwärtig noch Lokomotive). Die Schwellenländer, allen voran China (mit seinen 440 Megastädten), werden mit ihrem BIP die Industrieländer einholen und überholen (erstmal verlangsamt China sein Wachstum, Indien setzt auf Dienstleistungen, Russland auf Rohstoffe und Agrarproduktion). China wird sich längerfristig auf 3, 4% Wachstum einpendeln und wird von Indien überholt werden (wichtiger Einflussfaktor Altersstruktur der Bevölkerung). Das Wachstum wird weiter von Investitionen, Produktivität, Arbeit und technischem Fortschritt bestimmt werden. Die digitale Revolution wird dabei das Leben von Grund auf ändern. Aufgrund der Automation, insbesondere im industriellen Bereich, kann es zu Migrations - Wellen aus den bevölkerungsreichen Schwellenländern kommen (steigende Löhne beschleunigen den Prozess).  Kurzfristig liegt das größte Risiko im Euro (Europa muss sparen und Wettbewerbsunterschiede abbauen; einige Länder wollen raus, so wie Großbritannien: Brexit), langfristig in den Problemen Chinas und anderer Schwellenländer (Kluft zwischen Arm-Reich und Stadt-Land). Unser eigener Wohlstand in Europa wird vom Vorsprung an Innovationen abhängen. Der demographische Wandel lässt Europa immer stärker ergrauen und gefährdet Innovationen (dagegen wirkt die Einwanderung). Noch offen ist die Reaktion der Wirtschaft auf fehlende Wachstumsraten (gegenwärtig hängt die Verteilungspolitik daran).  Wir brauchen neue Wertesysteme und Einstellungen. Berühmt geworden ist die Prognose von Laurence C. Smith (deutsch: Die Welt im Jahre 2015. Die Zukunft unserer Zivilisation, Berlin 2014). Sein Ergebnis ist, dass der Norden der Erde - also Russland, USA, Kanada, Island, Norwegen, Finnland, Dänemark und Schweden (Norcs) - ein enormes Potential entwickeln, wirtschaftlich profitieren und insgesamt stabiler dastehen als die Länder der südlichen Breitengrade. Vgl. auch Dobbs, R./ Manyika, J./ Woetzel, J.: No Ordinary Disruption, London 2015.

Kulturtrends: Verschmelzen die Welten und ersetzen den "Kampf der Kulturen"? In allen Ländern gibt es globale Oligarchen, die die Interessengegensätze leicht überwinden und ihr Geld und Vermögen überall in der Welt anlegen, bevorzugt in Steueroasen. Kleine Eliten haben ihre Macht in allen Staaten ausgedehnt (Plutokratie). Dies gilt auch für die ehemals kommunistischen Staaten. Die Eliten profitieren vom Konkurrenzkampf der Staaten untereinander. Der freie Zugang zu Bildung, eigentlich ein Menschenrecht, ist für über 72 Mio. Kinder ein leeres Versprechen. Vor allem in Afrika ist der Bildungsnotstand in absehbarer Zeit nicht zu beseitigen. Illegale Geschäfte wachsen an, weil sie von der wirtschaftlichen Deregulierung, Abschaffung der Grenzkontrollen und politischen Uneinigkeit profitieren. Die "Commons", auch Wissens-Allmende genannt, werden immer bedeutender. Sie werden außerhalb des Marktes organisiert. Dazu gehören z. B. Linux, Firefox und Wikipedia. Das Internet ist auch den ärmsten Ländern zugänglich (das große Geschäft wird immer noch in den USA gemacht). Vom Umsatz her führt immer noch die Filmindustrie der USA; die weltweit meisten Zuschauer hat der indische Film. Vgl. Le Monde, Atlas der Globalisierung. Die Welt von morgen, Paris/ Berlin 2012. Wir sehen gar nicht mehr, wo unsere Freiheit mittlerweile beschränkt wird. Die digitale Welt wird immer mehr vordringen und mit ihr wird Alles vorhersehbar und kontrollierbar. Gerade Volksabstimmungen (Beispiel Brexit in GB) zeigen große Einflüsse des Internets. Die Menschen lassen sich eher bestätigen als noch kreativ zu denken. Rapide zunehmen wird das Internet der Dinge. Die Anzahl vernetzter Geräte wird weltweit 2030 auf 500 Mrd. ansteigen (2020 30 Mrd.). Quelle: Cisco. Völlig unklar ist noch die Wirkung von Metaverse (Facebook, Google). Menschen leben auch in einer virtuellen 2. Welt, in der sie einen Avatar leben lassen.

Weltwirtschaft 2033: Asien wird seine alte Position aus dem 18. und 19. Jahrhundert wieder gewonnen haben. Experten sehen eine Verteilung der Weltwirtschaft von 25% für Europa, 33% für Nordamerika und 35% für Asien (Quelle: OECD). Die Weltproduktion wird sich in ihrer Struktur nicht grundlegend ändern. Auch die Exportanteile der Branchen werden weitgehend bestehen bleiben. China wird der mit Abstand größte Weltproduzent sein (z. B. 70% bei Textilien, auch hoch bei Elektronik und Fahrzeugbau; China wird auch viel stärker werden bei Investitionsgütern und Vorleistungen). Wichtige Schwellenländer werden an Gewicht gewinnen (Brasilien, Indien). Japan und die USA werden die Industrieländer sein, die Boden verloren haben. Die USA erhält wieder einen Aufschwung durch Fracking (und das Absinken des Ölpreises). Deutschland wird voraussichtlich weiter gut dastehen. Der größte Handelspartner Deutschlands wird noch die EU sein (60%, das Wettbewerbsproblem in der EU wird abgemildert sein). Dann wird China folgen. Aufgrund der globalisierten Wertschöpfungsketten werden Mobilität, Transport, Logistik und Informationstechnologie stark gewachsen sein. Die anfangs gemachte Annahme, dass keine großen Krisen eintreten ist hier am problematischsten. Gerade die Ukraine-Krise und die Reaktion Russlands auf die Sanktionen zeigt die Schwierigkeit auf. Der Risikobericht des Weltwirtschaftsforums 2014 sieht weiterhin das Gespenst einer Finanzkrise, weil die globalen Rahmenbedingungen sich im Vergleich zum Jahr 2008 kaum geändert haben und zu viel Geld auf den Finanzmärkten ist. Der britische Ökonom Gerard Lyons (Berater des Bürgermeisters von London; Das neue Wirtschaftswunder, Berlin 2014) prognostiziert, dass die Weltwirtschaft in den kommenden zwanzig Jahren ein enormes Wachstum erfahren wird. Asien wird an wirtschaftlicher Macht gewinnen und seine gefährliche Allianz mit den afrikanischen Staaten noch verstärken. Die chinesische Entwicklungspolitik in Afrika ist effizienter als die europäische. Das politische und militärische Machtzentrum wird im Westen bleiben.

Klimawandel und Umwelt: Offen bleibt, wie die Weltwirtschaft mit dem Klimawandel fertig wird. Die stark betroffenen Regionen werden große wirtschaftliche Probleme bekommen. Ein effizientes  Global Government in diesem Bereich ist dringend erforderlich (ob die Weltklimakonferenz Ende 2015 in Paris eine tragfähige Konzeption bringt, ist offen). Die zeitliche Streckungsmöglichkeit ist zu groß (Sanktionen, Kontrollen fehlen). Der zunehmende Anspruch der Menschen auf die natürlichen Ressourcen (fossile Brennstoffe, Mineralien, Grundwasser, erneuerbare Ressourcen wie Flüsse Ackerland) wird prägend sein.  Inwieweit Fracking auf längere Zeit Einfluss haben kann, ist ungewiss. Zumindest mittelfristig scheint damit die Führungsrolle der USA in der Welt gesichert. Die Auswirkungen Stickoxyde werden noch völlig unterschätzt.  Hinzu kommt der Klimawandel (eher durch CO2). Die Auswirkungen der Treibhausgase stehen außer Frage. Die Durchschnittstemperaturen steigen, das Wetter und die Natur spielen zunehmend verrückt.  Die Arktis wird in jeder Hinsicht bedeutsamer werden. Dort werden die Häfen der Zukunft für Rohstoffe liegen (Archangelsk in Russland und Churchill in Kanada). Vgl. Laurence C. Smith: Die Welt im Jahr 2050, Berlin 2014, S. 248ff. Die Naturkatastrophen werden zunehmen. Gletscher werden schmelzen und viele Insel werden verschwinden und Städte werden überschwemmt (z. B. Shanghai). Kriege, Hungersnöte, Krankheiten und Flüchtlinge könnten zunehmen. Gerade an der Grenze zwischen China und Russland könnte es zu ungeheuren Flüchtlingsströmen von China nach Russland kommen. Wasser wird der Rohstoff der Zukunft sein. Die Wasserkrise wird sich dramatisch zuspitzen, vor allem in Asien (alle wichtigen Flüsse entspringen in Tibet, China greift ein). Insbesondere Nord-China hat einen riesigen Bedarf. Um langfristige Änderungen zu bewirken, müssen sich Kultur und Einstellungen der Menschen wandeln: 1. Gefragt ist Effizienz, d. h. eine ergiebigere Nutzung von Material und Energie. 2. Konsistenz, d. h. naturverträgliche Technologien, welche die Ökosysteme nicht belasten. 3. Suffizienz, d. h. maßvoller Rückgang der Nachfrage nach Gütern und ihre hemmungslose Nutzung. Die Umsetzung der Beschlüsse der Weltklimakonferenz von 2015 in Paris kommen ins Stocken, weil große Emittenten nicht mehr mitmachen (USA, Brasilien, Australien). Der Preis für CO2 wird in Deutschland rapide ansteigen (bis 130 € pro Tonne bis 2030; Quelle: Potsdam Institut für Klimaforschung). Bis 2033 dürften sich Elektroautos als Technologie durchsetzen. Ob das von Dauer ist, wird stark angezweifelt. Schon 2055 könnten sie wegen ihrer Umweltschädlichkeit und fehlenden Rohstoffen verboten werden.

Leben und die Arbeit 2033: Die Dienstleistungstätigkeiten sind schwierig zu messen und zu prognostizieren, weil sie an der Industrie hängen. Die wissensbasierten Tätigkeiten werden weiter zunehmen, aber nicht unbegrenzt (von heute 21% auf 25%?). Die verwaltenden und organisatorischen Tätigkeiten werden konstant bleiben, ebenso wie die primären Dienstleistungen. Produktionsnahe Tätigkeiten werden abnehmen (von heute 21% auf 18%, Quelle: Prognos/ Vereinigung der Bayrischen Wirtschaft, Arbeitslandschaft 2035, Basel 2012). Es wird noch weniger Personen als heute ohne berufliche Bildung geben und mehr mit Hochschulabschluss. Andererseits werden aber die Kernbelegschaften der Unternehmen weiter ausgedünnt und die prekäre Beschäftigung wird in allen Staaten ansteigen. Die Löhne werden weiter auseinanderdriften ("great decoupling") und der Zwang zum Grundeinkommen wird steigen.  Die Globalisierung  schwächt die sozialen Sicherungssysteme und wandelt den Arbeitsmarkt. Der Fachkräftemangel ist schwierig einzuschätzen (Veränderung der Produktion, Branchenstruktur, Arbeitsinhalte, demographische Entwicklung). Alters- und geschlechtsspezifische Erwerbsquoten werden sich ändern (mehr Frauen und Ältere in der Arbeit). Geburtenrate, Zuwanderung und Lebenserwartung werden sich ebenfalls gewandelt haben. In den Kernbedürfnissen des Lebens wird es Umschichtungen geben: mehr Freizeit/ Kultur, mehr Gesundheit, mehr Sicherheit; Wohnen und Nahrung/ Kleidung werden sich weniger verändern. Die bezahlte Arbeit und der Arbeitsmarkt werden nicht mehr so stark unser Leben beherrschen, weil sich Werte und Einstellungen verändert haben. Die Vorstellungen und Wünsche bezüglich Wohlstand werden sich geändert haben. "Work-Life-Balance" und Lebensqualität stehen gegenüber Geld im Vordergrund. Die Menschen werden ihre Naivität im Umgang mit den neuen Medien und dem Internet abgelegt haben, weil sie dafür besser ausgebildet wurden. Biotechnik, Cyborgtechnik (Wesen, die aus organischen und nicht-organischen Teilen bestehen) und die Entwicklung von nicht-organischem Leben werden die Natur des Menschen verändern (vielleicht das Ende des Homo sapiens). Mensch und Maschine wachsen zusammen. Die Arbeitslosenquoten in vielen Ländern sind ansteigend und es gibt bisher kein Patentrezept dagegen. Die Frage ist, wo die Belastungsgrenze der jeweiligen Gesellschaft liegt. Die Industrie 4.0, die mit stark steigender Digitalisierung und Automatisierung der Wirtschaft verbunden ist, könnte dies verstärken. Körperliche Arbeit wird vollständig durch Maschinen substituiert werden. Auch geistige Routinetätigkeiten können Computer ausführen.  Die Prognose des Rückgangs der potentiellen Arbeitskräfte in Deutschland von 2013 bis 2050 um 34,3% könnte gegen wirken (aber viele Flüchtlinge). Die Gesellschaft muss konkret ein ökonomisches Problem der Altersverteilung lösen: die zahl der Rentner wird bis 2030 um 3,0 Mio. zunehmen, die Zahl der Erwerbstätigen wird um 3,8 Mio. zurückgehen. Trotzdem werden 2030 wahrscheinlich 4,9 Mio. Fachkräfte fehlen. Damit kann das Finanzierungsmodell der Gesetzlichen Rentenversicherung nicht mehr funktionieren. Quellen: Prognos, Rentenversicherung, Korn Ferry.

Politische Partizipation und Demokratie 2033:  Die Menschen werden sich einerseits mehr auf private Bedürfnisse und Interessen konzentrieren, andererseits wird das Solidaritäts- und Gemeinschaftsgefühl wieder gewachsen sein. Ohne mehr Partizipation und Volksabstimmungen wird es nicht gehen. Der demokratische Mechanismus über Wahlen und Parteien wird an Bedeutung verlieren (Anteil der Nichtwähler wird immer größer und gefährdet die Legitimation). Der typische Nichtwähler ist eher jung, der Unterschicht zugehörig, gering verdienend, bildungsschwach, unpolitisch bis gleichgültig (Studie von Bertelsmann, Bielefeld/Institut für Demoskopie, Allensbach). Die direkte Demokratie mit Volksentscheiden wird an Bedeutung zunehmen (Stuttgart 21, Wasserwirtschaft, Nichtraucherschutz, Schulreform). Die Abstimmung über den Brexit in Großbritannien zeigt aber auch die großen Nachteile und Gefahren auf (Menschen bestätigen im Internet ihre Vorurteile und Ängste, sie fallen eher auf Lügen herein). Die Menschen organisieren sich (auch mithilfe des Internet) mehr über private Netzwerke, die immer globaler sein werden. Innerhalb dieser Netzwerke werden Werte formuliert und berücksichtigt werden. In vielen Bereichen werden die Bürger alternative Formen einrichten (z. B. Parallelwährungen). Staatslenker und Firmenchefs stoßen überall auf der Welt auf aufbegehrende Bürger. Insofern werden die Mächtigen immer ohnmächtiger werden. Die Bürger haben auch zunehmenden Einfluss als Konsumenten. Indem sie sich für Produkte entscheiden, können sie mit ihrem Konsumentenverhalten Firmen beeinflussen und vielleicht die Welt verändern (z. B. Billigtextilien nicht kaufen). Wahrscheinlich wird sich die Welt in vielen Ländern Richtung Zivilkapitalismus entwickeln. Die Bürger eignen sich die Ökonomie als Gestaltungsmittel, als Instrument zur Weltverbesserung an. Leider werden Kundenzufriedenheit und Kundenreaktionen die politische Beteiligung oft ersetzen (die Internetökonomie braucht Daten).  Nationalstaaten werden immer mehr an Bedeutung verloren haben. Weltmärkte, Multis und NGO zeigen die Grenzen auf. Wachsen dürfte in Deutschland weiterhin die AfD. Klimawandel und neue Flüchtlingsströme begünstigen diese Partei. Insgesamt wird Europa als Wertegemeinschaft immer schwieriger aufrechtzuerhalten sein.

Deutschland 2033: Der Offenheitsgrad der deutschen Wirtschaft steigt weiter an (Exporte und Importe durch BIP). Dadurch sind wir der größte Profiteur der Globalisierung. Unsere Handelspartner sind breit gestreut (am wichtigsten Schweiz, Österreich, GB, Frankreich, USA, China). Es muss mehr investiert werden und das demographische Problem muss gelöst werden. Bei den Schlüsseltechnologien muss dringend aufgeholt werden gegenüber den USA. Es sind folgende: Informations- und Kommunikationstechnologie, intelligenter Verkehr und zukünftige Mobilität, Energiesysteme. Hier werden die Standards noch in den USA gesetzt. Vgl. Prognos AG: Deutschland-Report 2040. Die ökonomische Entwicklung Deutschlands wird stark von der EU abhängen. Es bleibt abzuwarten, wie sich der Brexit auswirkt. Die neue Handelspolitik von Trump ab 2018 symbolisiert den Kampf der USA mit China um die Vormachtstellung in der Welt. Davon ist Deutschland als Exportnation massiv beeinflusst

Die Regionen in Deutschland driften immer weiter auseinander. Das Berlin-Institut für Bevölkerungsentwicklung legt 2019 eine Studie vor, die die "Zukunftsfähigkeit der 401 deutschen Landkreise und kreisfreien Städte bis 2035" untersucht. 21 Indikatoren sind ausschlaggebend für die Einstufung in führend, Mittelfeld und Schlusslichter. Untersuchte Faktoren sind Kinderzahl, unter 35-jährige, durchschnittliche Lebenserwartung, Zu- / Ab- Wanderung, über 74-jährige, Bevölkerungsprognose, verfügbares Haushaltseinkommen, Bruttoinlandsprodukt, Kommunale Schilden je Einwohner, Beschäftigung, Arbeitslose und Sozialhilfeempfänger, Frauenbeschäftigung, Altersbeschäftigung, Fremdenverkehr, Arbeitsmarktchancen von Migranten, Schulabgänger, Jugendarbeitslosigkeit, Hochqualifizierte, Elterngeldbezieher, Ganztagesbetreuung, Wohnraum. An der Spitze liegen die Regionen München und Heidelberg. Führend sind auch die Regionen um Nürnberg, Stuttgart und Freiburg. Ebenso die Rheinschiene, Frankfurt, Münster, Hamburg, Potsdam. Die Wohnungsnot wird weiter massiv zunehmen. 2030 werden 1.000.000 Wohnungen fehlen, davon 300.000 in den sieben größten Städten. Es wird immer enger und teurer. Dadurch werden vor allem die oberen zehn Prozent im reicher (Gerechtigkeitsproblem).

Exogene Schocks: Als ich die vorliegende Prognose machte, konnte ich die Corona-Krise nicht vorhersagen. Sie wird noch mal vieles von dem verändern, was hier steht. Es ist auch nicht auszuschließen, dass weitere exogene Effekte (andere Viren, Kriege, Naturkatastrophen, Einschläge von Sternen usw.) dieses Bild völlig verändern. Damit sind wir bei der Achillesferse aller Prognosen. Bei 2021 geborenen Mädchen beträgt die Lebenserwartung 83,4 Jahre (bei Jungs 78,6 Jahre). Entscheidenden Einfluss dürfte die Medizin haben (Krebsbekämpfung, Vermeidung von Herz- Kreislaufversagen). Vgl. Fichtner, Ullrich: Geboren für die großen Chancen, in: Der Spiegel Nr. 52, 24.12.21, S. 12ff. 2022 (24.2.22) bricht der Ukraine-Krieg aus, der in der Folge eine weltweite Energiekrise auslöst, die wahrscheinlich zu Rezessionen führt. Die schon vorher global in Gang gekommene Inflation wird beschleunigt. Das bisherige Modell der Weltwirtschaft ändert sich: Es bilden sich zwei große Blöcke China, Russland, Iran, Nordkorea; USA, EU, Japan, Süd-Korea). Viele Länder legen sich nicht auf eine Seite fest: Indien, Brasilien, Süd-Afrika (gehören zu BRICS).

Utopien: Sie werden weniger. Es fehlen auch neue Ideen. Ki kann vieles verändern, vor allem uns die Jobs abnehmen, die sowieso keiner will. Keiner wagt, die nächsten 5000 Jahre in die Zukunft zu sehen.

Exkurs: Kai - Fu Lee/ Qiufan Chen:  KI Zehn Zukunftsvisionen 2041, Frankfurt/ New York (Campus)  2022. Die zentrale Frage ist: Wie wird künstliche Intelligenz unser Leben in zwanzig Jahren verändert haben? Dabei geht es um folgende Faktoren: Deep Learning, Konvolutionsnetze, linguistische Datenverarbeitung, Roboteranwendungen/ Gesundheit, VR, selbstfahrende Fahrzeuge, Quanten, Jobretter, Glück, Überfluss/ Singularität.

"Die Zukunft war früher auch besser", Karl Valentin.

 

Symbole der Bildung und Wissenschaft in Asien:  Hier handelt es sich um die Abbildung der Schildkröte und  des Kranichs im "Literaturtempel" (Konfuziustempel, Van Mieu-Pagode) in Hanoi/ Vietnam. Die Schildkröte steht für Gesundheit und langes Leben. Der Kranich symbolisiert Bildung, Wissenschaft und Weisheit. In der westlichen Kultur steht dafür die Eule ("Eulen nach Athen tragen"). Der Literaturtempel war die erste Universität in Vietnam. Sie wurde vor über 1000 Jahren (1070 unter Kaiser Ly Thang Tong) gegründet, als Vietnam unter chinesischer Kontrolle stand. Der Tempel wurde einem Vorbild in der Geburtsstadt von Konfuzius in Qufu nachempfunden. Die Mathematik spielte in Prüfungen schon eine große Rolle. Dabei mussten Besonderheiten der Zahlen beachtet werden (0, 4, 8, 9). Ursprünglich sollte der Literaturtempel für das schwindende Ansehen des Buddhismus in einem konfuzianischen Land stehen. Resultate der Examina sind in steinerne Stehlen auf Schildkröten gehauen (Weltkulturerbe der UNESCO).

 

Mathematik und Ökonomie (Nutzen und Anwendung; Data Science):

"Jeder, der uns mag, kriegt unser Einmaleins gelehrt", Pippi Langstrumpf.

"Durch den Einsatz von Mathematik werdet ihr mit der Wirtschaftswissenschaft dasselbe tun wie die Scholastiker mit der Philosophie. Indem ihr die Dinge immer subtiler macht, werdet ihr nicht mehr wissen, wo ihr aufhören müsst", Ignazio Radicati, Mathematiker, Italien 1752.

"Was nicht da ist, kann man nicht zählen", Altes Testament, Buch Kohelet, ca. 3. Jh. v. Chr.

Geschichte: Die Geschichte der Mathematik ist 30.000 Jahre alt. Man fand einen so alten Wolfsknochen mit jeweils fünf Zählkerben. Unsere heutige Zahlenkultur gründet im antiken Mesopotamien, wo vor über 5000 Jahren exakte Zahlen benötigt wurden, um Handel zu treiben und erfolgreich Landwirtschaft auszuüben. Zählen scheint eine Kulturtechnik zu sein, die uns nicht von Natur aus gegeben, sondern die wir mühsam lernen müssen. Andere Experten sind der Ansicht, dass der Sinn für Zahlen angeboren ist. Er bezieht sich auf natürliche Zahlen ebenso wie auf rationale Zahlen, also Brüche (Beck/ Clarke aus Kanada). Die australischen Aborigines kamen 45.000 Jahre ohne Zahlen aus. Die Größe einer Menge abschätzen können auch Schimpansen, Papageien und Bienen.  Vgl. Drösser, Christoph: Was lässt sich leichter zählen?, in: Die Zeit Nr. 24/ 9.6.22, S. 33.

Mathematik ist die Wissenschaft der Zahlen und Größen. Galilei (1564-1642) behauptete: Die Gesetze der Natur sind in der Sprache der Mathematik geschrieben". Die Wurzeln der Mathematik als Wissenschaft liegen im alten Griechenland, in Ägypten, Indien und Persien. Am wichtigsten war Indien mit der Methode, alle Zahlen mit zehn Symbolen auszudrücken (Brahmagupta verschaffte eine neue Sichtweise auf dei Null).  Über eine Italien-Connection (Fibonacci, Tartaglia, Cardano)  kamen sie dann nach Europa.   "Mathematik kennt keine Rassen oder geografischen Grenzen,; für die Mathematik ist die ganze kulturelle Welt ein einziges Land", David Hilber (1862-1943, deutscher Mathematiker). Vgl. Willers, Michael: Algebra, Kerkdriel 2022.

Grundlagen: Es geht um Modelle und ihre Quantifizierung, wobei konkrete Aspekte der ökonomischen Wirklichkeit herausgearbeitet und formal erfasst werden. In der Allgemeinen Volkswirtschaftslehre (Grundlagen) sind mathematische Funktionen, die mit der Differentialrechnung analysiert werden, und Elastizitäten am wichtigsten (die relative Mengen - Änderung zur relativen Ursachen - Änderung). Für die Durchführung von Elastizitätsrechnungen reichen die Grundlagen der Prozentrechnung aus, wichtiger ist das ökonomische Verständnis. Folgende Elastizitäten sind wichtig: direkter Preis des gleichen Gutes, indirekter Preis bzw. Kreuzpreis und Einkommen. Preiselastizitäten sind normalerweise negativ (positiv bei Snob - Effekt), Einkommenselastizitäten positiv (prozentuale Änderung der nachgefragten Menge infolge einer Erhöhung des Einkommens um ein Prozent). Neben den üblichen Preis-, Kreuzpreis und Einkommenselastizitäten gibt es noch folgende Elastizitäten: Skalenelastizität (Faktoreinsatz, Output), Kostenelastizität (Produzierte Menge, Kosten), gesamtwirtschaftliche Aufkommenselastizität ( BIP, Steueraufkommen einer bestimmten Steuerart), Importelastizität, Exportelastizität. 1518 n. Chr. verfasste Adam Ries das erste deutsche Rechenbuch. Vergleichen und Abschätzen bzw. Einschätzen  von Distanzen muss auch bei Handys jeder im Kopf machen. Vgl. Adam-Ries-Bund, Annaberg/ Sachsen.

An vielen Hochschulen sind heute Mathematik und Statistik als Modul in Curricula zusammengefasst. Ich selbst habe Lehre dazu angeboten. Leider spiegelten die Noten der Gymnasien kaum noch die realen Fähigkeiten wider.

Für die notwendigen Grundlagen der Differentialrechnung (Kurvendiskussion) ist eine gewisse Abstraktionsfähigkeit am wichtigsten. Funktionen sind in der Lage, extrem komplexe Sachverhalte auf den Punkt zu bringen und auf den Kern zu reduzieren. Gute Beispiele sind die Produktionsfunktion in der Mikroökonomik, die Konsumfunktion der Makroökonomik oder die Exportfunktion in der Außenwirtschaft. Entscheidend für die Anwendung mathematischer Methoden ist die Passgenauigkeit zum Problem. Mathematik sollte nicht in jedem Falle zur Anwendung kommen. "Die Mathematik ist schön - sie kann nichts dafür", Tomas Sedlacek: Die Ökonomie von Gut und Böse, München 2013 (Original 2009), S.360.

Finanzmathematik: Die Finanzmathematik ist eine der erfolgreichsten Zweige der Mathematik in der Ökonomie, wenn man nach der Bedeutung in der Praxis bewertet. Mithilfe der Finanzmathematik können Risiken bewertet und Kurse auf den Finanzmärkten vorausberechnet werden. So ist die Value at Risk-Formel ein sehr gutes Risikomaß und wahrscheinlich das bekannteste. Sie misst den Geldbetrag, der bei einer finanziellen Position auf dem Spiel steht (vgl. genauer dazu internationale Finanzmärkte bei Economics/special). Ein Unterbereich der Finanzmathematik, die Versicherungsmathematik, ist heute unverzichtbar. Mit der Wahrscheinlichkeitstheorie können Preise berechnet werden (Relation zwischen Auszahlungsfall/ Schaden und Einzahlung). "Die Wahrheit ist größer als die Mathematik", a. a .O., S. 366. "Keiner, der nichts von Geometrie versteht, trete hier ein!" Überschrift über dem Eingang zur Platonischen Akademie in Athen.

Exkurs: Eulersche Zahl: Sie ist der Hintergrund der 72er-Regel. Sie geht auf den Schweizer Mathematiker Leonard Euler zurück. Sie funktioniert wie folgt: Die Zahl 72 wird durch den Zinssatz oder die Rendite einer Anlage geteilt. Das Ergebnis ist die Anzahl der Jahre, die man zur Verdopplung des Ausgangsbetrages bei Wiederanlage der Erträge benötigt. Die Rechnung gilt auch für die Inflation. In der Nullzinswelt von 2020 muss man gar nicht erst mit dem Rechnen anfangen.  Null-Zinsen erleichtern immerhin die Mathematik!

Exkurs: Jim Simons (geboren 1938 bei Boston) Er war Mathematiker (promoviert) und Harvard-Dozent. Er fühlte sich unterbezahlt. Deshalb heuerte er in den 60er Jahren beim US-Geheimdienst an. Er entschlüsselte russische Geheimcodes und lernte so das Handwerk. Er wertete erstmals Börsenkurse mit Computern aus. Seine Quant-Strategie (quantitative Investoren) revolutionierte die Kapitalanlage. Er wurde zu einem der erfolgreichsten Investoren der Aktienmarktgeschichte. Er erkannte Muster am Markt. Er gründete die Firma Rentec und den Medallion Fund. Vgl. Schaaf, Stefan: Der Zahlenzauberer, in: Capital 2/2021, S. 110ff.

Gefahren: Natürlich kann die Mathematik, wie jede Methode, missbraucht werden. Zwanghafte Optimierer können mit den Formeln tricksen und spekulieren. Die größte Gefahr besteht darin, dass nicht offen über die Grenzen der Finanzmathematik informiert wird. Kreditrisiken sind eng an das Verhalten von Menschen gebunden, das nicht exakt kalkuliert werden kann. Bei Derivaten hängt die Auszahlung von nicht gehandelten Werten ab. Sie können gar nicht eindeutig bewertet werden. Folglich gibt es auch keine eindeutige Absicherungsstrategie (vgl. Frank Riedel: Die Schuld der Ökonomen. Was passiert, wenn ökonomische Modelle auf Gier treffen, Berlin/ Econ 2013, S. 69ff.). Bei den Modellen der Banken wird in der Regel freier Wettbewerb ohne Markmacht vorausgesetzt. Doch dies ist nur ein Ideal. "Der Determinismus und : Einfach ist nicht schön", a. a. O., S. 367. "Die Mathematik ist zwar eine unverzichtbare Hilfswissenschaft für den Investor, die Wertpapieranalyse kann aber niemals eine mathematische Wissenschaft sein. Die mathematische Analyse scheitert immer an unpassenden und veränderlichen Daten, an der prinzipiellen Ungewissheit der Zukunft und der Irrationalität der Märkte", Georg von Wallwitz, Odysseus und die Wiesel. Eine fröhliche Einführung in die Finanzmärkte, München 2014, S. 31..

"Mathematik ist die rationalste aller Wissenschaften. Dennoch spielt Intuition eine wichtige Rolle (Beweise werden aus Ideen und Intuition gemacht. Über ihre Intuition sprechen Mathematiker selten)", Günter Ziegler, Mathematikprofessor, FU Berlin, in: Brandeins 11/16, S. 57. Als der intuitivste Mathematiker aller Zeiten gilt der Inder Srinivasa Ramanujan (Film "Die Poesie des Unendlichen").

Konsequenzen: Aus spieltheoretischer Sicht kann man nachweisen, dass Banken nicht die Wahrheit sagen wollen. Geht man aber von einer falschen Annahme aus, passieren Dinge wie der LIBOR - Mechanismus (Libor - Sätze wurden von Banken manipuliert). Bonuszahlungen der Banken tun ihr übriges. Sie verstärken den Anreiz, die Value at Risk-Formel  zu missbrauchen, indem Risiken versteckt werden (Vgl. Riedel, a.a.O., S. 113). Vielleicht gelingt es in Zukunft besser, die Mathematik in die Theorien zu integrieren. Immerhin haben viele makroökonomischen Theorien die Finanzkrise nicht vorausgesehen, weil die Finanzmärkte gar nicht Bestandteil der Theorie waren. Exakte Vorhersagen sind aber auch dann nicht zu erwarten. Prognosen werden letztlich am Schluss immer aufgrund von Verhandlungen geschliffen. Der Faktor Mensch wirkt insofern doppelt (einmal über das Verhalten der Menschen in der Wirtschaft, zum anderen in der Rolle des Menschen als Ökonom). Mit großer Wahrscheinlichkeit waren die Maya die Erfinder der Null (schon im 1. Jahrhundert vor Christus, Symbol für Nichts). Mit der Null konnten sie ein Zahlenwerk entwickeln, dass unserem Dezimalsystem entspricht. Sie konnten so auf wenig Platz mit großen Zahlen rechnen. Sie rechneten 7000 Jahre in die Zukunft.

Mathematische Meilensteine der Neuzeit waren die Arbeiten von Bertrand Russel in Großbritannien (er hat auch stark die Logik geprägt)  und von Kurt Gödel in Österreich. Russel wollte Mathematik und Logik miteinander verschmelzen. Ein besonderes Anliegen waren ihm auch die mathematischen Beweise. Er wollte nicht nur Axiome akzeptieren. Berühmt ist sein Beweis, dass 1 + 1 = 2 ist. Gödel stellte den Unvollständigkeitssatz auf: Er besagt, dass jedes mathematische System, das auf Axiomen beruht und komplex genug ist, um von irgendeinem Nutzen zu sein, entweder unvollständig ist oder innerhalb der eigenen Voraussetzung nicht beweisbar ist. In dieser Zeit gab es noch weitere Beweisversuche. Am berühmtesten ist Schrödingers Katze (1935 von dem Physiker Ernst Schrödinger vorgetragen). In einem Gedankenexperiment wird eine Katze in einen Kasten gesperrt. Entweder ist die Katze tot oder sie lebt. Vgl. John Higgs: Alles ist relativ und anything goes, Berlin 2016, S. 125ff. Zu den Meilensteinen gehören natürlich auch die universellen Gesetze: Gesetz der großen Zahlen oder der Zentrale Grenzwertsatz. Berühmt ist auch die "Anthologia Graeca". Darunter sind auch 44 mathematische Knobelaufgaben. Die meisten werden Metrodorus zugeschrieben, der um 500 n. Chr. lebte. Eine seiner Aufgaben handelt von dem berühmten Mathematiker Diophantus, der im dritten nachchristlichen Jahrhundert in Alexandria lebte.  "Gewissheit gibt allein die Mathematik. Aber sie streift nur den Oberrock der Dinge", Wilhelm Busch, deutscher Humorist.

Exkurs: Euklid. Um 300 v. Chr. fasste er alle zu seiner Zeit bekannten Sätze zusammen und brachte sie in eine systematische Ordnung. Jeder Satz ließ sich mit Hilfe bereits vorher bewiesener Sätze beweisen. Am Anfang musste etwas Unbeweisbares stehen (Axiom).

Exkurs: Leonardo Fibonacci (1170 bis 1250). Er wurde in Pisa geboren. Er gilt als das größte Genie der Zahlentheorie. Er verfasste ein Rechenbuch (Liber Abbaci), seine berühmteste Schrift. Er stellte in Europa die neuen indischen Zahlen vor (0, 1-9). Das System war den römischen Zahlen überlegen. Eine mathematische Folge ist nach im benannt (Fibonacci-Folge, Kaninchenaufgabe). 1224 kam es zu einer Begegnung mit dem römisch-deutschen Kaiser Friedrich II. (Reichsodien in Annweiler/ Pfalz!). Er verfasste auch weitere grundlegende Werke.

Exkurs. Omar Khayyam (1048-1131): Er war ein bedeutender persischer Mathematiker und Astronom. Er kooperiert mit den Europäern. "Be happy for this moment. This moment is your life", Ders.

Exkurs. Persische Mathematik: Persische Mathematiker griffen die Erkenntnisse indischer, griechischer und arabischer  Mathematiker auf. Am berühmtesten ist Omar Chayyam. Er wurde 1048 in der persischen Stadt Nishapur geboren.  Er zog 1070 nach Samarkand (heute Usbekistan). Er schrieb das Werk "Abhandlung über Beweise für die Probleme der Algebra". 1071 wurde er von Malik Schah nach Isfahan gerufen, um dort ein Observatorium einzurichten. Später zog er in die neue Hauptstadt Merv (heute Turkmenistan). 1118 starb er. Chayyam skizzierte eine vollständige Klassifikation kubischer Gleichungen, deren Lösung er mithilfe von Kugelschnitten fand. Vgl. Willers, Michael: Algebra, Kerkdriel 2022, S. 86ff.

Exkurs: Gerolamo Cardano (1501-1576): Er war ein italienischer Universalgelehrter. 1545 erschien sein mathematisches Hauptwerk Ars Magna. Im dem gab er Methoden zur expliziten Lösung von Gleichungen dritten und vierten Grades an. Dabei rechnete er vermutlich als einer der Erstem mit komplexen Zahlen, denn er erkannte, dass die Lösung solcher Gleichungen in einigen Fällen die Quadratwurzel negativer Zahlen beinhalten musste. Seine Leidenschaft waren Glücksspiel mit Karten und Würfel (im Buch Liber de Ludo aleae schuf er Grundlagen von Wahrscheinlichkeitstheorie und Statistik). Er war auch mal bei der Inquisition inhaftiert. Vgl. Daeid/ Cole: Zahlen in 30 Sekunden, Librero 2020, S. 32f.

Exkurs: Blaise Pacal (1623 in Clermont geboren, 1662 in Paris gestorben). Am 19.6.23 wird sein 400. Geburtstag gefeiert. Er war Mathematiker und Philosoph. Manche sehen ihn als Urvater der Informatik (er entwickelte eine Rechenmaschine). Er war Wunderkind und Genie der Mathematik und Physik. Er entwickelte die Wahrscheinlichkeitsrechnung weiter. Berühmt ist Pascals Gedankenexperiment der Wette. Es soll Anstoß zum Glauben sein. Er war ein leidenschaftlicher Gott- und Wahrheitssuchender.

"Die mathematische Ökonomie wird dadurch den Status der mathematischen Wissenschaften Astronomie und Mechanik erreichen. Und an diesem Tag wird unsere Arbeit gebührend gewürdigt werden", Leon Walras (1834-1910; er präsentierte 1874 sein mathematisch formuliertes Modell der Tauschwirtschaft).  Pro

"Abgesehen von der Instabilität durch Spekulation, gibt es eine Instabilität aufgrund der menschlichen Natur, die die Eigenschaft hat, dass ein großer Teil unserer positiven Handlungen eher von spontanem Optimismus geleitet sind als von mathematischen Erwartungen", John Maynard Keynes, 1936 (Keynes hatte auch Mathematik studiert). Contra

"Wie die Physik eine Wissenschaft sei, die die Natur methodisch und mit mathematischen Mitteln analysiere, kombiniere auch die Ökonomie Mathematik, Statistik und Logik, um die sozioökonomischen Phänomene wissenschaftlich zu analysieren. Nonsens!", Yanis Varoufakis: Time For Change, Köln 2016, S. 171. (ehemals griechischer Finanzminister, Grexit; geb. 1961; "libertärer Marxist" nach eigener Aussage; lehrte an der Uni von Sydney in Australien). Contra.

Die Mathematik der Zukunft: Man kann mittlerweile Formeln gegen Hunger und fürs Klima entwickeln. Das Modell berücksichtigt Bodenbeschaffenheit, Klima, Nutzpflanzentypen. Damit kann berechnet werden, wo der Mensch in Zukunft Ackerflächen, natürliche Vegetation oder Wald betreiben will. Auch die Menge an CO2, die im Boden gespeichert wird, kann man berechnen. Vgl. Anita Bayer, Almut Arneth, Sven Lautenbach: Rechenmodell für die optimale Landwirtschaft, 2023.

 Die Mathematik entwickelt die Algorithmen, als Grundlage der KI. Algorithmus: Eine Regel oder Formel, die aus bestimmten Eingaben eine Ausgabe erzeugt, wie beispielsweise eine Vorhersage, eine Klassifizierung oder eine Wahrscheinlichkeit. Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 335.

"Klassische" Literatur: Ramsey, Frank Plumpton: Foundations: Essays in Philosophy, Logic, Mathematics and Economics, London 1931. Bertrand, Joseph Louis Francois: Theorie mathematique de la richesse social par Leon Walras... in: Journal of Savants, 1883, S. 499-508. Launhardt, Wilhelm: Mathematische Begründung der Volkswirtschaftslehre, Leipzig 1885. er wurde 1832 geboren und starb 1918. Er war auch Rektor der Technischen Hochschule Hannover. Berühmt sind auch seine Arbeiten zur industriellen Revolution (Am sausenden Webstuhl, 1900)

 

 

Statistik:  Albert Einstein, der eine skeptische Haltung zur Statistik hatte (dieser Artikel versucht auf diese Kritik einzugehen). Einstein hat mit seiner Relativitätstheorie in der Wissenschaft der Physik Vieles schon vorweggenommen (z. B. Schwarze Löcher). In der Ökonomie gibt es nichts vergleichbares, am ehesten die Werke von Karl Marx. Ich selbst habe viele Jahre die Veranstaltung "Statistik" (Deskriptive Statistik, Induktive Statistik, Wirtschafts- und Sozialstatistik) durchgeführt. Die Stunden wurden immer mehr zusammengestrichen, so dass irgendwann eine seriöse Ausrichtung nicht mehr möglich war. Weiterhin wurde die notwenige Infrastruktur (ausreichend Computerräume, Software, z. B. SPSS) nicht zur Verfügung gestellt. Das ist umso bedauerlicher, als in Zeiten von Big Data, Digitalisierung und Globalisierung eine gute Statistikausbildung wichtiger ist  denn je. Es wäre an der Zeit, die Statistik in den Curricula der Ökonomie vom Status der reinen Hilfswissenschaft zu befreien und aufzuwerten. Zusammen mit Statistical Literacy, Big Data - Kenntnissen, Datenverständnis und Digitalwissen könnte so ein Superfach entstehen. Wahrscheinlichkeit, Risikoeinschätzung sollten zur Allgemeinbildung gehören. Wieder zurück zu Einstein: Seine glücklichste Zeit hatte er nach eigener Aussage in Berlin, wo er einen Lehrstuhl für Physik an der heutigen Humboldt-Uni hatte. Er ließ während dieser Zeit zu seinem fünfzigsten Geburtstag ein Landhaus in Caputh im Havelland bauen. Dort hatte er auch ein kleines Boot. In dem Haus empfing er Gäste aus aller Welt. Einstein hatte die Deutsche, Schweizer und später die USA-Staatsangehörigkeit. 1932 blieb er bei einem Vortrag wegen der Nazis (Einstein war Jude) in den USA. Er wurde dann Professor in Princeton. Er war bei der Gründung des Staates Israel dabei (eine Stiftung in Jerusalem verwaltet heute sein Erbe und das Haus in Caputh).. Berühmt ist das Glaubensbekenntnis von Einstein.  Darin präsentiert er sich als Weltbürger mit hoher moralischer Verantwortung. Das hat er auch versucht, in der Praxis umzusetzen. In den USA hat er gegen die Atombombe gekämpft. Von Einstein gibt es viele Zitate. Meiner Ansicht nach das beste ist folgendes:

"Genieße deine Zeit, denn du lebst nur jetzt und heute. Morgen kannst du gestern nicht nachholen und später kommt früher als du denkst". Auch folgendes Zitat von Einstein ist grundlegend für die Logik der Wissenschaft und damit auch Statistik:

"Die Definition von Wahnsinn ist, immer das Gleiche zu tun und andere Ergebnisse zu erwarten".

Folgender Spruch gefällt mir als leidenschaftlicher Fahrradfahrer am besten: "Das Leben ist wie ein Fahrrad. Man muss sich vorwärtsbewegen, um das Gleichgewicht nicht zu verlieren", Albert Einstein.

"Wenn vor Jahren schon, die Zahl der Brücken veröffentlicht wurde, die in den nächsten Jahren einstürzen werden, und diese Brücken dennoch einstürzen, ist damit nichts gegen die Statistik gesagt, sondern einiges über die bedauernswerte Tatsache, dass die richtigen Zahlen nie von den richtigen Leuten zur rechten Zeit gelesen werden", Dieter Hildebrandt, Kabarettist, gestorben 2013.

Zentrale Aspekte, Grundbegriffe und Methoden der Statistik:

- Definition: Statistik als Wissenschaft ist die Disziplin des Lernens aus Daten. Dabei sollte typischerweise ein Problemlösungszyklus verwendet werden (z. B. PPDAC). Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 352.

- Was ist Statistik?: Statistik setzt sich aus zwei Dimensionen zusammen. Die eine Ebene besteht aus Daten. Die andere Ebene aus Methoden. An der Hochschule werden normalerweise nur die Methoden vermittelt. Das ist sehr missverständlich und unglücklich,  da die Methoden immer mehr an den Computer delegiert werden können. Gefragt sind heute Wissen über den richtigen und vernünftigen Einsatz der Methoden und die sinnvolle Interpretation der Ergebnisse. "Statistical Literacy"  nennt man die Allgemeinbildung zur Interpretation von Statistiken. Es ist insofern auch durchaus sinnvoll, das Verständnis für und den Umgang mit Daten zu lehren und lernen (einschließlich der Beurteilung der Qualität der Quellen). Der "richtige" Umgang mit der Datenflut aus dem Internet muss eingeübt werden, um auch Manipulationen erkennen zu können. Die Statistik an den Hochschulen ist auch heute noch zu stark rein quantitativ ausgerichtet, so dass quantitative Methoden dominieren. Für viele Gebiete der Sozialwissenschaften, insbesondere der Betriebswirtschaftslehre, sind aber qualitative Methoden sinnvoller (werden eher in der empirischen Sozialforschung, als Teilgebiet der Soziologie, behandelt). "Die Qualität eines Volkswirts erkennt man daran, ob er in der Lage ist, auch aus der falschen Statistik die richtigen Schlüsse zu ziehen", Helmut Schlesinger, ehemaliger Vizepräsident der Deutschen Bundesbank.

- Statistical Literacy: Allgemeinbildung zur Interpretation von Statistiken. Sie umfasst die Kenntnis von Quellen, die Einschätzung der Seriosität von Quellen, die Einschätzung der Qualität von Daten, die Beurteilung der Adäquanz von Daten, die Interpretation von Daten, die Analyse von Daten, Schlussfolgerungen aus Daten. Dieser Teil der Statistik ist heute der wichtigste und müsste dringend in den Statistikunterricht übernommen werden. Schon bei den Grundlagen der Mathematik müsste die Mathematik der Sicherheit (Algebra, Geometrie) durch die Mathematik der Unsicherheit mehr ergänzt werden. Informationen werden gerade im Internet oft irreführend verbreitet und das menschliche Gehirn ist zu wenig auf das Hinterfragen von Daten eingestellt. Vieles wird heute optisch durch Bilder ersetzt, wobei viele Menschen die dahinter stehenden Strukturen und Formeln nicht mehr durchschauen. Perfekter kann man nicht manipulieren. Im heutigen Meer der Daten, Fakten und Informationen kann nur der bestehen, der weiß, wie man Informationen filtern und bewerten kann. Wir müssen heute dringend wissen, wie wir mit Informationen umgehen. Dieses Wissen muss mit Handlungswissen verknüpft werden. "A certain elementary training in statistical method is becoming as necessary for everyone living in this world of today as reading and writing", H. G. Wells, World Brain 1938/1994, p. 141. Es gibt auch Nationen, bei denen man bei Besuchen nur das sehen und erfahren kann, was man soll. Dazu gehört zum Beispiel China. Ein Zugang über die Realität der Daten ist hier unabdingbar.

- Statistische Informationsinfrastruktur: In Zeiten der Digitalisierung wir die Kenntnis der Informationsinfrastruktur immer wichtiger. Viele Experten sehen sie mittlerweile eigenständig neben der Statistical Literacy (siehe oben). Die Kenntnis der Informationsanbieter, ihre Interessen, ihre Genauigkeit, ihre Methoden. Dieser Bereich ist mir schon lange ein großes Anliegen. Deshalb habe ich hier in meinem Informationssystem eine spezielle Seite entwickelt, die nach Gebieten gegliedert, Informationsinfrastruktur anbietet.

- Geschichte der Statistik:  Statistiken gab es in allen organisierten Staatswesen seit alters her (in China, im Zweistromland u. a.), in der Regel im Zusammenhang mit Ernte und Bevölkerung. Insofern ist Statistik immer Bestandteil von Geschichte (z. B. Geburt Christi und Volkszählung der Römer in der Bibel). Die erste Volkszählung in China wurde 2 n. Chr. durchgeführt. Zu der Zeit wurden auch erste Kataster angelegt. Die Zahlenwerke blieben aber ungenau, uneinheitlich und lückenhaft (das gilt teilweise  auch heute noch für Daten aus China). Erst der Ire Sir Robert Hart, der jahrzehntelang das Zollamt der Qing - Dynastie leitete, führte im 19. Jh. moderne Statistiken in China ein. Conring baute schon 1675 eine Universitätsstatistik in Deutschland auf. William Petty zeigt 1682 in GB, wie die Wirtschaftsleistung gemessen werden kann.  Berühmt wurde auch der Deutsche Ernst Engel, der einen Zusammenhang zwischen Konsum und Einkommen analysierte ("Je ärmer eine Familie ist, ein desto größerer Anteil von der Gesamtausgabe muss zur Beschaffung der Nahung aufgewendet werden", 1857; Engelsches Gesetz). Er baute das erste deutsche Statistische Büro in Berlin auf. Der Belgier Adolphe Qetelet (1796-1874) hatte schon 1830 damit begonnen, die Gesellschaft mathematisch und statistisch zu erfassen ("Gesetz der großen Zahl", Anwendung der Gauß - schen Glockenkurve auf dei Bevölkerungsstatistik). Er gilt als Pionier der modernen Statistik. Er erfand auch den "Durchschnittsmenschen". Georg von Mayr, ein bayrischer Statistiker, leitete 1872 vor dem statistischen Kongress in Petersburg eine Revolte innerhalb des Faches an: Er sprach von kleinstmöglichen natürlichen Einheiten, die Quetelets Durchschnitte ersetzen sollten. Er konnte so die Kindersterblichkeit in Süddeutschland besser vorhersagen. Mayr arbeitet auch über Kriminalitätsstatistik ((Rassen - Verfehlichkeit, anhand von Schwarzen in USA und Juden in Deutschland). Vgl. Fische, Tin: Otto Normal war sein Ideal, in: Die Zeit 3/ 11.1.24, S. 15.

- Geschichte der Zahlen: Unsere heutige Zahlenkultur gründet im antiken Mesopotamien, wo vor über 5000 Jahren exakte Zahlen benötigt wurden, um Handel zu treiben und erfolgreich Landwirtschaft auszuüben. Zählen scheint eine Kulturtechnik zu sein, die uns nicht von Natur aus gegeben, sondern die wir mühsam lernen müssen. Andere Experten sind der Ansicht, dass der Sinn für Zahlen angeboren ist. Er bezieht sich auf natürliche Zahlen ebenso wie auf rationale Zahlen, also Brüche (Beck/ Clarke aus Kanada). Die australischen Aborigines kamen 45.000 Jahre ohne Zahlen aus. Die Größe einer Menge abschätzen können auch Schimpansen, Papageien und Bienen.  Vgl. Drösser, Christoph: Was lässt sich leichter zählen?, in: Die Zeit Nr. 24/ 9.6.22, S. 33.

- Zahlen verstehen. Größenordnungen: Zahlen hängen in ihren ihren Dimensionen mit der jeweiligen Zeit zusammen. In vorindustriellen Gesellschaften unterschied sich das langsamste Fortbewegungsmittel vom schnellsten durch den Faktor 2: Fußgänger 4 km/h, Kutsche 8 hm/h. Beim Auto, beim Flugzeug oder bei der Rakete müssen wir uns an Zehnerpotenzen gewöhnen. Wer die moderne Welt verstehen will, tut gut daran, sich an den Umgang mit Zehnerpotenzen zu gewöhnen. Vgl. Vaclav Smil: Wie die Welt wirklich funktioniert, München 2023, S. 317ff.

- Träger der Wirtschaftsstatistik: In Deutschland vor allem die Amtliche Statistik. Der Aufbau in Deutschland, Gesetzgebungsprozesse und Institutionen sind gut dargestellt in Natrop, Johannes: Angewandte Deskriptive Statistik, Berlin, München, Boston 2015, S. 20ff. Immer wichtiger werden Institutionen, die die Sicherheit der Daten gewährleisten. In Darmstadt ist das deutsche Leistungszentrum für Sicherheit und Datenschutz in der Digitalen Welt (zusammen mit zwei Fraunhofer Instituten und verbunden mit dem Center for Research in Security and Privacy). 

- Intuitive Statistiker: Sind Menschen gute intuitive Statistiker? Haben sie ein Gespür für grundlegende Prinzipien der Statistik. Wichtig ist das intuitive Gespür für die Zuverlässigkeit statistischer Ergebnisse bei kleinen Stichproben. Man schenkt allzu bereitwillig Forschungsergebnissen Glauben, die auf unzureichender Datengrundlage basieren. Gute Statistiker müssen keinen guten intuitiven Statistiker sein. Vgl. Daniel Kahneman: Schnelles Denken, Langsames Denken, München 2012, S. 15ff. Menschen unterliegen einer Illusion der Gültigkeit. Sie werden oft Opfer einer Selbstüberschätzung (ebenda, S. 247ff.). "Die Welt ist voll von offensichtlichen Tatsachen, die niemand jemals bemerkt", Arthur Conan Doyle, Der Hund von Baskerville.

"Multipliziert man ein Problem mit der Bevölkerungszahl Chinas, ist es ein sehr großes Problem. Aber wenn man es durch dei Bevölkerung Chinas teilt, wird es sehr klein", Wen Jiabao, chinesischer Ministerpräsident 2003 (in Harvard).

- Theorien und Hypothesen: Man braucht immer eine gut Theorie. Sie soll Phänomene beschreiben und erklären. Sie muss logisch konsistent sein, informativ, sie sollte sich bewährt haben. Die Bausteine der Theorie sind Hypothesen. Es ist eine Behauptung über die Beziehung zwischen Merkmalen.

- Datenerhebungsmethoden: Vgl. den längeren Aufsatz über die empirischen  Erhebungsmethoden (Stichprobe: Abschlussarbeiten, Master, Bachelor). Im Mittelpunkt steht normalerweise das Interview, wobei qualitative Interviews an Bedeutung gewinnen. Beobachtung (teilnehmend und nicht- teilnehmend)  und Inhaltsanalyse werden unterschätzt. Die Inhaltsanalyse von Ergebnissen anderer empirischer Studien ist sehr wichtig (Sekundärstatistik). Das Experiment wird zu wenig genutzt. Teilnehmende Beobachtung wird zu wenig beachtet. Hierunter können z. B. Aufenthalte im Ausland (im OAI 1 Jahr) subsumiert werden. Datenerhebungsmethoden müssen im Statistikunterricht viel stärker gewichtet werden. Spätestens beim Schreiben der Thesis arbeiten die Studenten normalerweise empirisch.

-Eyeballing (Pi mal Daumen): Grobe Einschätzung, wenn genaue Methoden nicht einsetzbar sind. Kommt da zum Einsatz, wenn es um die Zukunft geht, die eher dem Orakel von Delphi ähnelt (Deshalb manchmal Delphi-Methode genannt). In der Marktforschung gibt es eine ähnliche Vorgehensweise, die man "quick and dirty" nennt. Es geht um ganz einfache Verfahren, die Zeit und Geld sparen. Deshalb findet man sie häufiger bei KMU.  Sehr einflussreich ist folgende Studie: Carl Benedikt Frey/ Michael Osborne, Oxford: The Future of Employment (Ursprünglich und heute noch im Internet). Danach sollen etwa die Hälft der Arbeitsplätze von 2013 bis 2030 wegfallen. Die Studie umfasst 72 Seiten und wurde als Thesenpapier veröffentlicht. Es wird eine Liste von 702 Berufen in den USA aufgestellt. Dann wird gesagt, welche Berufe gefährdet sind. Die Methode ist "eyeballing" (Pi mal Daumen). Diese Studie hat sich verselbständigt, weil ein Mangel an Alternativen vorliegt.

- Skalierung (Messen):

Qualitative Merkmale: Nominal skalierte Merkmale (lediglich Unterschiedlichkeit (Geschlecht, Wohnort). Ordinal- oder rangskalierte Merkmale, die eine Reihenfolge der Merkmalswerte darstellen (z. B. Schulnoten).

Quantitative oder kardinal bzw. metrisch skalierte Merkmale. Intervallskalierte Merkmale, mit denen nur ein Abstand ausgedrückt werden kann (Temperaturen). Verhältnisskalierte Merkmale, die auch ein Verhältnis zweier Merkmalswerte darstellen können (Körpergröße).

Die Auswertungsmethoden der Statistik hängen ganz entscheidend von der Skalierung ab.

- Sekundärstatistik: Bereits vorliegende Daten werden ausgewertet. Die VGR sind weitgehend eine Sekundärstatistik. Das Gegenteil ist die Primärstatistik, bei der die Daten speziell erhoben werden. Mit welchen Quellen man arbeitet, hängt ganz entscheidend von Zeit und Geld ab. Natürlich kann allein schon der Hang zu kostenlosen sofort verfügbaren Zahlen selektiv wirken. Immer mehr Probleme bereiten Regierung und Behörden beim Zugang zu wichtigen empirischen Daten. Oft mischen sich 16 Datenschutzbeauftragen ein. Wünschenswert wären einheitliche Regeln. Vgl. Regina Riphahn in WiWo 17/ 21.4.17, S. 40. 

- Verhältniszahl: Dazu gehören die Gliederungszahl (Zähler kommt noch mal im Nenner vor; Arbeitslosenquote), die Beziehungszahl (Quotient aus zwei sachlich unterschiedlichen Zahlen; Bevölkerungsdichte) und die Messzahl (Quotient zweier gleichartiger statistischer Bestandszahlen; in der Regel zeitbezogen; einfache bis Gruppenmesszahl/ Index). Verhältniszahlen sind in Volks- und Betriebswirtschaftslehre sehr wichtig. Die meisten Kennzahlen der BWL, etwa in der Finanzierung,  sind Beziehungszahlen.

- Preisindex:  Der Preisindex ist eine Verhältniszahl, spezieller eine Messzahl. Ein Index kann mehrdimensionale Sachverhalte auf eine Ebene reduzieren. Weltweit hat sich als Preisindex der Index von Laspeyres (portugiesischer Abstammung, lehrte zuletzt als Professor in Deutschland) durchgesetzt. Er arbeitet mit dem Warenkorb (q0) der Vergangenheit. Somit beantwortet er die Frage, was würde der Warenkorb der Vergangenheit heute kosten. Außerdem gibt es noch den Preisindex von Page (aktueller Warenkorb) und den Wertindex. Praktische Probleme des Preisindex sind der Normalhaushalt (4 Personen; real nur 1,4 Kinder), die Einbeziehung von Qualitätsverbesserungen, die Verzerrung durch Dominanzfaktoren (Öl, Mieten),  die Volatilität von Preisen, die Repräsentativität des Warenkorbs u. a.

Große Probleme bereitet bei der Berechnung der Teuerungsrate mittlerweile der digitale Handel. Die Preise fahren Achterbahn. Die Verwirrung hat System. Bekannt geworden sind die starken Preisschwankungen beim Benzin an der Tankstelle. Hier ändern sich innerhalb von Stunden vielmals am Tag die Preise. Ständige Preisschwankungen verunsichern die Konsumenten. Der Trend könnte zur Individualisierung gehen.

- Mittelwerte: Es gibt zahlreiche verschiedene Mittelwerte. Die statistische Kunst besteht darin, den richtigen Mittelwert auf die passende Problemstellung anzuwenden. In der VWL ist der geometrische Mittelwert etwa für Wachstumsfragen sehr wuchtig. Besonders über die Verwertung und Manipulationsmöglichkeiten von arithmetischem Mittel und Median sollte man Bescheid wissen.

- Verteilungsmaße: Gini-Koeffizienten (Alternativen: Herfindahl, relative und absolute Konzentration, Anteile am Medianeinkommen, Mittelwerte, Lorenzkurve, Pro-Kopf-Einkommen u. a.). Der Wert eins bei Gini definiert totale Ungleichheit (einer hat alles und alle anderen nichts). Bei null besteht völlige Gleichheit. Graphisch kann dies an der Lorenz-Kurve dargestellt werden. Der Gini-Koeffizient ist nach einem italienischen Statistiker benannt und berechnet mathematisch die Fläche zwischen Diagonale und den Seiten in einem Rechteck. Über die mathematischen Methoden und deren Vor- und Nachteile herrscht Klarheit. Das Problem sind die zugrunde liegenden amtlichen Statistiken. Sie sind verzerrt, mit Lücken behaftet und veraltet. Auch die Zuordnung statistischer Daten zu der Formel ist umstritten. Der Herfindahl-Index berechnet sich aus der Summe der quadrierten Marktanteile, z. B. der Anbieter (erliegt zwischen 1 und 1/n). Je größer der Wert ist, desto größer ist die gemessene Konzentration. Die Lorenzkurve ist die graphische Darstellung zur Konzentrationsmessung. Sie dient u. a. zur Veranschaulichung der personellen Einkommensverteilung in einer Volkswirtschaft. Hierzu werden auf der Abzisse die Haushalte in kumulierter Form in Prozent aufgetragen, während an der Ordinate eine Darstellung der kumulierten Einkommen in Prozent erfolgt.

- Einkommens- und Verbrauchsstichprobe (EVS): Sie liefert repräsentative Informationen über Einkommen, Vermögen, Schulden und die Konsumausgaben in Deutschland. Die Teilnehmer führen drei Monate ein Haushaltsbuch ("Feinaufzeichnungsheft"), in das sie sämtliche Ein- und Ausgaben eintragen. Die Teilnahme ist freiwillig und wird honoriert. Normalerweise nehmen etwa 10.000 Haushalte teil. Die Befragung ist alle fünf Jahre, zuletzt 2013 und 2008. die nächste Befragung ist 2018 wieder. die Auswertung erfolgt mittlerweile in der Zweigstelle des StBA in Bonn.  Die allererste EVS war 1962. Das Konzept kann immer nur eine annäherung sein. Die Konsumgewohnheiten werden immer verschiedener. Die EVS ist Grundlage für den Warenkorb im Preisindex für die Lebenshaltung. Dieser Preisindex wird nach dem statistischen Verfahren von Laspeyres errechnet (Warenkorb der Vergangenheit). In den letzten Jahren wurde der Verbraucherpreisindex stark vom Ölpreis dominiert. 2013 zeigt sich, dass es erstmals mehr Handys als Festanschlüsse gibt (93% der 40 Mio. privaten Haushalte haben mindestens ein Handy).

- Sozio-oekonomische Panel (SOEP): Ist die ergiebigste Datenquelle zur sozialen und ökonomischen Lage deutscher Haushalte. Es handelt sich um ein Umfrage - Panel (Längsschnittstudie). In der Stichprobe sind 11.000 Haushalte mit mehr als 240 Fragen. Es ist die älteste (seit 1984) und größte (30.000 Befragte) Haushaltsumfrage in Deutschland. Die Daten können von allen Wissenschaftlern genutzt werden (Datenweitergabevertrag, Schulung). 2016 werden auch die Flüchtlinge einbezogen (zusammen mit IAB und BAMF). Die Migranten - Daten sollen ausgeweitet werden. Im SOEP gibt es auch Fragen zur Gerechtigkeit. 2016 glauben 65% im Vergleich zu anderen einen gerechten Anteil zu erhalten. 20% (2014) glauben, dass die Gewinne in Deutschland im Großen und Ganzen gerecht verteilt werden.

- Ökonomische Rankings: Verfahren für eine Rangfolge. Sie sind allgegenwärtig und eines der Hauptanwendungsgebiete der Statistik. Viele Produzenten von Statistiken haben darauf ihr Geschäftsmodell gegründet. Rankings haben zahlreiche Fallstricke: unpassende Bezugs- oder Vergleichsgröße, keine Sorgfalt auf den Nenner, Schwierigkeiten nur im Kleingedruckten, nur als Grundlage für politische Forderung. Eng verwandt mit dem Ranking ist das Rating. Es ist ein Verfahren zur Beurteilung nach hierarchischen Bewertungsklassen. Bekannt ist z. B. AAA bei Kreditwürdigkeit. Nicht verwechseln sollte man diese Verfahren mit Screening und Scoring. Screening ist ein standardisiertes, manchmal automatisiertes Auswahlverfahren. Scoring ist eine Methode, um aus vorliegenden Daten über eine Person künftiges Verhalten vorherzusagen.

- Zufall: Vieles ist Zufall, aber nicht alle Zufälle sind bloße Zufälle. Bloße Zufälle sind unerwartete Ereignisse, die man einfach nicht hat kommen sehen. Aber wir können aus diesen Zufällen durch eigenes Handeln etwas Gutes machen.  Der Zufall spielt eine riesige Rolle im Leben. Vgl. Busch, Christian: Erfolgsfaktor Zufall, Murmann 2023.

- Wahrscheinlichkeitsverteilungen: Eine Wahrscheinlichkeitsverteilung gibt an, mit welcher Wahrscheinlichkeit ein Ereignis eintritt. Zu den diskreten Verteilungen gehören die Binomialverteilung (zwei mögliche Ergebnisse) und die Poisson-Verteilung. Zu den stetigen Verteilungen gehören die Normalverteilung , die Student-Verteilung (t-Verteilung) die Chi-Quadratverteilung und die stetige Gleichverteilung.

- Normalverteilung: Es handelt sich um ein Zufallsmuster. Wahrscheinlichkeitsverteilung in Glockenform. Ein gutes Modell für häufige Beobachtungen in der realen Welt. Die Wahrscheinlichkeit, einen bestimmten Datenwert zu erhalten, ist in der Nähe des Mittelwertes am größten und fällt dann rasch ab. Wie schnell, hängt von der Standardabweichung ab. "Es ist unmöglich, dass das Unwahrscheinlichste nie geschieht", Emil Gumbel, Statistiker, 1891-1966).

- Stichproben: Sie werden aus Grundgesamtheiten (N) gezogen, wenn diese zur Verfügung stehen. Mit Hilfe der induktiven Statistik kann dann die Qualität der Stichprobendaten eingeschätzt werden (Repräsentativität). Grundgesamtheiten sind aber selten vorhanden, so dass keine Zufallsauswahl gezogen werden kann. Zufallsauswahlen sind die Grundvoraussetzung, um multi - variate Auswertungsverfahren einsetzen zu können. Bei genügend großem n (Größe der Stichprobe) wird darüber hinweggesehen. In der Marktforschung dominieren praktische Stichprobenlösungen ("quick and dirty"), die schnell und billig umzusetzen sind. Dazu gehören die Auswahl "Aufs Geratewohl", die Klumpenstichprobe oder geschichtete Auswahlverfahren. Bei der Interpretation der Stichprobe gibt es immer große Manipulationsmöglichkeiten. 2021 wird die Puls-Studie mit 1024 Befragten missinterpretiert. Man (FAS) leitet daraus die These ab, dass die Sympathisanten der Grünen am liebsten SUV fahren. Abgesehen von der Definition von Sympathisanten zeigt sich, dass der Anteil an SUV - Fahrern bei allen allen gleich ist. Man greift aber nur die 16% der Grünen heraus.  Die Zahlen geben also die Interpretation nicht her.

- Signifikanztests: Sie untersuchen, ob eine ökonomische Größe einen signifikanten Einfluss auf eine andere hat.  Statistische Signifikanz hilft uns zu quantifizieren, ob ein Ergebnis eher zufällig zustande gekommen ist oder von einem bestimmten Faktor beeinflusst wurde. Signifikanztests  sind größtenteils unsinnig, da die notwenigen Bedingungen selten erfüllt sind (vor allem hinsichtlich der Stichprobenqualität). Der Größe des Einflusses wird allein aus der Zahl ablesen, ohne den Bezug zur Umwelt ausreichend zu berücksichtigen.  Bei der Anwendung müssen zumindest die Ergebnisse immer ausreichend relativiert werden. Saubere Daten und eine sorgfältige Verarbeitung sind sehr viel wichtiger als statistische Signifikanz. Vgl. auch: Amy Gallo: Was war noch mal ...statistische Signifikanz?, in: Harvard Business Manager, Juli 2017, S. 102f. Der p-Wert bezeichnet auch nur die Wahrscheinlichkeit dafür, dass ein statistisch gefundenes Ereignis auch ohne den vermuteten Effekt durch Zufall zu Stande gekommen ist. Er sagt nichts über die Größe des Effekts aus und ist auch kein Maß für die Wahrscheinlichkeit eines falsch-positiven Befunds. Vgl. Regina Nuzzo: Fehlerschätzung. Der Fluch des p-Werts, in: Spektrum Spezial 3/17, S. 32ff.

- Nutzen von weniger repräsentativen Stichproben: Die künstliche Intelligenz kann dabei helfen. Ein neuer Algorithmus soll bei der Lösung des zentralen Problems unterstützen. Ergebnisse einer örtlich begrenzten Umfrage sollen auf andere Regionen angewendet werden können. Vgl. Kim, Michael P./ Kern, Christoph/ Goldwasser, Shavi/ Kreuter, Frauke/ Reingold, Omar: Universal adaptability: Target-Independent inference that competes with propensity scoring, PNAS, January 2022.

- Wahrscheinlichkeit: Die Wahrscheinlichkeitstheorie liefert die formale Sprache und die mathematischen Werkzeuge für die Behandlung von Zufallsphänomenen. Ein Denken in Wahrscheinlichkeiten bietet sich dort an, wo keine expliziten Zufallsmechanismen im Spiel sind. Einen Verständigungszugang bietet die Vorstellung von erwarteten Häufigkeiten. Viele gesellschaftlichen Phänomene zeigen in ihrem allgemeinen Verhalten bemerkenswerte Regelmäßigkeiten, obgleich die einzelnen Ereignisse vollkommen unvorhersagbar sind.  Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 203. Der Wahrscheinlichkeitsbegriff wurde oft umdefiniert. Als revolutionär gilt das Konzept der subjektiven Wahrscheinlichkeit von Frank P.Ramsey. Es geriet in Vergessenheit. Später wurde es von Keynes ("ungewisses Wissen") und Wittgenstein weiterentwickelt. Sie setzte sich durch mit John von Neumann und Morgenstern. Sie wurde dann vervollkommnet von dem Mathematiker Savage. Kern ist die Theorie, dass der Entscheider die Wahrscheinlichkeit eines jeden relevanten Ereignisses kennt.

- Risiko und Wahrscheinlichkeit: Risiken werden in den Medien oft falsch dargestellt. Das hängt damit zusammen, dass sich relative Risiken leicht überzeichnen lassen und damit auch verkaufen. Unscheinbare Effekte können so hervorragend aufgebauscht werden (Hai-Angriffe, Diabetesrisiko u. a.). Mit relativen Risiken lassen sich leicht große Ängste erzeugen. Die absolute Risikogefahr ist meist sehr gering. Ähnlich kann mit der Wahrscheinlichkeit leicht manipuliert werden. Tückisch ist die bedingte Wahrscheinlichkeit. Hier ist immer eine Zusatzinformation erforderlich. "Einer der großen Vorteile der Wahrscheinlichkeitsrechnung ist der, das man lernt, dem ersten Anschein zu misstrauen", Pierre Simon de Laplace (1745 - 1827), Philosophischer Versuch über die Wahrscheinlichkeit. Vgl. zu diesem Thema auch: Bauer/ Gigerenzer/ Krämer: Warum Dick nicht Doof macht und Genmais nicht tötet, München 2016.

- Trade-offs bezüglich Zeit und Risiko: Die meisten Entscheidungen haben Nutzen und Kosten, die sich zu unterschiedlichen Zeitpunkten materialisieren. Um zu optimieren, müssen Wirtschaftssubjekte alle Nutzen und Kosten auf einen einzigen Zeitpunkt beziehen., damit sie verglichen werden können. Risiko bedeutet, dass einige der Nutzen und Kosten nicht im Voraus festgelegt werden können. Es gibt dann noch die Verlustversion: Die Eigenschaft, dass Menschen einen Verlust psychologisch viel stärker gewichten als einen Gewinn. S. Acemoglu, Daron: Volkswirtschaftslehre, München 2020, S. 15.

- Formel von Thomas Bayes (bedingte Wahrscheinlichkeit): P(B/C)= P(C/B)P(B) geteilt durch P(C). Nach Bayes sind Wahrscheinlichkeiten zu interpretieren als Ausdruck unseres begrenzten Wissens. Bayes war ein englischer Pfarrer. Er verteidigte auch mit großem Sachverstand Newtons Differentialrechnung. Er ruht in der Familiengruft der Bayes in Bunhill Fields. Die Grabstätte wurde 1968 mit Spenden von Statistikern aus aller Welt restauriert. Vgl. Dressler, M.: Thomas Bayes und die Tücken der Statistik, in: Spektrum Spezial 3/17, S. 74ff. 

Exkurs: Thomas Bayes. Er wurde 1702 in London geboren als Sohn eines Pfarrers. Er starb 1761 in Tunbridge Wells/ Kent/ GB. Bayes studierte Theologie und Logik. Dabei traf er Abraham de Moivre (1667-1754, Wahrscheinlichkeitstheorie, Movre`scher Satz) und David Hume, von deren Denken er beeinflusst wurde. Bayes wurde Pfarrer in Tunbridge Wells. Seine heutige Bekanntheit verdankt er der posthumen Veröffentlichung  über die bedingte Wahrscheinlichkeit (An Essay Towards Solving a Problem in the Coctrine of Chances, 1763. Er ruht auf dem Friedhof Bunhill Fields in London, in dessen Nähe passenderweise die Royal Statistical Society ihren Sitz hat. Vgl. Daeid, N./ Cole, C.: Zahlen in 30 Sekunden, Librero 2020, S. 92f.

- Wahrscheinlichkeitsrechung und Schlüsse: Es gibt bei einer Folge von Würfeln eines Würfels keine Tendenz zum Ausgleich eines Ungleichgewichts (der Würfel hat kein Gedächtnis). Gleichwohl strebt die relative Häufigkeit für jede einzelne Augenzahl gegen 1/6 (im Grenzwert unendlich vieler Würfe, Gesetz der großen Zahlen). In diesem Grenzwert ist die "Wahrscheinlichkeit 1" etwas anders als die Sicherheit. Der statistische Mittelwert ist keineswegs der häufigsten vorkommende. Vgl. Ian Stewart: Gesetz der großen Zahlen. Irrfahrt zum mittelwert, in: Spektrum Spezial 3/17, S. 6ff.

- Bauchgefühl, nützliches Halbwissen, Null-Risiko: Risikoforscher Gerd  Gigerenzer (Harding-Zentrum für Risikokompetenz) arbeitet mit diesen Begriffen: Ein Risiko muss man überall eingehen (Herzinfarkt, Schlaganfall tödlicher als Covid-19). Menschen fürchten sich immer vor neuen Gefahren. Manchmal bringt das Bauchgefühl mehr als rein rationale Analyse. Ein nützliches Halbwissen kann dann helfen, wenn man mit Statistiken zugeschüttet wird (besser zu verstehen als zu fürchten).

- Korrelation und Kausalität: Korrelation (Zusammenhang) und Kausalität (Ursache - Wirkung) werden oft verwechselt. Ersteres bezieht sich auf die Gemeinsamkeit von Merkmalen. Das Zweite ist eine Kausalität. Das berühmteste Beispiel ist der Zusammenhang von Störchen und Geburten. Wo viele Storchenneste sind, gibt es auch viele Geburten. Man bezeichnet diesen Zusammenhang als Scheinkorrelation. Die intervenierenden Variablen ländliche Region und katholische Religion müssen zusätzlich in Betracht gezogen werden (vergessene Variablen). Bei der Wahl des Korrelationskoeffizienten ist das Skalenniveau der variablen entscheidend (Kreuztabelle bei nominalen, Rangkorrelation bei Ordinalen/ Spearman, Person-Bravais bei Intervall).

Exkurs Egon Sharpe Pearson: Mathematiker und Biostatistiker (1895-1980). Er wurde in Hamstead bei London geboren und starb in Midhurst, England. Er lehrte am University College in London Zusammen mit Jerzy Neyman entwickelte er eine grundlegende Theorie des Hypothesentestens (Neysman-Pearson-Lemma). Er trug auch zur Verbesserung des Likelihood-Quotienten für statische Schlussfolgerungen bei. Er entwickelte auch die Statistik der industriellen Standardisierung und Qualitätssicherung weiter. Vgl. Daeid/ Cole: Zahlen in 30 Sekunden, Librero 2020, S. 69.

Exkurs Card-Krueger-Experiment: Neue Methoden der Ökonometrie gewinnen an Boden. Die berühmte Ceteris-Paribus-Klausel, die ökonomische Wirkungszusammenhänge nur unzulänglich aufzeigen kann wird immer mehr durch natürliche Experimente ersetzt. Dabei werden Statistiken aus der realen Wirtschaft durchforstet. Berühmt ist das Experiment , das Wechselwirkungen zwischen Mindestlöhnen und Beschäftigung untersucht. Forscher entdeckten zwei aneinander grenzende Bezirke an der US-Ostküste, in denen wirtschaftlich fast alles gleich war (New Jersey, Pennsylvania). In einer Region war der Mindestlohn, in der anderen nicht. Die Erhöhung des Mindestlohns beeinflusste die Beschäftigungslage so gut wie nicht. Man spricht vom Card-Krueger Experiment. Card erhielt dafür den Wirtschaftsnobelpreis 2021 (Krueger ist tot). Vgl. Fischermann, Thomas: Nobelpreis, in: Die Zeit Nr. 42, 14.1021, S. 25.

- Bedeutung eines Bezugssystems: Ursprung ist die Relativitätstheorie von Albert Einstein. Jede Kultur hatte ihr Omphalos, etwas wie der Mittelpunkt der jeweiligen Welt (Nabel der Welt, Axis Mundi, Säule der Erde). Es war ein universelles Symbol, das aber an unterschiedlichen Orten lag (Black Hills bei den Sioux in Nordamerika, Fujiyama in Japan, Delphi in der Antike, Royal Observatory in Greenwich im Britischen Empire). Einstein stellt in seinem 1916 erschienen Buch "Über die spezielle und allgemeine Relativitätstheorie" fest, dass kein Bezugssystem mehr Geltung beanspruchen kann als ein anders. Wichtig sei, dass ein Bezugssystem definiert wird. Eine Positionsangabe gibt immer erst Sinn, wenn ein Bezugssystem definiert ist. Was beobachtet wird, hängt sonst  zum Teil vom Beobachter ab. Jeder Omphalos ist vollkommen willkürlich. Vgl. John Higgs: Alles ist relativ und anything goes, Berlin 2016

- Falsche Korrelationen: Was ist Zufall und was nicht? Immer wieder wird Korrelation mit Kausalität verwechselt. Je stärker Unternehmen auf Daten setzen, desto teurer wird dieser Fehler. Am besten dagegen hilft eine Kultur, die Experimente wertschätzt.  Typische Fehler sind: 1. Unterschiedliche Variablen vergleichen (Äpfel und Birnen, Scheinkorrelation!). 2. Die Skalierung verändern, um Kurven anzugleichen (Manipulierter Maßstab). 3. Ursache und Wirkung suggerieren (Wenn-dann-Illusion). Vgl. Luca, Michael: Was ist Zufall und was nicht? in: HBM März/ 2022, S. 56ff. Luca, M./ Bazerman, M. H.: The Power of Experiments. Decision Making in a Data-Driven World, MIT Press 2021.

- Daten und Informationen (Data Science): Um richtig und zum richtigen Zeitpunkt entscheiden zu können, brauchen Manager Informationen. Da inzwischen extrem viele Daten gesammelt werden, ist eine Strategie für das Datenmanagement erforderlich. Daten müssen gesammelt, empfangen, geprüft werden. Dann erst kann angemessen gehandelt werden. Wichtig ist Enterprise Data Management (EDM), die Datenschutzgrundverordnung (DSGVO) und strukturierte Daten. Es sind immer sieben Schritte erforderlich: 1. Identifizieren. 2. Sammeln. 3. Ermitteln. 4. Bewerten. 5. Wählen. 6. Handels. 7. Prüfen. Vgl. Management einfach erklärt, München 2021, S. 98ff.

- Unterschied zwischen Information und Daten: Information sind Daten, die so miteinander in Zusammenhang gebracht werden, dass sie einen Nutzwert haben. Information ist ein Unterschied, der einen Unterschied macht. Vgl. Czeschik, Christina: Digitalisierung für dummies, Weinheim 2022, S. 251.

- Datenanalyse in der Digitalisierung: Hier ist ein neues Betätigungsfeld der Statistik. In digitalisierten Unternehmen und anderen Organisationen schafft die Datenanalyse zusätzliches Wachstum. Daten sind der Rohstoff der Zukunft in der Wissensgesellschaft. Geschäfte werden  datengetrieben ablaufen (Programmic Advertising). Die Wettbewerbsvorteile der Unternehmen ergeben sich in einem besseren Verständnis der Märkte. Kürzere Produktzyklen, hohe Bedarfsschwankungen und eine verstärkt individualisierte Produktion erfordern eine engere Anbindung der Unternehmen an Lieferanten und Abnehmer.

- Intelligente Datenanalyse in der Praxis: In allen Bereichen greifen Big-Data-Analysen um sich. Das gilt für die Medizin, fürs Finanzamt, für die Marketing-Abteilung der Unternehmen und viele andere. Big Data besteht aus vier wichtigen Elementen: 1. Datenmenge (Anzahl von Datensätzen und Files). 2. Datenvielfalt (Variety, Fremddaten, Firmendaten, unstrukturierte Daten). 3. Datengenerierung in hoher Geschwindigkeit (Velocity, Übertragung  der konstant erzeugten Daten in Echtzeit). 4. Erkennen von Zusammenhängen (Analytics, Bedeutung, Muster, Data Mining, Text Mining). Es tauchen dabei auch eine Reihe von Herausforderungen auf: 1. Total Cost of Ownership. 2. Datenverluste. 3. IT - Sicherheit. 4. Transparenz. 5. Dateninterpretation und Validierung. 6. Entscheidungsbasis. Die Statistik ist in der Digitalisierung  von einer Hilfswissenschaft zur Basis- und Kernwissenschaft aufgestiegen.

- Datenanalyse und Faktor Mensch: Big Data hat zu einem Boom der empirischen Wirtschaftsforschung geführt. Doch Datenanalysen sind nur vermeintlich objektiv und neutral. Viele Studien zeigen, dass die Ergebnisse auch von Nationalität und persönlichen Präferenzen abhängen. Vgl. Asatryan, Havlik, Heinemann, Nover: Biases in fiscal multiplier estimates, in: European Journal of Political Economy, Vol 63, 2020. Auch: Gründler, Potrafke: Ambiguous Austarity, CESifo München, Februar 2021.

- Haptisches Feedback von Daten: Daten fühlbar machen. Digitale Daten sollen völlig neu erlebbar sein. Die Anwendung ist nicht einfach. Das Start-up Feelbelt arbeitet z. B. daran. Anwendungen sind z. B. Musik hören mit mehr Gefühl durch Vibration, vibrierende Sitze im SUV - Hummer.

- Eingesperrter Datenschatz (Dateninfrastruktur): Rigider Datenschutz entwickelt sich zu einem zunehmenden Wettbewerbsnachteil für die empirische Sozialwissenschaft. Vor allem im Bereich Bildung lassen sich politische Maßnahmen kaum evaluieren.  "Die vielfach unbefriedigende Datenlage und das Verbot der Datenverknüpfung sind gravierende Wettbewerbsnachteile für die deutsche Wirtschaftswissenschaft. Oft müssen wir uns mit skandinavischen Daten behelfen", Regina Riphan, Vizepräsidentin der Nationalen Akademie der Wissenschaften Leopoldina und neue Vorsitzende des VfS. Quelle: WiWo 1/2 5.1.2023, S. 24. Vgl. auch ausführlicher: Riphan, Regina T.: Die deutsche Dateninfrastruktur aus Sicht der empirischen Wirtschaftsforschung, in: Wirtschaftsdienst 1/ 2023.

- Datenzugang (für Forschung und Politikberatung): "Der Zugang zu wirtschafts- und sozialwissenschaftlichen Forschungsdaten bleibt in Deutschland hinter den internationalen Standards zurück. Eine Umfrage unter den Mitgliedern des Vereins für Socialpolitik ergab eine große Unzufriedenheit mit dem Status quo. Die Beiträge des Zeitgesprächs geben einen Überblick über die Problemlage und fassen die Forderungen zusammen, die in ausführlichen Positionspapieren formuliert wurden. Es ist wichtig, die Gesetzgebung zu ändern und einen besseren Zugang zu Forschungsdaten in Deutschland zu ermöglichen." siehe Viele Verfasser: Datenzugang für Forschung und Politikberatung, in: Wirtschaftsdienst 11/ 2023, S. 727ff. Es geht dabei um folgende Daten: Arbeitsmarktdaten, Bildungsdaten, Gesundheitsdaten, Makrodaten, Regionaldaten, Unternehmensdaten.

- Root Simplicity: Eigentlich eine These der Psychologie. Je unübersichtlicher eine Sache wird, desto eher fallen wir in eine Vereinfachung zurück. Es ist eine Ursachenvereinfachung. Selbst wenn man Menschen sagt, dass ein einziger Grund zehnmal unwahrscheinlicher ist als die Summe der Gründe, bleiben Menschen ihrer Annahme treu. Das erklärt auch zum Teil, warum Verschwörungstheorien so leicht verfangen.

- Auswertungsverfahren: Ihre Anwendung richtet sich nach dem Skalenniveau der ausgezählten Variablen. Haben unabhängige und abhängige Variable das gleiche Skalenniveau ist der Einsatz klar vorgeschrieben: Bei Nominalskalen arbeitet man mit der Tabellenanalyse (und berechnet dann z. B. den Kontingenzkoeffizient). Bei Ordinalskalen kommt die Rangkorrelation, z. B. nach Spearman, zum Einsatz. Bei metrischen Skalen wertet man am besten mit Bravais-Pearson aus. Schwieriger ist die Entscheidungssituation, wenn unabhängige und abhängige Variable verschiedene Messniveaus haben. Entweder kann man hier das Skalenniveau verändern (nach unten, oder Dummies bilden) oder man sucht spezielle Verfahren wie die Varianzanalyse oder aus ihr abgeleitete Varianten (z. B. Diskriminanzanalyse). für spezielle Fragestellungen können auch weitere Verfahren verwendet werden (z. B. Clusteranalyse, Faktorenanalyse).

- Regression (Regressionsanalyse): Eine der wichtigsten Denkrichtungen und Analysemethoden in den Wirtschaftswissenschaften. Es geht um die empirische Analyse von Ursache-Wirkungszusammenhängen. Diese sind ganz schwierig von reinen Korrelationen zu unterscheiden (oft nur durch eine sinnvolle Theorie). In der Statistik-Ausbildung wird in der Regel nur die lineare Einfachregression behandelt. Dabei benutzt man die Formeln der Methode der kleinsten Quadrate. Multiple Regressionen können nur mit Computer-Hilfe (z. B. SPSS) berechnet werden. Wichtig ist vor der Anwendung der Regression die Prüfung der Anwendbarkeit (Punktewolke, Theorie, Hypothese). Man benutzt die Regressionsmethode auch für Prognosen, aber aufgepasst: "Der Schwanz des Hundes wächst in der ersten Lebenswoche 7 Zentimeter. Nach 52 Wochen müsste er also gut 3 1/2 Meter lang sein." Rudolf Nölle (zitiert nach: Mankiw u. a., Volkswirtschaftslehre, Stuttgart 2015, S. 485). Mit Data-Mining lassen sich heute Zusammenhänge finden, die keine theoretische Basis haben. Vor allem der Publikationsdruck in der Wissenschaft verleitet heute zu besonderer "Kreativität". Die American Economic Review (AER), die als weltweit führende Fachzeitschrift im Bereich der Ökonomie gilt, hat ein eignes Datenarchiv eingerichtet. Die hinterlegten Daten können von anderen Forschern überprüft werden. Subjektive Elemente bei der Selektion von Daten sollen so eingeschränkt werden. Insgesamt gibt es sieben wichtige Typen der Regression. Jede Regressionsgerade hat auch einen Fehlerterm, weil unabhängige Variablen niemals eine perfekte Vorhersage der abhängigen Variable liefern können.

- Zeitreihenanalyse: Analyse statistischer Größen im Zeitablauf. Man arbeitet mit der Regressionsanalyse oder der Methode der gleitenden Durchschnitte. Diese Analysemethode ist sehr wichtig für die Konjunkturforschung.

- Analyse von Kursen und Entwicklungen an der Börse: Zum Start macht man eine Fundamentalanalyse (Konjunktur, Lage der Finanzmärkte, Betrachtung des Unternehmens, Ausland). Dann erfolgt die Chartanalyse (Trend, Muster, Wellen). Danach kommt eine markttechnische Analyse (Indikatoren, gleitende Durchschnitte). Den Abschluss bildet die Einzelanalyse (Volatilität, Intuition, Faktoren).

- Machine Learning: Kluge Maschinen (geistige Arbeit von Maschinen). Computerprogramme verbessern sich selbst (Teil der künstlichen Intelligenz). In der Datenanalyse sind die Anwendungsmöglichkeiten beeindruckend. Beim Supervised Learning  sind Klassifizierungen und Regressionsanalyse möglich (logistische Regression, Entscheidungsbäume, Random Forest). Anwendungsmöglichkeiten sind hier Klassifikation von Bildern und Dokumenten, Betrugserkennung, Empfehlungssysteme. Beim Unsupervised Learning geht es um die Clusteranalyse und die Hauptkomponentenanalyse. Anwendungsmöglichkeiten sind Kunden- und Marktsegmentierung, Spracherkennung, Spam-Filter, Sentimentanalyse.

- KI (Künstliche Intelligenz) und Datenflut: Man spricht von Augmented Data Management. Dabei sind folgende Punkte wichtig: 1. Use Cases definieren (Einsatzmöglichkeiten). 2. Mitarbeiter mitnehmen (Angst um Arbeitsplatz). 3. Data Governance (Datenschutzregelungen). 4. IT-Ressourcen anpassen. 5. Wahlfreiheit bei Implementierung und Nutzung. 6. Data Management und MLOps verknüpfen. Vgl. Reder, Bernd: Mit KI der Datenflut Herr werden, in: com!professional 1/2021, S. 54ff.

- Kausalität und KI: Dreistufige Leiter der Kausalität (Judea Pearl): 1. Stufe Assoziation (Umwelt passiv beobachten; bei Regen halten Menschen einen Regenschirm über dem Kopf). 2. Stufe: "Eingriff" in die Umwelt (selbst eine Regenschirm aufspannen). 3. Stufe: Kontrafaktisches (Fähigkeit zur Spekulation und Imagination; Was wäre, wenn). Wie können Computer kausales Wissen erwerben? Kausales Schließen über das Identifizieren von Ursache - Wirkungsketten. Das Potential der Mustererkennung ist längst nicht erschöpft. Vielleicht bröckelt sogar ein zentrales Fundament des Liberalismus. Die Menschen wissen nicht mehr am besten, was gut für sie ist.   Vgl. Armbruster, Alexander: Kausalität, in: FAZ, Montag 10. Januar 2022, S. 21.

- Darstellungsformen der Ergebnisse: In den Anfängen der empirischen Forschung, die in den USA nach dem 2. Weltkrieg aufgebaut wurde, dominierten die Tabellen. Demgemäß waren die meisten empirischen Forscher und auch die Nutzer geschult im Lesen von Tabellen (so wurde meist auch die Tabellenanalyse in der Auswertung genutzt). Das änderte sich grundlegend mit der Popularisierung der Auswertungsverfahren. Heute kann jeder Student an seinem PC die komplexesten multivariaten Verfahren (z. B. mit SPSS) bewältigen. Automatisch sind damit in der Regel auch bestimmte Darstellungen verbunden. Es überwiegen eindeutig Graphiken. So haben moderne Abbildungen die Tabellen verdrängt (meist als Grundauszählung nur noch im Anhang).

- Piktogramme und Bilder: Es sind Bildzeichen, die in der Ergebnisdarstellung immer mehr Gewicht bekommen.  Es sind Bilder mit einfachen Botschaften, die jeder versteht (und die uns teilweise durchs Leben dirigieren) Diese haben einen entscheidenden Vorteil: Jeder kann sie erkennen, unabhängig von der Sprache. Sie erklären sich quasi blitzschnell von selbst. Die Piktogrammen sind Vorläufer vieler Schriften. Deutlich wird das am Beispiel chinesischer Schriftzeichen oder ägyptischer Hieroglyphen. Insofern deutet der Aufschwung der Bildzeichen auf eine Rückkehr zu den Anfängen von Sprache hin. Eine starke Gewöhnung an Bildzeichen bringen die sozialen Medien mit sich. Whats app und andere Anbieter haben Sammlungen von Piktogrammen, aus denen Nutzer jeweils passend zu Inhalten auswählen können. Damit dringen die Piktogramme stark in die Kultur ein und sind insgesamt in der Darstellung auf dem Vormarsch. Sie werden zu einer Universalsprache der Moderne.  Bildzeichen haben auch eine große Bedeutung für die Macht von Marken und das Design. Normalerweise gilt das Erfolgsrezept: Je einfacher, desto besser. "A picture is worth a thousands words". - Ein Bild ist so viel wert wie tausend Worte. Fake-Bilder, die von KI erzeugt werden, manipulieren zunehmend, Vgl. Ullrich, Wolfgang: Führen uns Maschinen mit Fake - Bildern in die Irre? in: WiWo 42/ 14.10.22, S. 42f.

- Lineare und exponentielle Zusammenhänge: Lineares Denken ist bei Menschen beliebter, weil es leichter fällt. Viele Zusammenhänge in der Realität sind allerdings exponentiell (Zinseszinseffekt, Wachstum von Bakterien, Ausbreitung von Viren). Dabei können folgende Typen unterschieden werden: 1. Zuerst flach, dann steil ansteigend. 2. Zuerst flach, dann steil abfallend. 3. Zuerst steil, dann flach ansteigend. 4. Zuerst steil und dann flach abfallend. Um lineares Denken einzudämmen sollte man wie folgt vorgehen:  Schritt 1: Die Problematik erkennen (linear oder exponentiell). Schritt 2: Auf Ergebnisse statt Indikatoren konzentrieren. Schritt 3: Die Art der nicht linearen Beziehung ermitteln. Schritt4: Nicht lineare Zusammenhänge skizzieren. Vgl. Bart de Langhe, Stefano Puntoni, Richard Larrik: Ohne Mathe geht es nicht, in: Harvard Business Manager Juli 2017, S. 68ff.

- Manipulation durch Statistik (Lügen): Vgl. Walter Krämer, So lügt man mit Statistik, Frankfurt/ New York 1992. Gerd Bosbach/ Jens Jürgen Korff, Lügen mit Zahlen. Wie wir mit Statistiken manipuliert werden, München 2011. Beliebte Methoden sind die folgenden: Basis nicht nennen, verzerrte, vorsortierte Stichprobe, manipulierte Mittelwerte, frisierte Graphiken, Korrelation statt Kausalität, nicht repräsentative Stichproben, politische Definition von Quoten und anderen ökonomischen Größen (z. B. Armut),  u. a. Erstmals deckte Darrel Huff in seinem Buch "How to lie with statistics" Tricks und Fallstricke bei der Interpretation von Zahlen auf.  Aktuell ist der Fall des ehemaligen Leiters der griechischen Statistikbehörde interessant: Andreas Georgiou. Es übernahm 2010 die Leitung der Statistikbehörde "Elstat". Er machte Schluss mit den geschönten Finanzzahlen der "Greek Statistics" (reformierte die Arbeitsweise der Behörde, EU-Standards). Dafür soll er 2016 ins Gefängnis. Man sucht einen Sündenbock für die Schuldenmisere Griechenlands. "Ich wollte meinem Land dienen", Georgiou 2017. Nachfolger als Leiter des statistischen Amtes wurde Thanopoulos. Der Leiter der britischen Statistikbehörde Norgrove mahnt in der Brexit-Diskussion mehrmals einen klaren Missbrauch öffentlicher Statistiken an. Meist werden Zahlungen von der EU an GB verschwiegen. Dabei tut sich Boris Johnson besonders hervor. Im September zeigt der barische Innenminister Herrmann wie man eine Statistik fälscht: Er rechnet alle Formen sexueller Nötigung plötzlich zu Vergewaltigung hinzu und kann so beweisen, dass eine hohe Steigerung von Sexualdelikten mit den Zuwanderern zusammenhängt ("Unterholz politischer Statistik"). 2017 soll Griechenland das Ausmaß der Abwanderung in andere Länder vertuschen (Flüchtlingszahlen in Griechenland runterrechnen, damit die Abwanderung in andere EU-Länder kaschiert werden kann).

- Methodenehrlichkeit: Statistiken sind immer nur so viel wert,  wie die Qualität der Methoden ist. Gültigkeit und Zuverlässigkeit müssen eingehalten werden. Aber auch die Methode selbst muss immer relativiert werden. Einmalige Beobachtungen können nicht zu gleich guten Daten wie Panelstudien führen. Gerade in der Medizin wird hier geschludert, weil die Pharmaindustrie großen Einfluss ausübt. Vg. Peter Nawroth: Die Gesundheitsdiktatur, Kulmbach 2016.

- Fehlermöglichkeiten und Grenzen: Fehler können im Datenmaterial liegen, es kann sich auch um Datenmanipulation handeln, es können Unterschiede in den Modellen bestehen, es können Anwendungsfehler von Methoden oder falsche Interpretation sein. "Die Menschen stolpern nicht über Berge, sondern über Maulwurfshügel", Konfuzius.

- Fake News: Bewusst gefälschte Nachrichten im Internet. Die Trennung zwischen Wahrheit und Meinung wird aufgehoben. Damit wird Wirklichkeit zum Teil abgeschafft. Gerade die sozialen Netzwerke - wie etwa Facebook - werden zum Verbreiter reißerischer Überschriften und Gerüchteköchen. In den USA beziehen 2016  schon rund ein Drittel der Bevölkerung Nachrichten aus dem Internet (Google, Soziale Medien). In Deutschland ist die Nutzerzahl geringer, aber relativ hoch bei jungen Menschen. Das gilt für alle Industrieländer. Für die 18- bis 24- Jährigen sind die Sozialen Medien die wichtigste Nachrichtenquelle. Je reißerischer die Überschrift ist, desto mehr Klicks gibt es. Die Hochschulen und Schulen müssen hier gegensteuern. 2017 plant der Bundesjustizminister ein Gesetz gegen Hass im Internet. Die sozialen Netzwerke und Plattformen (mehr als 2 Mio. Nutzer) sollen Lügen und Hasskommentare löschen. Es trifft vor allem Facebook, Twitter und Youtube. Bei Verstößen drohen millionenschwere Bußgelder. Die Materie ist aber recht kompliziert: Häufig werden Mix-Methoden eingesetzt, d. h. Fakten und Fakes werden gemischt. Richtigstellungen werden auch weniger wahrgenommen. In Wahlkämpfen werden sogar Fake-Fabriken eingesetzt. Als Geschäftsmodell ("Klick-Köder") sind Fakes auch attraktiv. Im Internet ist es auch leicht, Fakes massenhaft unter verschiedenen Identitäten zu verbreiten ("Meinungs-Maschinen"). Die Lügen-Lage ist oft schwierig einzuschätzen.   Fake News dürfte auch den amerikanischen Wahlkampf beeinflusst haben. Als "Stadt der Lügner" gilt Veles in Mazedonien. Viele gefälschte Nachrichten kommen aus dieser Kleinstadt. Zeitweise waren 140 Internetseiten mit Falschnachrichten in dem Ort registriert. Die Bundesregierung will in Zukunft Falschinformationen im Internet unterbinden: Facebook und andere soziale Netzwerke sollen eine ständige Rechtsschutzstelle einrichten, an die sich Betroffene wenden können. Werden die Informationen binnen 24 Stunden nicht gelöscht, droht ein Bußgeld bis zu 500.000 €. Auf dem Chaos Communikation Congress in Hamburg 2016 sind IT - Experten der Ansicht, dass die Maschine zwischen Wahrheit und Lüge unterscheiden kann - mit Hilfe der Nutzer. Das System von Facebook arbeitet wie folgt: Nutzer melden Falschnachrichten. Dann prüft das US-Unternehmen anhand von Plausibilität. Dann werden die Postings mit einem Warnhinweis versehen mit Begründung der Entscheidung (Link). Dann keine Werbung mehr; eventuell wird die Sichtbarkeit noch reduziert. Fake News wird immer wieder im Auftrag des russischen Geheimdienstes eingesetzt. So tauchen im Netz immer wieder Vergewaltigungen auf entweder an russischen Mädchen in Deutschland oder an osteuropäischen Mädchen von deutschen Soldaten. Mitte 2016 erschien in einer polnischen Zeitung ein Interview. Darin berichtet eine Frau von angeblich schlimmen Zuständen in einem fränkischen Dorf. Flüchtlinge hätten dort aus einem deutschen Paradies eine Müllkippe gemacht. Die Geschichte verbreitet sich in ganz Polen und erregt großes Aufsehen. Daran war Nichts wahr. Das Landgericht Würzburg stellt im März 2017 fest, dass Facebook nicht selbst nach verleumderischen Beiträgen suchen muss. Japanische Agenturen vermieten ab 2018 "Fake Friends" für Hochzeiten und Geburtstage für Menschen, die sich in den sozialen Medien von der besten Seite zeigen wollen. 

Fake News verkommt mittlerweile zu einem Etikett ohne Wert. Der Begriff wird häufig für die unterschiedlichsten Dinge verwendet. Der Einfluss ist sicher auch zurück gegangen. Ein Faktencheck hat immer auch seine Tücken. Aufgeblähter Blödsinn gehört nun mal zum Internet dazu. Hinzu kommt die Möglichkeit von Bots (Bots-Armeen). Wir werden mit Fake-News leben müssen.

- Das Postfaktische: Wort des Jahres 2016 (Gesellschaft für Deutsche Sprache). Das Verdrehen von Tatsachen und Fakten bis hin zur Lüge. In seinem Buch "1984" thematisiert schon George Orwell das Angleichen von Fakten an die Propaganda. Fakten werden heute im Internet durch eine Vielzahl widersprechender Kanäle übertönt. Fakten werden oft nicht bestritten, aber für nicht wichtig gehalten. Im Vordergrund stehen Ängste und Gefühle. Der Tatsache des Postfaktischen muss man sich stellen, am besten durch eine gute Statistikausbildung. 2017 taucht die Wortschöpfung "alternative Fakten" auf. Sie wird auf auf das Vorgehen von D. Trump bezogen. 2017 sagt er z. B. "die Mordrate in unserem Land ist die höchste seit 47 Jahren". Tatsächlich sagt die Statistik der Bundespolizei FBI  etwas völlig anderes. Der Begriff schafft es 2017 sich als Unwort des Jahres in Deutschland durchzusetzen. Insgesamt ist das Interesse an Forschungsthemen in der deutschen Bevölkerung gestiegen (von 2014 auf 2016 von 33 auf 41%). 16 Prozent der Deutschen interessieren sich überhaupt nicht für Wissenschaft.

- Wahrheit und Unwahrheit: Wirtschaftswissenschaftler ermitteln wissenschaftliche Wahrheit durch wiederholte, auf Regeln basierte Untersuchungen. Sie gelten so lange, bis sie durch andere Untersuchungen widerlegt werden können. Wahrheiten gibt es eigentlich nur in Religionen, man muss daran glauben. Wahrhaftigkeit ist mehr eine subjektive Überzeugung (nach bester Prüfung). Selbsttäuschung ist in der Wissenschaft nicht selten, weil wir durch Unbewusstes und Kultur beeinflusst sind. Irrtum ist nicht ehrenrührig, weil in der Wissenschaft Zeit und Informationen eine Rolle spielen (schnell und unzureichende Infos). Lüge ist eine wissentlich falsche Angabe. Wenn dahinter noch die Absicht steckt, andere zu schädigen, spricht man von Betrug.

- Daten und Gefühle sowie die Zukunft: Daten allein genügen nicht, sagt die Neurowissenschaft (Tali Sharot). Es verlangt nach Geschichten. Menschen nehmen Botschaften nicht an, wenn sie kein Verlangen danach haben. Informationen verändern die Gefühle und das Wohlergehen. Wenn Daten rübergebracht werden sollen, müssen sie immer in Gefühle verpackt werden. eine weitere Schwäche von Daten und Zahlen ist, dass sie passives Material darstellen. Sie haben Vergangenheit, aber nicht immer Zukunft. Entscheidungsprozesse im Gehirn sind nicht in einer einzigen Region gebündelt. In vorderen Stirnhirnbereichen analysieren wir vorwiegend die Vergangenheit. Je mehr man dieses Denken trainiert, desto mehr werden Regionen in Nervennetzwerken unterdrückt, die die Zukunft planen (vgl. Henning Beck: Die Grenzen der Algorithmen, in: Wirtschaftswoche 47/ 10.11.17, S. 93)..

- Daten, Fakten und Narrative: Strategien, die nur auf Daten und Fakten setzen, können heute Narrative nicht zurückdrängen. Narrative sind nicht nur bloße Erzählungen, sondern sie interpretieren Ereignisse und geben ihnen so eine Bedeutung. Narrative sind ansteckend und prägten so das Denken und Handeln der Menschen. Erzählungen können die Wirtschaft maßgeblich beeinflussen. 2020 im März erscheint die deutsche Übersetzung von Robert Shiller: "Narrative Economics" im Plassen-Verlag.  Die "Global Solutions Initiative", die der ehemalige Präsident des Instituts für Weltwirtschaft in Kiel Dennis Snower, ins Leben gerufen hat, soll eine Gemeinschaft internationaler Thinktanks sein. Es geht um Wert und Normen und wie man diese schmieden kann. Vgl. Gespräch mit Uwe Jean Heuser in Die Zeit, Nr. 6, 31. Januar 2019, S. 24f.

- Statistik in verschiedenen Kulturen: Folgende Fehlerarten sind zu beachten: Konstrukt-Bias (unvollständige Erfassung, kulturell unterschiedliche Angemessenheit und Verständnis); Methoden-Bias (Stichproben nicht vergleichbar, unterschiedliches Antwortverhalten, nicht gleiches Skalenverständnis); Item-Bias (mangelhafte Übersetzung, ungewollte Assoziationen).

- Statistikgläubigkeit in den Wirtschaftswissenschaften: Zahlen suggerieren eine Präzision, die es Wissenschaftlern und Politikern erlaubt, Argumente gegen Kritik zu immunisieren. Das wichtigste Lernziel des Statistikunterrichts muss darin bestehen, Daten und Zahlen immer hinterfragen zu können. Vgl. Rahim Tagizadegan. Es gibt einen Physikneid der Ökonomen, in: Wirtschaftswoche 22/27.5.16, S. 36.

- False Discoveries und Fehlerinterpretationen: Wissenschaftskommunikation mit der Bevölkerung. Adäquate Interpretationen statischer Analysen sollten eine vernünftige Bewertung der Zuverlässigkeit wissenschaftlicher Aussagen ermöglichen. Insbesondere statische Signifikanzregeln sollten verständlich vermittelt werden Vgl. Hirschauer, N./ Mußhoff, O./ Grüner, S.: False Discoveries und Fehlinterpretationen wissenschaftlicher Ergebnisse, in: Wirtschaftsdienst 2017/ 3, S. 201ff.

- Framing: Die Entscheidung, wie Zahlen präsentiert werden, was wiederum Einfluss darauf haben kann, wie die Nutzer diese Zahlen aufnehmen.

- Durchschnittswerte-Glauben und Nicht-Glauben: Menschen neigen dazu, den Begriff "Statistik" mit Durchschnittswerten zu verknüpfen. Dabei kann die gesamte Bandbreite der Zahlen verloren gehen. Statistik benötigt aber Beides. Auf der anderen Seite gibt es immer mehr Menschen, die grundsätzlich nicht mehr an die statistischen Zahlen glauben und sie deshalb beliebig selbst setzen. Dafür könnten viele Gründe verantwortlich sein: Menschen nehmen sich selbst nicht mehr als Teil des Durchschnittes wahr; Menschen wissen immer weniger, was hinter den Daten an Realität steckt; Menschen sind zu sehr an Bildern orientiert; die meisten Daten werden heute von den Internet-Konzernen kontrolliert. Darin besteht eigentlich die größte Gefahr für die Zukunft: Die meisten Daten werden privat gehütet und stehen der Allgemeinheit nicht mehr zur Verfügung. Damit lässt sich deren Wahrheitsgehalt gar nicht mehr überprüfen. Das könnte dann auch auf den öffentlichen Teil der Statistik abfärben. Vgl. Matheis/ Prange: Viele Wahrheiten, in: Wirtschaftswoche 13/ 24.3.2017, s. 63ff.

- Prognosen mit Statistik: Es gibt verschiedene Hilfsmittel der Statistik. Etwa die Extrapolation, die einen durch Regression errechneten Trend fortschreibt. Auch die Zeitreihenanalyse kann ein Hilfsmittel sein. Prognosen hängen sehr stark von dem jeweiligen Anwendungsbereich ab. Auf Prognosen an den Finanzmärkten zum Beispiel ist kaum Verlass.

In Prognosen sind die Wirtschaftswissenschaften immer recht ungenau ("dismal science", im angelsächsischen Bereich gegenüber den exakten Naturwissenschaften). Das liegt daran, dass in wirtschaftlichen Zusammenhängen Menschen im Mittelpunkt stehen. Menschliches Verhalten ist nur bedingt vorhersehbar (Menschen ändern ihr Verhalten). Häufig unterliegen Wissenschaftler auch der Versuchung, aufgrund der Vergangenheit die Zukunft vorauszusagen. Meist macht die Ökonomie nur "wenn - dann - Aussagen". Man spricht auch von Szenarien.

-Messmanie: Die Digitalisierung bringt es mit sich, dass fast alles vermessen wird. Akteure sind Unternehmen und Staaten. Auch immer mehr Unmessbares wird versucht zu quantifizieren: Beispiel Freundschaft durch Likes im Internet. Das verändert unser Leben. Die Frage ist, ob Menschen in Bereiche ausweichen können, die sich der Vermessung entziehen. Vielleicht steigt der Wert der Dinge, die noch nicht quantifizierbar sind. Vgl. Bruno S. Frey: Grenzen der Messmanie, in: Die Zeit, Nr. 40, 28.09.2017. S. 37.

Extrem werden mittlerweile Daten für Wahlkämpfe erhoben. In den USA werden diese Daten gekauft. Pro Wähler schätzt man, dass 60.000 Datensätze vorliegen (Persönliche Daten, Internetverhalten, Konsumverhalten). Wahlkämpfe werden so gezielt differenziert und spezialisiert. Di Demokratie gerät so immer mehr in Gefahr.

- Szientometrie: Viele wissenschaftliche, empirische Studien lassen sich nicht reproduzieren. Das widerspricht dem Qualitätskriterium der Zuverlässigkeit. Fachzeitschriften veröffentlichen auch bevorzugt positive Forschungsergebnisse (Hypothese wird bestätigt). Die Arbeitspraktiken von Wissenschaftlern wie auch die Auswahlkriterien der Journale sind wohl nicht immer ganz korrekt. Vgl. Ed Young: Szientometrie. Jede Menge Murks, in: Spektrum Spezial, 3/17, S. 26ff.

- Scoring: Die digitale Durchleuchtung und Bewertung des Verhaltens von Konsumenten und Bürgern nach einem Punktesystem. Grundsätzlich ist dies ein Merkmal repressiverer Staaten wie etwa China. Aber auch bei uns arbeitet man mit diesen Methoden in der Gesundheitsversorgung und in der Finanzwirtschaft sowie bei Versicherungen. Es sollten Mindeststandards geschaffen werden, um den Bürger zu schützen. Folgende Grundsätze sind wichtig: 1. Identifizierung und Transparenz. 2. Verifizierung. 3. Relevanz und Nützlichkeit. Vgl. Oehler, A.: Grundsätze ordnungsgemäßer Bewertung durch Scoring, in: Wirtschaftsdienst 2017/10, S. 748ff.

- Algorithmus: Eine Regel oder Formel, die aus bestimmten Eingaben eine Ausgabe erzeugt, wie beispielsweise eine Vorhersage, eine Klassifizierung oder eine Wahrscheinlichkeit. Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 335.

- Big Data:  Der Ausdruck ist zunehmend anachronistisch. Man spricht von vier V: 1. Großes Datenvolumen (volume). 2. Vielfalt von Quellen, Bildern, Social-Media-Konten, Transaktionen (variety). 3. Hohe Geschwindigkeit der Datenbeschaffung (velocity). 4. Mangel an Richtigkeit (allzu schematisch, veracity). Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 335f.

- Datenvisualisierung: Es geht darum, wie man aus Datenbergen Einsichten gewinnen kann. Dazu braucht es Know-how, Werkzeuge und Fachleute. Die Daten müssen richtig vorbereitet werden (Ziel? Was interessiert? Woher kommen die Daten? Wie ist die Qualität?). Bei der Analyse  braucht man Prinzipien: Auch auf Ästhetik achten. Skeptisch sein. Verschiedene Dinge ausprobieren. Nach starken Beziehungen suchen. Zeitbereiche vergleichen. Besser sind Trends als Datenpunkte.

- Synthetische Daten: Fehlende oder fehlerhafte Daten sind eine der größten Hürden für den Einsatz von KI. Synthetische Daten sollen das lösen. Perfekt funktioniert das aber noch nicht. Der große Vorteil ist: weniger Aufwand, weniger Kosten. Nachteile sind: Komplexität, Anonymisierung. Vgl. Scherer, Katja: Damit es wirklich bremst, in: WiWo 31/29.7.22, S. 64ff.

- Deep Learning: Technik des maschinellen Lernens. Gewöhnliche Modelle artifizieller neuronaler Netzwerke werden auf viele unterschiedliche Abstraktionsebenen mit repräsentierenden Schichten erweitert.  Beispiel: von einzelnen Pixeln über ein Bild bis zur Objekterkennung.

- Gültigkeit (Validität) und Zuverlässigkeit (Reliabilität): Gütekriterien für empirische Forschung und Statistik. Gültigkeit bedeutet, dass die Messmethoden das auch wirklich messen, was man messen will. Zuverlässigkeit beinhaltet, dass andere Forscher beim Wiederholen der Versuchsanordnung zu vergleichbaren Ergebnissen kommen. Gegen beide Kriterien wird heute oft verstoßen. Viele Institutionen und Zeitschriften berechnen Indizes und Indikatoren, deren Konstruktion intransparent bleibt. Sie dienen oft zur Instrumentalisierung von eigenen Zielen oder dem Wichtigtuen. Vgl. den Anfang dieser Seite.

- Indikatoren der Wirtschaft in China und Aussagekraft der Statistik (Relativierung): Auch in der Sozialistischen Marktwirtschaft in China ist das BIP der wichtigste Indikator. Experten zweifeln aber diese Zahl an. Es stehen 5,5% Revidierung nach unten im Raum. Folgende Indikatoren sprechen für eine Korrektur nach unten: Energieverbrauch, Wachstumsraten in den Provinzen geschönt, Rückgang der Importe, Dienstleistungssektor schlecht erfasst. Es fehlt auch die Transparenz wie das Statistikbüro genau den Wert des Bruttonationaleinkommens ermittelt. Einen großen Anteil haben Schätzungen. Einige Analysehäuser sehen das Wachstum jeweils um bis zu 5% niedriger. Eine völlig unterschätzte Rolle spielen die Lokalregierungen, die gezielt falsche Zahlen liefern. Das Statistikbüro will die Vorgaben der Regierung erfüllen. "Zombie-Fabriken" (nicht ausgelastet, falsche Zahlen) tragen auch dazu bei. Chinas Wirtschaft wächst seit 1978 ohne Unterbrechung. Der Durchschnitt liegt bei fast 10 Prozent. Erst ab 2018 kommt der Einbruch mit wesentlich geringeren Wachstumsraten. Aus meiner eigenen statistischen Erfahrung und dem engen Kontakt zu chinesischen Kollegen gehe ich davon aus, dass die Statistik relativ genau ist, allerdings unter Berücksichtigung der obigen Rahmenbedingungen. Vgl. Fernald, J./ Hsu, E./ Spiegel, M. M.: Is China Fudging its Figures? Evidence from Trading Partner Data, Federal Reserve Bank of San Francisco, Working Paper, Nr. 2015-12, 2015. Auch: Chen, Z./ Liu, C./ Liu, J.: The Financing of Local Government in China: Stimulus Loans Wane and Shadow Banking Waxes, VoxChina, 9.7.2017.

- Wissen versus Statistik: Wissen sei ein überholtes Konzept, so der Londoner Philosoph David Papineau (King ´s College). Er plädiert dafür, der Statistik mehr Raum zu geben.

- Anekdotische Evidenz: Wenn man nur eine kleine Datenmenge betrachtet, kann man leicht zu falschen Schlussfolgerungen kommen. Das findet man nicht selten in der Presse. Beispiele: Gates und Zuckerberg waren Studienabbrecher. Man sollte daraus nicht folgern, das Studienabbruch Erfolg garantiert. Es kann Fälle geben, wo der Schluss umgekehrt zutrifft: Wenn ich behaupte jeder Spieler der NBA geht an zwei Meter, reicht ein Gegenbeispiel. Vgl. Acemoglu, Daron u. a.: Volkswirtschaftslehre, München 2020, S. 68f.

- Natürliche Experimente: Natürliche Experimente arbeiten mit historischen Daten. Dabei sind Vergleichsstaaten erforderlich, so dass Geographie und Kultur gleich sind und sie sich nur durch ökonomische Institutionen unterscheiden. Das trifft 2020 auf Korea zu. Das galt bis 1990 für Deutschland. Vgl. Acemoglu, Daron u. a.: Volkswirtschaftslehre, München 2020, S. 74ff. 2021 wird der Wirtschaftsnobelpreis insbesondere an Forscher vergeben, die mit natürlichen Experimenten gearbeitet haben und zur statistischen Absicherung beigetragen haben. Neue Methoden gewinnen an Boden. Die berühmte Ceteris-Paribus-Klausel, die ökonomische Wirkungszusammenhänge nur unzulänglich aufzeigen kann wird immer mehr durch diese natürlichen Experimente ersetzt. Dabei werden Statistiken aus der realen Wirtschaft durchforstet. Berühmt ist das Experiment , das Wechselwirkungen zwischen Mindestlöhnen und Beschäftigung untersucht. Forscher entdeckten zwei aneinander grenzende Bezirke an der US-Ostküste, in denen wirtschaftlich fast alles gleich war (New Jersey, Pennsylvania). In einer Region war der Mindestlohn, in der anderen nicht. Die Erhöhung des Mindestlohns beeinflusste die Beschäftigungslage so gut wie nicht. Man spricht vom Card-Krueger Experiment. Card erhielt dafür den Wirtschaftsnobelpreis 2021 (Krueger ist tot). Vgl. Fischermann, Thomas: Nobelpreis, in: Die Zeit Nr. 42, 14.1021, S. 25. Der Co-Preisträger Joshua Angrist legte Methoden fest, um aus den natürlichen Experimenten auch tatsächlich Kausalketten abzuleiten. Das ist wichtig, um Fehlschlüsse zu vermeiden. Der weitere Preisträger Guido Imbens schuf die Grundlagen für eine mehrstufige Auswertung. Es gab wenig Methoden, mit denen man Glaubwürdigkeit klar feststellen konnte. Imbens machte es möglich, zwischen guter und schlechter Forschung zu unterscheiden (durch Methoden der Kontrolle von Experimenten). Berühmte reale Experimente waren: Effekt von Bildung auf das spätere Einkommen, Wirkungen des bedingungslosen Grundeinkommens, Wirkungen des Mindestlohnes auf die Beschäftigung. Vgl. "Dann fließt die kreative Energie", in: Die Zeit Nr. 45, 4.11.21, S. 31.

- Ergebnisse interpretieren: Das ist eine hohe Kunst. Sie setzt sehr viel Erfahrung voraus. Aber auch Fingerspitzengefühl. Man muss den Erfahrungsbereich sehr gut kennen.

- Ergebnisse aufbereiten und kommunizieren: Auch hierzu braucht man viel Erfahrung. Grafische Darstellungen sagen mehr als tausend Worte, können aber auch verfänglich sein. Man sollte mit Tortendiagrammen, Balken- und Stabdiagrammen sowie Streudiagrammen experimentieren. sie müssen optimal zu textlichen Darstellungen passen bzw. sie ergänzen (mit Tabellen, Bullet Points). Die Beschreibung im Fließtext muss passen.

Es gibt fünf Arten der Lüge: die gewöhnliche Lüge, den Wetterbericht, die Statistik, die diplomatische Note und das amtliche Kommuniqúe", George Bernhard Shaw, irischer Schriftsteller.

 

Welche Statistische Methode zu welchem Problem?

1. Die 2 Dimensionen als Grundvoraussetzung erkennen: Statistik setzt sich aus zwei Dimensionen zusammen. Die eine Ebene besteht aus Daten. Die andere Ebene aus Methoden. An der Hochschule werden normalerweise nur die Methoden vermittelt. Das ist sehr missverständlich und unglücklich,  da die Methoden immer mehr an den Computer delegiert werden können. Gefragt sind heute Wissen über den richtigen und vernünftigen Einsatz der Methoden und die sinnvolle Interpretation der Ergebnisse. "Statistical Literacy"  nennt man die Allgemeinbildung zur Interpretation von Statistiken. Es ist insofern auch durchaus sinnvoll, das Verständnis für und den Umgang mit Daten zu lehren und lernen (einschließlich der Beurteilung der Qualität der Quellen). Der "richtige" Umgang mit der Datenflut aus dem Internet muss eingeübt werden, um auch Manipulationen erkennen zu können. Die Statistik an den Hochschulen ist auch heute noch zu stark rein quantitativ ausgerichtet, so dass quantitative Methoden dominieren. Für viele Gebiete der Sozialwissenschaften, insbesondere der Betriebswirtschaftslehre, sind aber qualitative Methoden sinnvoller (werden eher in der empirischen Sozialforschung, als Teilgebiet der Soziologie, behandelt).

2. Statistische Verfahren müssen passen: Ihre Anwendung richtet sich nach dem Skalenniveau der ausgezählten Variablen. Haben unabhängige und abhängige Variable das gleiche Skalenniveau ist der Einsatz klar vorgeschrieben: Bei Nominalskalen arbeitet man mit der Tabellenanalyse (und berechnet dann z. B. den Kontingenzkoeffizient). Bei Ordinalskalen kommt die Rangkorrelation, z. B. nach Spearman, zum Einsatz. Bei metrischen Skalen wertet man am besten mit Bravais-Pearson aus. Schwieriger ist die Entscheidungssituation, wenn unabhängige und abhängige Variable verschiedene Messniveaus haben. Entweder kann man hier das Skalenniveau verändern (nach unten, oder Dummies bilden) oder man sucht spezielle Verfahren wie die Varianzanalyse oder aus ihr abgeleitete Varianten (z. B. Diskriminanzanalyse). für spezielle Fragestellungen können auch weitere Verfahren verwendet werden (z. B. Clusteranalyse, Faktorenanalyse).

3. Zentrale Methode (Regression): Eine der wichtigsten Denkrichtungen und Analysemethoden in den Wirtschaftswissenschaften ist die Zusammenhangsanalyse (Regression). Es geht um die empirische Analyse von Ursache-Wirkungszusammenhängen. Diese sind ganz schwierig von reinen Korrelationen zu unterscheiden (oft nur durch eine sinnvolle Theorie). In der Statistik-Ausbildung wird in der Regel nur die lineare Einfachregression behandelt. Dabei benutzt man die Formeln der Methode der kleinsten Quadrate. Multiple Regressionen können nur mit Computer-Hilfe (z. B. SPSS) berechnet werden. Wichtig ist vor der Anwendung der Regression die Prüfung der Anwendbarkeit (Punktewolke, Theorie, Hypothese). Man benutzt die Regressionsmethode auch für Prognosen, aber aufgepasst: "Der Schwanz des Hundes wächst in der ersten Lebenswoche 7 Zentimeter. Nach 52 Wochen müsste er also gut 3 1/2 Meter lang sein." Rudolf Nölle (zitiert nach: Mankiw u. a., Volkswirtschaftslehre, Stuttgart 2015, S. 485). Mit Data-Mining lassen sich heute Zusammenhänge finden, die keine theoretische Basis haben. Vor allem der Publikationsdruck in der Wissenschaft verleitet heute zu besonderer "Kreativität". Die American Economic Review (AER), die als weltweit führende Fachzeitschrift im Bereich der Ökonomie gilt, hat ein eignes Datenarchiv eingerichtet. Die hinterlegten Daten können von anderen Forschern überprüft werden. Subjektive Elemente bei der Selektion von Daten sollen so eingeschränkt werden. Insgesamt gibt es sieben wichtige Typen der Regression. Jede Regressionsgerade hat auch einen Fehlerterm, weil unabhängige Variablen niemals eine perfekte Vorhersage der abhängigen Variable liefern können.

4. Lineare und exponentielle Zusammenhänge: Lineares Denken ist bei Menschen beliebter, weil es leichter fällt. Viele Zusammenhänge in der Realität sind allerdings exponentiell (Zinseszinseffekt, Wachstum von Bakterien, Ausbreitung von Viren). Dabei können folgende Typen unterschieden werden: 1. Zuerst flach, dann steil ansteigend. 2. Zuerst flach, dann steil abfallend. 3. Zuerst steil, dann flach ansteigend. 4. Zuerst steil und dann flach abfallend. Um lineares Denken einzudämmen sollte man wie folgt vorgehen:  Schritt 1: Die Problematik erkennen (linear oder exponentiell). Schritt 2: Auf Ergebnisse statt Indikatoren konzentrieren. Schritt 3: Die Art der nicht linearen Beziehung ermitteln. Schritt4: Nicht lineare Zusammenhänge skizzieren. Vgl. Bart de Langhe, Stefano Puntoni, Richard Larrik: Ohne Mathe geht es nicht, in: Harvard Business Manager Juli 2017, S. 68ff.

5. Relativierung: Fehler können im Datenmaterial liegen, es kann sich auch um Datenmanipulation handeln, es können Unterschiede in den Modellen bestehen, es können Anwendungsfehler von Methoden oder falsche Interpretation sein. Statistiken sind immer nur so viel wert,  wie die Qualität der Methoden ist. Gültigkeit und Zuverlässigkeit müssen eingehalten werden. Aber auch die Methode selbst muss immer relativiert werden. Einmalige Beobachtungen können nicht zu gleich guten Daten wie Panelstudien führen. Gerade in der Medizin wird hier geschludert, weil die Pharmaindustrie großen Einfluss ausübt. Vg. Peter Nawroth: Die Gesundheitsdiktatur, Kulmbach 2016. Big Data hat zu einem Boom der empirischen Wirtschaftsforschung geführt. Doch Datenanalysen sind nur vermeintlich objektiv und neutral. Viele Studien zeigen, dass die Ergebnisse auch von Nationalität und persönlichen Präferenzen abhängen. Vgl. Asatryan, Havlik, Heinemann, Nover: Biases in fiscal multiplier estimates, in: European Journal of Political Economy, Vol 63, 2020. Auch: Gründler, Potrafke: Ambiguous Austarity, CESifo München, Februar 2021.

 

Stoff von Statistik in der Lehre und Statistik als Unterrichtsfach (Statistical Learning, Didaktik, ich selbst habe das Fach viele Jahre auch gelehrt):

Struktur: 1. Inhalt, Grundbegriffe, Nutzen und Träger der Statistik, 2. Phasen der empirisch-statistischen Arbeit, 3. Häufigkeits- und Summenverteilungen, 4. Anschauliche Darstellung statistischer Daten, 5. Berechnung statistischer Maßzahlen (Verhältniszahlen, Indexzahlen, Mittelwerte, Streuung, Konzentration), 6. Fehlermöglichkeiten und Grenzen statistischer Untersuchungen, 7. Das Messen von Zusammenhängen und Abhängigkeiten (Korrelation, Regression, + multivariate Methoden), 8. Zeitabhängige Daten und Prognose, 9. Aufgaben, Organisation und Arbeit der amtlichen Statistik in Deutschland sowie Europa und der Welt (insb. China, Japan), 10. Überblick über die Auslandsstatistik, Orientierungshilfe für internationale strategische Unternehmensentscheidungen, 11. Ausgewählte Bereiche der amtlichen Statistik mit Bezug zu betrieblicher Praxis und Marketing (mit Präsentation von Excel, SPSS und Statistischem Jahrbuch am PC),  12. Grundzüge der Wahrscheinlichkeitsrechnung,  13. Einige spezielle Verteilungen, 14.  Auswahlverfahren, 15. Schluss von der Stichprobe auf die Grundgesamtheit, 16. Wiederholung, Übungen.

Benford-Gesetz: In Listen mit Zahlen tritt die Ziffer 1 viel häufiger auf als alle anderen Zahlen. Eine Ziffer kommt umso seltener vor, je höher sie ist.

Literatur: Buttler/ Fickel, Einführung in die Statistik, Hamburg 2002;  Guckelsberger/ Unger, Statistik in der Betriebswirtschaftslehre, Wiesbaden 1999; Puhani, Statistik, Würzburg 2005 (vor allem: Formelsammlung); Rinne, Wirtschafts- und Bevölkerungsstatistik, München/Wien 1996; Krämer, W.: Skript "Statistik" (Deskriptive Statistik, Wirtschafts- und Sozialstatistik, Induktive Statistik; mit zahlreichen Übungsaufgaben und Übungen; in OLAT).

Ein möglicher neuer didaktischer Ansatz ist die PPDAC-Struktur. Ein Vorreiter in Sachen Statistik-Unterricht ist Neuseeland. Die Buchstaben stehen für folgenden Zyklus: 1. Problem (verstehen und definieren, wie finden wir eine Antwort auf die Frage?). 2. Plan (Theorie. Was sollte gemessen werden? Studiendesign, Dokumentation? Datenerhebung?). 3. Daten (Erhebung, Verwaltung, Bereinigung). 4. Analyse (Daten sortieren, Tabellen/ Grafiken erstellen, nach Mustern suchen, Hypothesen aufstellen). 5. C/ Konklusion/ Kommunikation (Integration, Schlussfolgerungen, neue Ideen, Kommunikation). Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 22.

Dieser Ansatz kann dann weiter ausgebaut werden zum Problembasierten Online-Lernen (PBL). Er besteht aus folgenden Punkten: 1. Kein Frontal-Unterricht. 2. Komplexes interdisziplinäres Problem aus der Praxis im Mittelpunkt. 3. Die Lernenden erarbeiten sich das Wissen in der Kleingruppe selbst (Kleingruppenbildung durch Themenwahl, selbst gesteuerte Wissensvermittlung). 4. Keine klassische Vorlesung und kaum Videokonferenz. Leistungskontrolle mit Hausarbeiten, die im Team erstellt werden (Statistik in Zusammenhang mit dem Schwerpunktfach, konkrete Vorbereitung auf die Thesis, Bewertung von Einzelleistungen möglich, Ersatzweise oder parallel Präsentation möglich).

Lernziel des Statistik-Unterrichts sollte Datenkompetenz sein. Das ist die Fähigkeit, die Prinzipien hinter dem Lernen aus Daten zu verstehen, grundlegende Datenanalysen auszuführen und die Qualität von mit Berufung auf Daten gemachten Behauptungen einzuschätzen. a. a. O., S. 337. Ökonomen müssen vor allem Modelle mit Daten ausfüllen können. Zentral ist die Interpretation von Mittelwerten und die Unterscheidung von Kausalität und Korrelation. Manipulationen müssen erkannt werden, vor allem die visualisierten.

Es sollte auch eine Grundbildung in Statistik definiert werden, die möglichst jedem Schulkind beigebracht wird. Diese Bildung wird für die Bewältigung von Pandemien, für ein Zurechtfinden in der Finanzwelt, aber auch für die ökonomische Bildung gebraucht. Wir sind immer mehr gezwungen, vorausschauend und präventiv zu handeln. Also sollten Wahrscheinlichkeitsrechnung, Risikoabwägung, Fehlereinschätzung, die Interpretation von Daten systematisch unterrichtet werden. Die Menschen dürfen nicht weiter nur passiv die moderne Internettechnologie und sozialen Medien nutzen, sondern müssen sie aktiv einschätzen und beherrschen können.

Empirische Methoden: Sie müssen in einer modernen Statistikausbildung viel mehr Raum bekommen. Sie sind auch in neueren Ausschreibungen automatisch dabei. Die weitaus meisten Studentinnen und Studenten der Ökonomie und Sozialwissenschaften schreiben empirische Bachelor- und Masterarbeiten. Darauf muss auch systematisch vorbereitet werden. Dabei geht es insgesamt um Forschungsmethoden.

Resümee: Der "traditionelle Stoff" (in vielen Studienordnungen) der Statistik (Auswertungsmethoden) macht heute nur noch 20% aus. Hinzu kommen in der modernen Statistik: 20% Statistical Literacy, 20% empirische Sozialforschung (auch qualitative), 20% statistische Informationsinfrastruktur und Qualität, 20% Data Science/ Machine Learning/ Manipulationsschutz. Wahrscheinlich wird in Zukunft ChatGPT oder eine ähnliche KI eingesetzt. Die verwendeten Hilfsmittel müssen aber transparent gemacht werden. Es dürfte eine Renaissance des Mündlichen geben.

 

Statistik und kognitive Psychologie: "Factfulness" und "Confirmation bias"

Factfulness bezeichnet eine Faktengestützte Weltsicht. Damit diese im Alltag für die Menschen zum Tragen kommt, müssen 10 Instinkte beachtet und oft überwunden werden. Diese Instinkte müssen unter Kontrolle gehalten werden, damit man Trugschlüsse loswerden kann.

Folgende Instinkte sollten kontrolliert werden: 1. Der Instinkt der Kluft (Vergleiche von Durchschnitten, Vergleiche von Extremen, der Blick von Oben), 2. Der Instinkt der Negativität (besser und schlecht, gute Nachrichten sind keine Nachrichten, allmähliche Verbesserungen sind keine Nachricht, mehr Nachrichten bedeuten nicht mehr Leid, vor der rosigen Vergangenheit hüten). 3. Der Instinkt der geraden Linie (gehen sie nicht von Geraden aus). 4. Der Instinkt der Angst (Angst kontra Wirklichkeit, Risiko=Gefahr x Ausgesetztsein, zur Ruhe kommen vor der Entscheidung). 5. Der Instinkt der Dimension (Vergleichen, 80/20, Dividieren). 6. Der Instinkt der Verallgemeinerung (Unterschiede innerhalb von Gruppen, Ähnlichkeiten zwischen verschiedenen Gruppen, vor Mehrheit hüten, hüten vor besonders anschaulichen Beispielen). 7. Der Instinkt des Schicksals (allmähliche Verbesserungen, Wissen auf den neuesten Stand bringen, sammeln sie Beispiele für kulturellen Wandel). 8. Der Instinkt der einzigen Perspektive (eine einzige Perspektive behindert die Vorstellungskraft, Werkzeugkasten statt Hammer, begrenztes Fachwissen, nicht ausschließlich Zahlen). 9. Der Instinkt der Schuldzuweisung (nach Ursachen suchen, nicht nach Übeltätern; Systeme suchen, keine Helden; erkennen, wer als Sündenbock herhalten muss). 10. Der Instinkt der Dringlichkeit (Atem holen, auf Daten bestehen, hüten vor Wahrsagern und drastischen Aktionen).Vgl. Rosling, Hans: Factfulness. Wie wir lernen, die Welt so zu sehen, wie sie wirklich ist, Berlin 2019.

In der Kognitionsforschung gibt es das Phänomen des "confirmation bias". Der Bestätigungsfehler beschreibt die Neigung der Menschen, Informationen und Fakten so auszuwählen und sich anzueignen, dass die den eigenen Erwartungen entsprechen. Viele wollen die eigenen Überzeugungen bestätigen. Sie verwischen die Grenze zwischen seriöser Wissenschaft und pseudowissenschaftlicher Glaubenskriegerei. Wissenschaft ist auch kein "Gewissheitsgenerator", sie erzeugt allenfalls methodisch kontrolliertes Wissen. Vgl. Mau, Stefan: Das metrische Wir. Über die Quantifizierung des Sozialen, Suhrkamp 2017.

 

Manipulation durch Statistik:

1. Absolute und relative Zahlen. Bezug im unklaren lassen. Wenn nur die absolute Zahl angegeben ist, nach der relativen fragen. Wenn nur die relative Zahl (Prozentzahl) angegeben ist, nach der absoluten Zahl (Basis) fragen. Der letzte Fall kommt häufiger vor.

2. Definition von Begriffen. Nach einer klaren Definition fragen. Bei nominalen Definitionen ist die Operationalisierung schwieriger. Definitionen müssen messbar sein. Also muss eine praktikable operationale Definition vorliegen.

3. Fälschungen. Immer nach empirischen Studien und nach Details der Forschung fragen.

4. Genaue Zahlenangaben als Bluff. Analysieren, ob genaue Zahlen überhaupt ermittelbar sind. Berechnungsmethode überprüfen bzw. zeigen lassen. Gibt es Schätzgrößen?

5. Lange Zeiträume erzeugen große Veränderungsraten und große Gesamtergebnisse. Bezugszeitraum überblicken und jährliche Entwicklung errechnen. Inflation berücksichtigen bei Geldbeträgen.

4. Grafiken kreativ gestalten. Achsen der Diagramme überprüfen. Fangen sie bei Null an? Daten in anderer Form (Tabelle nachfragen, für Profis besser).

5. Prognosen konstruieren und als künftige Wirklichkeit darstellen. Immer nach den zugrunde liegenden Annahmen fragen. Sind sie realistisch?

6. Randvarianten gezielt erstellen und ausnutzen. Gibt es unterschiedliche Szenarien? Wurden mehrere Varianten gerechnet?

7. Rankings nach unbekannten Kriterien. Nach den Kriterien fragen. Ist die Gewichtung vernünftig.

8. Steigerungsraten zu besonders ausgewählten Basisjahren. Auf Basiseffekte achten. Möglichst viele zurückliegende Werte. Möglichst alle Daten im umfeld besorgen.

9. Stichprobenverzerrungen - Unsicherheiten der Hochrechnung verschweigen. Stichprobengröße. Auswahlverfahren. Gesamtheit.

10. Teile zum Ganzen erklärt.

11. Ursachen vorgaukeln. Korrelationen überinterpretieren.

12. Vergleiche von Unvergleichbarem.

13. Ganzheitliche Sicht. Keine Aspekte unter den Tisch fallen lassen.

Siehe Bosbach, Gerd/ Korff, Jens Jütgen: Echt gelogen. Wer uns mit Statistiken manipuliert und wie wir die Zahlentricks durchschauen, München 2019.

14. Drei Tipps für ein besseres Zahlenverständnis: 1. Merke, was du fühlst. 2. Klick mal auf was anderes. 3. Akzeptiere Unsicherheit. 4. Vorsicht vor Interessenkonflikten.

15. Checkliste, was man tun sollte: Frage 1: Wer legt die Zahl vor? Frage 2: Was empfinde ich angesichts der Zahl? Frage 3: Wie wurde standardisiert? Frage 4: Wie wurden die Daten erhoben? Frage 5: Wie wurden die Daten analysiert? Frage 6: Wie werden die Zahlen präsentiert?

Vgl. Blauw, Sanne: Der größte Bestseller aller Zeiten. Wie Zahlen uns in die Irre führen, München (DVA) 2019, S. 170f., 185ff. Auch: Bosbach, Gerd/ Korff, Jens Jürgen: Echt gelogen, München 2019. Bauer/ Gigerenzer/ Krämer: Warum dick nicht doof macht und Genmais nicht tötet, München 2016. Krämer, Walter: So lügt man mit Statistik, Frankfurt/ New York 1992.

 

Datenethik und Qualität der Statistik:

"Die Daten sprechen nicht für sich. Wir sprechen für sie. Wir verleihen ihnen Sinn". Nate Silver: Die Berechnung der Zukunft, Heyne 2013. Das ist eine fundamentale Aussage für die Statistik und Kernproblem der amtlichen Statistik. Sie erhebt unendlich viele Daten, lässt aber potentielle Nutzer allein mit diesem Schatz. Der amtlichen Statistik kann man normalerweise in allen Ländern trauen. Allerdings gibt es einige wenige Länder, die auch die Deutungshoheit über ihre Daten beanspruchen.

Zehn Fragen sollte man stellen, wenn man mit einer Behauptung konfrontiert wird, die sich auf statistisches Material stützt (Vertrauenswürdigkeit!).

1. Wie rigoros wurde die Studie durchgeführt?

2. Wie groß ist die statistische Unsicherheit in den Ergebnissen (bzw. die Konfidenz)?

3. Ist die Zusammenfassung zutreffend?

4. Wie verlässlich ist die Quelle der Story?

5. Wurde die Geschichte "hingedreht"?

6. Was wird mir nicht erzählt?

7. Wie vertrauenswürdig ist die Behauptung mit dem, was darüber hinaus noch bekannt ist?

8. Wie lautet die behauptete Erklärung für die gemachten Beobachtungen?

9. Wie relevant ist die Story für ihre Adressaten?

10. Ist der behauptete Effekt wichtig?

"Den Statistikern dieser Welt mit ihren liebenswerten Eigenschaften der Pedanterie, Großzügigkeit und Integrität - stets bestrebt, aus den verfügbaren Daten das denkbar Beste zu machen", s. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 6 (auch für den Inhalt oben)

 

Statistik und Prognose: Notwendige Bedingung?

 "Vorhersagen sind schwierig, vor allem über die Zukunft", (wird Mark Twain, Niels Bohr oder Albert Einstein zugeschrieben). Eine Studie der Universität Oxford 2015 weist nach, dass aufwendige Konjunkturprognosen nicht treffsicherer sind als kundige Schätzungen (Simon Wren-Lewis).

Die Prognose ist eines der schwierigsten Gebiete der empirischen Wirtschaftsforschung. Im langfristigen Durchschnitt bewegen sich die Fehler bei Konjunkturprognosen in einer Größe von mehr als einem Prozentpunkt. Die "Wirtschaftsweisen" irrten sich im Schnitt um 1,22 Prozentpunkte. Für 2013 lieferte die Deutsche Bundesbank die treffsicherste Prognose (Wachstum 0,4%, Inflation 0,5%). Die Wirtschaftsforschungsinstitute, die EU-Kommission und die Banken hatten das Nachsehen. Exakte Prognosen sind im Bereich der Bevölkerung und der Ernte möglich. In der Regel sind Prognosen bedingt, d. h. sie treffen nur zu, wenn bestimmte angenommene Rahmenbedingungen eintreten. In der Statistik wird normalerweise die Trendextrapolation mit Hilfe der linearen Regression gelehrt. Im 17. Jahrhundert schrieb der Wissenschaftler Robert Boyle eine so genannte Wunschliste der Zukunft. Die meisten Vorhersagen wurden war: Krankheiten durch Transplantation heilen, fliegen können, geographische Breiten finden (Navi) und ein Schiff, das mit allen Winden segelt (Motorschiff). Konjunkturprognosen scheitern oft an einschneidenden Ereignissen (Krisen, Kriegen, Naturkatastrophen). Konjunkturprognosen werden Sinnvollerweise auf der Grundlage saisonbereinigter Daten erstellt. Extreme Wetterlagen werden aber nicht richtig berücksichtigt. Oft werden Prognosen als bedingte Prognosen ausgeführt (verschiedene Annahmen), was zu verschiedenen Szenarien führt. Eine immer größere Rolle spielen politische Krisen in Prognosen. Sie gehören zu den Bedingungen, die schwer einzuschätzen sind.

In Prognosen sind die Wirtschaftswissenschaften immer recht ungenau ("dismal science", im angelsächsischen Bereich gegenüber den exakten Naturwissenschaften). Das liegt daran, dass in wirtschaftlichen Zusammenhängen Menschen im Mittelpunkt stehen. Menschliches Verhalten ist nur bedingt vorhersehbar (Menschen ändern ihr Verhalten). Häufig unterliegen Wissenschaftler auch der Versuchung, aufgrund der Vergangenheit die Zukunft vorauszusagen. Meist macht die Ökonomie nur "wenn - dann - Aussagen". Man spricht auch von Szenarien.

Nicht vorhersehbar sind etwa Pandemien. Corona hat für diesen Zeitpunkt Frühjahr 2020 niemand vorhergesehen. Umso schwieriger wird das Geschäft der Prognose. Es geht um die Frage, wie stark die Wirtschaft leidet. Mathematik und Bauchgefühl müssen optimal kombiniert werden. Man spricht auch von "educated guess": Es handelt sich immer um eine Einschätzung von klugen, exzellent ausgebildeten Menschen, die sich mit allen verfügbaren Hinweisen beschäftigen, um herauszufinden, "wohin das Auto mit den zugeklebten Scheiben fährt". Siehe und vgl. Rudzio, Kolja: Mit Mathematik und Bauchgefühl, in: Die Zeit Nr. 49, 26.11.20,S. 32.

In Prognosen sind die Wirtschaftswissenschaften immer recht ungenau ("dismal science"), im angelsächsischen Bereich gegenüber den exakten Naturwissenschaften). Das liegt daran, dass in wirtschaftlichen Zusammenhängen Menschen im Mittelpunkt stehen. Menschliches Verhalten ist nur bedingt vorhersehbar (Menschen ändern ihr Verhalten). Häufig unterliegen Wissenschaftler auch der Versuchung, aufgrund der Vergangenheit die Zukunft vorauszusagen. Meist macht die Ökonomie nur "wenn - dann - Aussagen". Man spricht auch von Szenarien.

Nicht vorhersehbar sind etwa Pandemien. Corona hat für diesen Zeitpunkt Frühjahr 2020 niemand vorhergesehen. Umso schwieriger wird das Geschäft der Prognose. Es geht um die Frage, wie stark die Wirtschaft leidet. Mathematik und Bauchgefühl müssen optimal kombiniert werden. Man spricht auch von "educated guess": Es handelt sich immer um eine Einschätzung von klugen, exzellent ausgebildeten Menschen, die sich mit allen verfügbaren Hinweisen beschäftigen, um herauszufinden, "wohin das Auto mit den zugeklebten Scheiben fährt". Siehe und vgl. Rudzio, Kolja: Mit Mathematik und Bauchgefühl, in: Die Zeit Nr. 49, 26.11.20, S. 32.

Das Zentrum für gesellschaftlichen Fortschritt (Stefan Bergheim) misst seit 1970 die gesellschaftliche, ökonomische und ökologische Entwicklungen in 22 reichen Ländern. In diesem Fortschrittsindex liegen die skandinavischen Länder Norwegen, Schweden und Finnland vor Japan. Deutschland liegt an 18. Stelle. Berücksichtigt werden vier Dimensionen: Bildung, Einkommen, Gesundheit, Umwelt. Die Wirtschaftswoche (zusammen mit GPRA und TNS Emnid) berechnet einen Vertrauensindex für unterschiedliche Sparten in Deutschland. Hier liegen Die Automobilbranche und Lebensmittelbranche an der Spitze. Bewertet werden Ehrlichkeit, gesellschaftliche Verantwortung, vertrauensvoller Umgang mit den Mitarbeitern, vertrauensvoller Umgang mit Kunden und Kompetenz bzw. Qualität.

Nirgendwo sind Prognosen schwieriger als an der Börse. Die alten Modelle der Banken waren nicht komplex genug. Den Berechnungen der Ökonomen fehlte die Aktualität. Nun versuchen Hedge - Fonds den chaotischen Anforderungen mit Künstlicher Intelligenz (KI) gerecht zu werden. Die ersten Versuche sind viel versprechend. Wenn die Erfolge sichtbar sind, wird sicher die Konjunkturprognose insgesamt auf KI zurückgreifen. Die Zahlen des Statistischen Bundesamtes müssten aber schneller zur Verfügung stehen und transparenter sein. Das Bundeswirtschaftministerium hat 2019 ein Projekt "Big Data und Makroökonomie" gestartet. Vgl. Losse, Bert: Die schwierige Kunst der Propheten, in: WiWo 27, 28.6.2019, S. 38f. Vielleicht lassen sich mithilfe von künstlicher Intelligenz Vorhersagen verfeinern. Vielleicht kann man dadurch sogar Förderprogramme zielgenau zuschneiden.

Empirische Wirtschaftsforschung mit Algorithmen (virtuelle Ökonomie, Data Science): Man spricht von Artifical Intelligence (AI) Economist. Mit Hilfe riesiger Datenmengen soll das Verhalten der Wirtschaftssubjekte unter verschiedenen Rahmenbedingungen simuliert werden. Nicht volkswirtschaftliche Theorien stehen im Mittelpunkt, sondern Algorithmen. Es geht weniger um die Überprüfung theoretischer Hypothesen, sondern  darum, Muster zu erkennen und Vorhersagen zu treffen. Ein Salesforce - Team arbeitet an einem Forschungsprojekt dazu (Richard Socher, David Parkes/ Harvard). Als erstes Untersuchungsprojekt wurde die Steuer- und Verteilungspolitik ausgewählt. Noch werden Faktoren wie Bildung, Religion, Status, Geschlecht nicht berücksichtigt. Das Modell ist noch relativ einfach. In Deutschland könnte der hohe Datenschutz eine Hürde sein. Beim Bundesforschungsministerium wurde ein rat für Sozial- und Wirtschaftsdaten eingerichtet. Vgl. Losse, Bert/ Hohensee, Matthias: Professor Algorithmus, in: WiWo 26, 196.2020, S. 38f.

Firmenmodelle für die Zukunft: Grundlage kann etwa die Formtheorie von Spencer-Brown sein. Das Zukunftsinstitut entwickelte daraus die Methode der Re-Gnose. Die Position eines Unternehmens wird in Markt und Gesellschaft ganzheitlich verortet. Damit wird die Grundlage für einen Wandlungsprozess gelegt. Produkt, Verfahren, Organisation, Markt, Wirtschaft, Gesellschaft, Mensch werden verbunden mit Arbeit, Management, Business Modell, Unternehmenskultur, Kommunikation, Grundbedürfnissen. Vgl. Horx, Matthias: Die Zukunft nach Corona, Berlin (Econ) 2020.

Funktionsweise von Prognosen: Wichtig ist das zugrunde liegende Modell. Bekannt ist der Zukunftstrichter von Joseph Voros. Es ist ein Versuch, die Unmöglichkeit von Prognosen abzubilden. Je weiter sie in dei Zukunft reichen, formt sich in einem Koordinatensystem ein Trichter, dessen Spitze in der Gegenwart liegt und Richtung Zukunft immer weiter wird. Hierin sind auch wichtige Ereignisse abgebildet (Krebserkrankungen sind besser behandelbar, Aktivitäten im Metavers, Dritter Weltkrieg, Erderwärmung). Vgl. Fichtner, Ullrich: Geboren für die großen Chancen, in: Der Spiegel Nr. 52. 24.12.21, S. 12ff.

Geschichte von Prognosen: Eine der ersten Denkfabriken für Zukunftsforschung war die RAND Corporation in den USA. Sie wurde 1948 vom Flugzeugbauer Douglas gegründet. Sie erstellte Studien und Analysen für das Militär. Es gab schon Vorläufer während des Krieges. Im Kalten Krieg entstanden solche Forschungseinrichtungen auch in anderen Ländern für militärische Zwecke. Erst in den Sechzigerjahren entstanden zivile Einrichtungen. Die Zuverlässigkeit der Vorhersagen kann kaum geprüft werden. Jede Vorhersage verändert die Gegenwart und auch die Zukunft.

"Der Trend stellte sich stets schwächer dar, ich selbst wurde bald nichtlinear. Ich sah das Gedankengebäude stehn, von außen, als wär` ich exogen. Und niemals werde ich erfahren, was Ober- und Untergrenze waren. Mein Geist mir selbst der Unbekannte, vermengt ex post nun mit ex ante: Meine Gedanken sind unelastisch, mein Handeln unheilbar stochastisch". Aus "Klagelied des Nicht-Ökonometrikers" von D. H. Robertson (O. V. Trebeis: Nationalökonomologie, Tübingen 1994, S. 251f.

 

Statistik in China, ihre Geschichte, ihre Gewinnung, ihre Qualität und ihre Genauigkeit:

China hat andere Maßeinheiten als der Westen. So gibt es zum Beispiel folgende Längeneinheiten: 1 Fen = 3,2mmm, 1 Cun = 32 mmm, 1 Chi = 32 cm, 1 Zhang = 3,2 m, 1 Li = 576 m. Folgende Flächeneinheiten sind bekannt: 1 Mu = 0,06 ha, 1 Qing =6,14 ha. Maßeinheiten sind: 1 Jin = 597 kg, 1 Jun = 7,68 kg. Volumeneinheiten sind: 1 Dou = 10,4 l, 1 Dan = 103,5 l.

Zahlen spielen in der chinesischen Vorstellung eine große Rolle: die 4 symbolisiert aufgrund der phonetischen Nähe zum Wort "Tod" das Unheil. Die 8 verspricht Glück (vor allem buddhistisch begründet). Die 7 steht für Veränderung. Die 9 war als höchste Zahl einstmals nur der Kaiserfamilie vorbehalten und stand für langes Leben. Dies lässt sich heute noch in Qufu beobachten. Der Mathematiker Zhang Quijian lebte etwa von 430 bis 490 in China. Das einzige, was der Nachwelt von ihm geblieben ist, ist sein Handbuch der Mathematik mit dem Titel "Zhang Quijian Suanjing" (drei Kapitel mit insgesamt 92 Problemen). Die 0 (Ziffer) machten die Inder zur Zahl, die dann  im Orient eingeführt (bei den Römern unbekannt) wurde, ebenso prägten die Araber die Gründzüge der Algebra. Der Grieche Pythagoras (570 bis 510 v. Chr., Samos) gilt zusammen mit Thales als der Vater der Mathematik (570-500 v. Chr., "Alles ist Zahl"). Vor über 2000 Jahren legte dann Archimedes aus Syrakus die Grundlagen der Kombinatorik und der Integralrechnung. Die Römer und Chinesen konnten mit beiden Händen 100.000 abzählen. Im Computerzeitalter wird dort heute auf diese Art wie bei uns nur noch bis 10 gezählt. In der abendländischen Kultur haben die Zahlen "Drei, Zehn und Zwölf" eine besondere positive Bedeutung. Die 13 gilt als Unglückszahl, die 11 als "verrückte" Zahl.

Die amtliche Statistik ist in China so alt wie das Kaisertum. Um ein Land von dieser Größe regieren zu können, brauchte man immer eine genaue Datengrundlage. Als offizielles Amt entstand das Statistikbüro in China wie überall auf der Welt im 19. Jahrhundert, vorher war es in die kaiserliche Verwaltung integriert. Das Deutsche Statistische Reichsamt wurde 1871 gegründet. Etwa zeitgleich auch das Amt in China. Anfangs gab es zwischen den Ämtern enge Kontakte und einen Austausch. Die deutsche Statistik hat die Methoden und die Organisation der Ämter in China (und auch in Japan) stark beeinflusst. Es gibt noch heute eine engere Zusammenarbeit (auch mit der Bundesbank bei der Geldstatistik). Großen Einfluss auf die chinesische Statistik hatte ein anderer Europäer: Der Ire Sir Robert Hart, der jahrzehntelang das Zollamt der Qing - Dynastie leitete, führte im 19. Jh. viele moderne Statistiken in China ein. Heute hat China noch drei offizielle Statistikämter: National Bureau of  Statistics  of China, Peking , Hong kong, Census and Statistic Department, Directorate General of Budget, Accounting and Statistics, Taiwan.

Quellen: Ich habe mich mal intensiver mit der chinesischen Statistik beschäftigt und das auch eine zeitlang in der Lehre gebracht. Im Folgenden die wichtigsten Quellen dazu: 1. Cremer, Rolf: Amtliche Statistik in der Volksrepublik China - Organisation, und Leistungsangebot - in: Allgemeines Statistisches Archiv, 66. Bd. 1982, S. 395ff. 2. Heuser, Robert: Das Statistik-Gesetz der Volksrepublik China, in: Allg. Statistisches Archiv 1985, S. 223-232. 3. Chow, Gregory C. : Chinese Statistics, in: The American Statistician, August 1986, vol. 40, No. 3, S. 191ff. 4.. Moore, Waltraud: Das chinesische Statistiksystem im Wandel, in: Wirtschaft und Statistik 5/ 1996, S. 289ff. 4. Moser, Günter: Die Strukturreformen des chinesischen Statistiksystems, in: Journal of Current Chinese Affairs, 1/2009, S. 181 - 201. Die Informationsgewinnung und das Informationsangebot werden staatlich gesteuert. Das ist aber in jedem Land der Welt so. Die größten Manipulationsmöglichkeiten ergeben sich in der Informationsverbreitung (wann und was).  Die Statistik ist in Asien insgesamt etwas mehr abhängig vom Staat - wie auch die Notenbanken und andere Institutionen. Das ist mehr kulturell als politisch beeinflusst. Wir haben 1991 mal beim Statistischen Bundesamt  untersucht, ob die DDR Daten manipuliert hatte. Das konnte nicht nachgewiesen werden. Unterschiede und Unklarheiten ergaben sich aus anderen Definitionen und Abgrenzungen.

Arbeitsmarkt. Schon 1979, gleich am Anfang der Reformen, wurde für die Arbeiter ein Bonussystem eingeführt. Das alte, anreizlose System (egalitäre Bezahlung) wurde sukzessive zurückgefahren. Die Arbeiter konnten selbst bestimmen, wie sie die Boni untereinander aufteilten. Mitte der 1980er Jahre kam dann eine weitere Reform: die Einführung von Arbeitsverträgen. Die Arbeitslosigkeit ist sehr ungenau: In China wird der Arbeitsmarkt statistisch nicht korrekt erfasst. Gezählt wird die Arbeitslosigkeit der städtischen Bevölkerung. Das liegt an Chinas Einwohnermeldesystem (Hukou). Wer in einer Stadt geboren ist, wird automatisch als Arbeiter registriert, wer auf dem Lande geboren ist, als Bauer. Also tauchen die Bauern, die als Wanderarbeiter ihre Heimat verlassen, nicht in der Statistik auf. Das hat natürlich dramatische Auswirkungen in großen Krisen (wie 2020 in der Corona-Krise, wo das Schicksal der Wanderarbeiter nicht zur Kenntnis genommen wird; 2008 in der Finanzkrise konnte ich mich selbst davon überzeugen: Die Züge waren voll von Wanderarbeitern in der Holzklasse, die in ihre Heimat zurück kehrten; das gleiche ist in Indien der Fall). Das Niveau der Arbeitslosenversicherung ist auch noch gering, so dass Beiträge und Leistungen von Provinz zu Provinz variieren. Die Ungenauigkeit der Arbeitsmarkt- und Arbeitslosenstatistik kann man also nicht der Statistik anlasten, sondern der Verwaltung. Viele Anzeichen sprechen aber dafür, dass die Arbeitslosigkeit in China gestiegen ist. Das zeigen Befragungen in den Großstädten oder Daten des Jobportals Zhaopin. Die Unternehmen halten sich im Handelsstreit mit den USA mit der Arbeitsnachfrage zurück. Die Staatsfirmen lassen sich nur noch bedingt dazu anhalten, Arbeiter nicht zu entlassen. Die Digitalisierung dürfte auch zu Arbeitsplatzverlusten führen, weil China nicht mehr länger die Werkbank der Welt ist. Der Dienstleistungsbereich kann nicht genügend ausgleichen. Entlastung bringt etwas die Demographie. Vgl. Petring, Jörn: Das chinesische Arbeitsmarkträtsel, in: Wirtschaftswoche 16, 12.4.2019, S. 38ff. 

2018 wird die Berechnung der Arbeitslosenzahlen etwas angepasst: Man stützt sich jetzt auf Umfragen, in die die Wanderarbeiter einfließen. Allerdings werden die Umfragen nur in Städten durchgeführt. Gavekal Dragonomics (Forschungsinstitut, Analysehaus) schätzt Ende Mai 2020 die Zahl der Arbeitslosen auf 60 bis 100 Mio.

Preise.  In der Landwirtschaft fing die Marktwirtschaft an. Bauern bekamen zunächst kleine Flächen zugewiesen, auf denen sie anbauen und anpflanzen konnten, was sie wollten. Die Ernte durften sie dann auf Märkten zu Marktpreisen verkaufen. Sukzessive wurde so die kollektivistische Landwirtschaft privatisiert. Das nützte Bauern und Verbrauchern. Es war eine wichtige Frage. Unter Mao wurden die Preise staatlich festgelegt, egal ob Gemüse, Kleidung oder Maschinen. Guangdong im Süden Chinas durfte als erste Stadt Stück für Stück Preiskontrollen reduzieren, besonders für Agrarprodukte. Dei Preise für Konsumgüter wurden schneller freigegeben als für Industriegüter. 1988 hatte Guangdong fast keine regulierten Preise mehr (in der Anfangsphase holte man sich Beratung in Statistischen Bundesamt in Wiesbaden, was die Preismessung anging). Es gab ein staatliches Preisamt in Peking, was dann auch die Ermittlung der Marktpreise übernahm. Es wandelte seine Funktion von der Preissetzung und Preispolitik zur Preismessung.

Finanzmärkte: Der Hang Seng Index (H-Index) hat seinen Namen von Hongkongs Hang Seng Bank, die den Index 1969 ins Leben rief (chinesisch, "stets wachsend").  Mittlerweile ist auch der CSI-300 in Shanghai (zusammen mit dem Component Index in Shenzhen) etabliert. Ein Index für die Börse in Tianjin wird noch eingerichtet. Hier liegt die Schwäche also in der Vielfalt, was für Anleger aber auch Vorteile hat (man sollte bei den Aktien von Firmen  auf die Vertretung in mehreren Indices achten: mindestens Hang Seng und Shanghai).

Auch in der Sozialistischen Marktwirtschaft in China ist das BIP der wichtigste Indikator. Experten zweifeln aber diese Zahl an. Es stehen 5,5% Revidierung nach unten im Raum. Folgende Indikatoren sprechen für eine Korrektur nach unten: Energieverbrauch, Wachstumsraten in den Provinzen geschönt, Rückgang der Importe, Dienstleistungssektor schlecht erfasst. Es fehlt auch die Transparenz wie das Statistikbüro genau den Wert des Bruttonationaleinkommens ermittelt. Einen großen Anteil haben Schätzungen. Einige Analysehäuser sehen das Wachstum jeweils um bis zu 5% niedriger. Eine völlig unterschätzte Rolle spielen die Lokalregierungen, die gezielt falsche Zahlen liefern. Das jeweilige Statistikbüro will die Vorgaben der Regierung erfüllen. Manchmal müssen die Zahlen dann auch schnell wieder revidiert werden. Lokalregierungen melden oft geschönte Zahlen nach Peking, um besser vor der Zentralregierung dazustehen.  "Zombie-Fabriken" (nicht ausgelastet, falsche Zahlen) tragen auch zu Verzerrungen bei (man kann über 50 Mio. Unternehmen nicht vollständig im Blick haben). Chinas Wirtschaft wächst seit 1978 ohne Unterbrechung. Der Durchschnitt liegt bei fast 10 Prozent. Erst ab 2018 kommt der Einbruch mit wesentlich geringeren Wachstumsraten. Aus meiner eigenen statistischen Erfahrung und dem engen Kontakt zu chinesischen Kollegen gehe ich davon aus, dass die Statistik relativ genau ist, allerdings unter Berücksichtigung der obigen Rahmenbedingungen (Dimensionen, die wir uns kaum vorstellen können). Vgl. Fernald, J./ Hsu, E./ Spiegel, M. M.: Is China Fudging its Figures? Evidence from Trading Partner Data, Federal Reserve Bank of San Francisco, Working Paper, Nr. 2015-12, 2015. Auch: Chen, Z./ Liu, C./ Liu, J.: The Financing of Local Government in China: Stimulus Loans Wane and Shadow Banking Waxes, VoxChina, 9.7.2017.

Es gibt auch mittlerweile eine Reihe alternativer Aktivitätsmaße für die chinesische Wirtschaft. Sie können ergänzungsweise herangezogen werden.. Für China entwickelt wurde der Keqiang-Index. Er wurde nach dem jetzigen Premierminister Chinas Li Keqiang benannt, der in einem Gespräch mit US-Diplomaten die offizielle Statistik des Nationalen Statistikbüros als "menschengemacht und unzuverlässig" abtat. In den Index gehen die wirtschaftliche Aktivität anhand der Variablen Energieverbrauch (Strom), Kreditvergabe und Eisenbahnfrachttonnen (Frachtvolumen) ein. Große Bedeutung hat mittlerweile der Einkaufsmanager-Index (PMI) für die Beurteilung der chinesischen Industrieaktivitäten. Das Wirtschaftsmagazin "Caixin" veröffentlicht ihn regelmäßig. Zu Beginn 2016 führt ein Rückgang von 48,6 auf 48,2 zu Aktieneinbrüchen in Shanghai. Sehr starke Aufmerksamkeit richtet man in China auf die Entwicklung der Erzeugerpreise (Index der Erzeugerpreise). Ein deutlicher Rückgang zeigt in der Regel Konjunktureinbrüche an. China Satellite Manufactoring Index: Er überwacht die Industrieproduktion. Per Satellit werden 6000 Industrieregionen beobachtet (Start up Space now).

Lichtintensität der Nacht: Umweg, um Wirtschaftsdaten zu überprüfen, auch in China. die Lichtstärke lässt sich über Satelliten weltweit messen. Es gibt eine nachweisbare Korrelation zwischen Helligkeit und Wirtschaftsleistung. So kann man die Plausibilität des offiziell ausgewiesenen Wachstums überprüfen. In demokratischen Ländern scheint weniger manipuliert zu werden. In China sind die Abweichungen gewaltig. Insofern bestehen Zweifel, an den chinesischen Wachstumszahlen. Vgl. Losse, Bert: "Chinesischen Zahlen dürfen wir nicht trauen", in: WiWo 6/ 3.2.23 (Interview mit Bruno S, Frey), S. 40f.

Eine Konjunkturabschwächung in China ab 2018 ist aber unbestritten. Zahlreiche Indikatoren signalisieren das. Besonders schlecht ist die Stimmung 2019  in kleinen und mittleren Unternehmen (Einkaufsmanagerindex). Sowohl bei Exporten als auch bei Importen haben sich die Zuwächse stark abgeschwächt. Hier wirkt sich die Handelspolitik aus. Vgl. Gern, K.-J. / Hauber, P.: Konjunkturabschwächung in China, in: Wirtschaftsdienst 3/ 2019, S. 227f. Die kleinen und mittleren Unternehmen (bis zu 50 Mio.!) tauchen genau in keiner Statistik auf (das hängt auch mit Schattenwirtschaft zusammen). Folglich gibt es auch keine genauen Pleite- und Insolvenzzahlen. Forschungsprojekte - ich hatte 2008 eines im Perlflussdelta, wo ungeheuer viele KMU sitzen,  geplant - werden nicht unterstützt bzw. boykottiert.

Corona-Krise:  Immer mehr Hinweise deuten darauf hin, dass die Zahlen in China nicht stimmen: Viele nehmen als Schattenzahlen die Urnen bei den Bestattungsunternehmen oder die Schlangen vor den Krematorien. Dann kommen Schätzungen in Wuhan allein auf 26.000 Tote mehr (gegenüber Durchschnitt). Die Führung in China scheint eine Mundtot-Politik zu betreiben bzw. ein großes Interesse daran zu haben, dass die Wirtschaft wieder in den Normalzustand kommt. Der 04.04.20 wird zum nationalen Gedenktag für Corona (Vier ist die Zahl des Todes in China, weil die Aussprache ähnlich klingt). Es ist aber seit über 1000 Jahren sowieso das Toten-Gedenkfest. Am 06.04. soll es erstmals keinen Corona - Toten gegeben haben. Insgesamt hatte China 82.803  Infizierte und 3336 Tote (offiziell). Stand dafür ist Anfang Mai 2020. Danach flammt die Seuche immer wieder auf in ganz China. 2022 weicht China ganz plötzlich von seiner Null - Covid - Strategie ab. Das ist eine 180-Grad Drehung. Danach gehen die Todesfälle wieder steil nach oben (Opfer sind vor allem ältere Menschen, die nicht geimpft sind).

Aktuelle Chinesische Wachstumszahlen: Beim Weltwirtschaftsgipfel in Davos im Januar 2024 umgarnt Chinas Premierminister Li Qiang internationale Investoren. Er verkündet die Wachstumszahlen des BIP für 2023: Das BIP-Wachstum liegt bei 5,2%. Im Vorjahr betrug das Wachstum noch 3,0%. Li Qiang teilte die neuen Zahlen stolz mit und sagte "Chinas Markt sei kein Risiko, sondern eine Chance". Bei einer Online-Veranstaltung von Merics/ Berlin zweifelt der EU-Botschafter Jorge Toledo die Zahlen offen an. Er stellte die Glaubwürdigkeit in Frage. Er verwies auf Analysten, dei die Schwäche des Immobiliensektors betrachten. Auch der Binnenkonsum habe sich nicht erholt. Man spricht von In-Transparenz der statistischen Zahlen. Internationale Beobachter raten tatsächlich zu Skepsis. Sie stört auch die Ignoranz der Parteiführung gegenüber öffentlichen Missständen. Dagegen Li Qiang in Davos: "China wird an der fundamentalen Politik der Öffnung festhalten und seine Tür zur Welt noch weiter aufmachen". Toledo verweist darauf, dass man mittlerweile sogar für das Betreten eines Universitätscampus eine schriftliche Genehmigung brauche. Vgl. auch: Kretschmer, Fabian: Zweifel an Pekings Statistiken, in: Die Rheinpfalz 19.01.24.

"Wer nie einmal betrogen wurde, kann kein Kenner von Geschäften werden", aus China.

 

Statistiksystem in Japan (auch Marktforschung):

Das Statistische Büro und das Statistische Zentrum gehören in Japan zur Management and Coordination Agency (MCA). Diese Behörde wurde 1984 eingerichtet. Sie gehört als externes  Organ zum Büro des Premierministers. Sie wird also direkt vom Premierminister kontrolliert. Das ist typisch für viele asiatische Länder, in denen die amtliche Statistik direkt mit der Exekutive verbunden ist.  Sitz ist natürlich Tokio. Die MCA ist eine sehr einflussreiche Behörde: Sie hat 6 Aufgaben. 1. Personalmanagement der Regierung. 2. Organisationsstruktur der Regierung. 3. Administrative Aufsicht und Beratung der Ministerien. 4. Koordinierung von Programmen und Politiken der Regierung. 5. Pensionsprogramm der öffentlich Bediensteten. 6. Statistik.

Die Statistik besteht aus zwei Institutionen. Das Statistik-Büro führt Surveys durch (Arbeit, Konsum, Wirtschaft), es ist verantwortlich für die statistischen Standards und es macht generelle Arbeit (Bücherei, Information, Planen). Das Zentrum hat folgende Aufgaben: Systematik, Tabellen, Verwaltung, Informatik).

Das System und auch der Inhalt der amtlichen Statistik wurde ursprünglich stark vom Reichsamt für Statistik in Deutschland (ab 1871) beeinflusst, weil es enge Kontakte zwischen den beiden Kaiserreichen gab. Die Adressen der einzelnen Ämter sind bei Links dargestellt (4.3 Amtliche Statistik international, Asien). Eine Besonderheit stellt die Marktforschung japanischer Unternehmen dar. Sie wird im Ausland zentral von einem Institut durchgeführt. Der Name dieser Institution ist JETRO.

 

Corona-Krise und Statistik:

"Eine Krankheit kommt so rasch, wie eine Mauer fällt. sie geht so langsam, wie man Seide vom Kokon löst", aus China. Quelle: O. V.: Reiskörner fallen nicht vom Himmel, (Gustav Kiepenheuer) Leipzig und Weimar 1990, S. 22.

Am Anfang der Seuche waren die Letalitätsraten (Anteil der Toten an den Infizierten) relativ hoch: in Wuhan 17%, in Italien 5%. Das hängt mit der Erfassung der Basis zusammen (Basiseffekt). Man hat anfangs die Zahl der Infizierten, also den Nenner, nicht genau messen können (Tests fehlten, Infrastruktur schlecht, viele Infizierte, vor allem Kinder haben kaum Symptome). So sind die Letalitätsraten dort am zuverlässigsten, wo die Erfassung am Genauesten war (Singapur, Südkorea). Statistisch handelt es sich um eine Verhältniszahl, genauer Gliederungszahl. Diese haben immer diese typischen Probleme. Am Tag der Bekanntgabe einer Zahl müsste man die eigentlich auch mal drei nehmen. Ein Infizierter hat bei seiner Registrierung schon drei Menschen angesteckt, also hinkt man immer bei den Zahlen ca. zwei Wochen hinterher. Die Entwicklung der Infiziertenzahlen ist mathematisch exponentiell. Nach Angaben der WTO, die auch in China genauer messen konnte, liegt die Letalitätsrate bei 0,5% bis 0,7% (jeder Zweihundertste, je nach Messung, Infrastruktur, Gesundheitswesen, Labore). In Deutschland lag die Letalitätsrate immer darunter. Wichtig ist statistisch auch die Grenze der Nachverfolgung: Ab welcher Zahl kann man Infektionsketten noch zurückverfolgen und kontrollieren. Diese Grenze dürfte bei 200 liegen (variabel nach Qualität der Verwaltung, Gesundheitssystem und Kultur). Es gibt auch eine hohe Dunkelziffer. Die Zahl der Infizierten muss mal 5 oder 6 genommen werden. Wenn man die Infizierten nicht testet (wie überwiegend in GB und den USA) hat man völlig verzerrte Zahlen, die nicht vergleichbar sind. Ganz wichtig ist die (Basis-) Reproduktionszahl. Sie indiziert den Grad der Verbreitung (1= steckt eine Person an; wünschenswert unter 1, 17.4. in D 0,7). Allerdings darf man diese Zahl nicht alleine betrachten: Hinzu kommen müssen immer die tägliche Zahl der Neuinfizierten, die Verdopplung und die zahl der Intensivbetten. Die Zählweise ist international auch unterschiedlich ("Zahlensalat"): In Deutschland zählt das RKI in Berlin. Die Zahlen werden von den Gesundheitsämtern in Deutschland nach oben gemeldet. Durch Zeitverzögerungen sind sie immer niedriger.  Weltweit kommen Zahlen von der WHO und der John Hopkins Uni in Baltimore/ USA. John Hopkins arbeitet mit Schätzungen und kommt immer auf höhere Fallzahlen.  Hier gehen die Zahlen der WHO, den Gesundheitsämtern und sozialen Medien ein. Die Anzahl der Tests, die Einbeziehung von Genesenen (Antikörper) haben großen Einfluss. Die WHO hinkt mit ihren Zahlen am weitesten hinterher.  Noch nicht einmal die Anzahl der Toten ist verlässlich: in Italien wird anders als in Deutschland erfasst, ob Verstorbene Corona positiv sind (das sagt, dass sie mit dem Virus gestorben sind, nicht unbedingt an ihm; extrem verzerrt). Eigentlich müsste man die Toten obduzieren, was durch die hohe Zahl aber nicht möglich ist. Kliniken und Altenheime sind nämlich zu einem Infektionsherd geworden (dren Tote werden in einigen Ländern überhaupt nicht mitgezählt). Bei weiteren Berechnungen arbeitet man auch häufig mit Analogieschlüssen aus China; Modelling mit deutschen Daten ist sicher genauer, wenn man sie einmal hat. Bei den Fallzahlen der Bundesländer (oder auch anderen) kann man nicht nur die absoluten Zahlen nehmen, sondern muss die Bevölkerungszahl hinzunehmen. Dann liegt Hamburg an der Spitze (auch auf Grund der frühen Schulferien, in denen viele Skiurlaub gemacht haben). Die Kultur spielt eine nicht so große Rolle, eher die Psychologie. Der Mensch fasst sich relativ häufig ins Gesicht (natürliche Reflexe, so dass es die Seuche relativ einfach hat bei mangelhafter Hygiene und nicht Änderung von Verhaltensweisen). Eine Strategie der "Herdenimmunität", die einige Länder mit schlechtem Gesundheitssystem erwägen, ist extrem brutal, weil überwiegend die Ältesten und Schwachen sowie Vorerkrankte  sterben müssen. In Asien hilft insofern die Kultur als man besser Quarantäne umsetzen und überwachen kann.

Durch den Verlauf in Heinsberg, der am stärksten betroffene Landkreis in Deutschland, versucht man durch Feldforschung zu lernen (Stichprobe: 1000 Befragte in 500 Familien).  Man erforscht dort, unter welchen Umständen sich Viren wie Covid-19 verbreiten und wie sie bekämpft werden können (Prof. Streek,  Uni Bonn mit 20 Mitarbeitern). Wäre das Virus berechenbar, wäre es besser kontrollierbar. Eine vergleichbare Feldforschungsstudie läuft in München. Sie wird vom Tropeninstitut und vom Helmholzzentrum der LMU München  durchgeführt. Am 09.04.20 werden die ersten Ergebnisse der Heinsbergstudie in einer Presse-Konferenz bekannt gegeben. 15% waren infiziert. Die Sterblichkeit war wesentlich geringer als von John Hopkins angegeben. Die Untersuchung wird noch ausgewertet.

Bei den Indikatoren der ökonomischen Auswirkungen von Covid-19 ist zwischen Früh- und Spätindikatoren zu unterscheiden. Frühindikatoren sind Warnsignale und antizipieren kommende Entwicklungen. Dazu gehören die Finanzmärkte, insbesondere die Aktienindizes, der Baltic Dry-Index für Container, der Goldpreis (steigt), der Ölpreis (fällt) und die Firmenumsätze (sinken). Zu den Spätindikatoren rechnen das BIP und der Arbeitsmarkt. Spätindikatoren können im internationalen Vergleich nur sehr verzögert ermittelt werden, weil Umrechnungen, insbesondere in Dollar, notwendig sind. Statistiken dürften hier auch größere Ungenauigkeiten enthalten, die später erst durch Revisionen gemildert werden. Aufholeffekte, Nachholeffekte und spezielle Profiteure (Medizintechnik, Pharmazie u. a.) sind bei Prognosen extrem schwer zu einzuschätzen. Einen derartigen Stillstand der Wirtschaft hat es vorher noch nicht gegeben, so dass auch Modelle nicht vorliegen. Arbeitsmarktstatistiken haben immer einen zeitlichen Nachlauf. Im ersten Halbjahr erwartet man in Deutschland etwa 2,1 Mio. Kurzarbeiter. 

Am schlimmsten wirken sich die Unternehmen aus, die insolvent gehen. Die werden nach der Krise in der Regel nicht wieder gegründet, also muss man alles tun, um Unternehmen am Leben zu halten. Die Zahlungsströme in die Unternehmen müssen stabilisiert werden. Im Notfall müsste sich der Staat an den großen Unternehmen beteiligen (wie in der Finanzkrise 2008). Die KMU müssen mit allen Mitteln kurzfristig über Wasser gehalten werden (Überbrückungskredite, Bürgschaften, Zuschüsse u. a.). Mehr als jedes zweite Unternehmen in Deutschland leidet bereits unter den Folgen von Covid-19. Zwangsläufig leidet die Binnenkonjunktur, aber auch der Außenhandel, wenn auch verzögert. Natürlich werden schlecht geführte Firmen ohne Reserven am härtesten getroffen. Wie das Virus bei den Menschen die Schwächsten am härtesten trifft, so ist es auch in der Wirtschaft. Das Zinstief in der EU hat viele "untote" Unternehmen am Leben gehalten. Auf jeden Fall sind die Unternehmen am stärksten betroffen, die Produktion nicht nachholen können (Hotels, Gaststätten, Restaurants).

Statistische Auswertungen der Spanischen Grippe, die in den Jahren 1918 bis 1920 wütete, legten auch einige statistische Regeln offen, die auch in dr Corona-Krise gelten könnten: Je mehr Tote es relativ zur Bevölkerung gab, desto stärker war der Wirtschaftseinbruch (Studie von Robert Barro, Usua, Weng, Harvard 2020).

Modellrechnungen: Sie basieren immer auf einem "Trade-off" (Dilemma) zwischen Gesundheitsschutz und Schaden für die Wirtschaft. So sind zuverlässige Prognosen nicht möglich, sondern nur Szenarien, die mit unterschiedlichen Zeiträumen für den "Shut down" arbeiten. Der Zielkonflikt zwischen Gesundheit und ökonomischen Erfolg ist grundlegend. Hier müssen die ökonomischen Datengrundlagen in der Statistik verbessert werden. Die Haushaltsplanung und die mittelfristige Finanzplanung brauchen Prognosen. Aber auch Unternehmen brauchen Prognosen: Entwicklung des Ölpreises, Euro/Dollar-Wechselkurs, Erwerbstätigkeit/ Arbeitslose.

Das gilt auch für das Thema ökonomische Resilienz. Dabei geht es um die Frage, mit welcher Struktur und mit welchen flankierenden Maßnahmen der staatlichen Wirtschaftspolitik man am besten durch solche Krisen kommt. Auch hiermit muss die Forschung sich verstärkt beschäftigen.

Das Imperial College in London vergleicht die Länder in Europa in einer Untersuchung Ende März 2020.  Es kommt zu folgenden Ergebnissen: Von elf untersuchten Ländern sind Norwegen und Deutschland bisher am geringsten von Corona betroffen. Die höchsten Durchseuchungsraten haben Spanien (rund 15%) und Italien (rund 10%). Man stützt sich dabei hauptsächlich auf die Zahl der gemeldeten Todesfälle durch Covid-19. Der Rest sind Schätzungen, die aufgrund der Datenlage mit Unsicherheiten belastet sind. Die Zahlen hängen stark von Corona-Tests ab. Das ist eine eigene Statistik. So spricht man von Sensitivität, wenn die Wahrscheinlichkeit gemeint ist, dass ein Infizierter richtig positiv getestet ist. Die Falsch-Positiv-Rate gibt die Wahrscheinlichkeit an, dass ein Infizierter fälschlicherweise positiv getestet wird. Die Wahrscheinlichkeit, dass ein Nicht-Infizierter richtig erkannt wird, heißt Spezifität. Wie aussagekräftig die Tests sind, hängt vor allem von der Durchseuchung der Bevölkerung ab. Ist diese Prävalenz hoch, werden die Testes genauer, weil die Fehler dann weniger ins Gewicht fallen. Flächendeckende Tests geben erst ab einer Durchseuchung von 10% Sinn.

Es entsteht eine Diskussion darüber, dass Statistiker, Gerichtsmediziner und Risikoforscher die Folgen der Epidemie relativieren. Statistiker wie Krämer, Bosbach und Gigerenzer haben in Büchern immer wieder auf Denkfehler und Panikmache hingewiesen. Sie verweisen darauf, dass Corona die Sterblichkeit kaum erhöhen wird: Viele betagte Opfer seien sowieso gestorben und viel mehr Jugendlich kämen im Verkehr ums Leben. Doch bei dieser Betrachtung werden alle Dramen und Nebenwirkungen ausgeblendet, die wir in New York, Oberitalien oder Madrid beobachten können. Ein interessantes Beispiel ist Indien. Dort gehen fünf Monate lang die Infektionszahlen zurück (von Februar 2021 rückwärts). Indien hat eine sehr junge Bevölkerung mit einem niedrigen Durchschnittsalter. Ist das schon eine Herdenimmunität? Die Sterblichkeit hat eine Lücke der Zahlen. Deshalb sprcht man auch von "an und mit Corona gestorben". Wie hoch der Anteil derer ist, deren Tod eindeutig auf das Virus zurückzuführen ist, ist nur durch eine Obduktion zu klären. Dafür fehlen dei Kapazitäten. Ausgeblendet werden auch die ungeheuren ökonomischen und sozialen Folgen für die Welt. Statistik kann manchmal auch eindimensional sein oder umgekehrt formuliert: ungeheuer komplex.

Vor oder in einer zweiten Welle im Herbst 2020 rücken andere Indikatoren in den Mittelpunkt. In Deutschland entwickelt man ein Ampelsystem. Je nach dem welches Stadium man in einer Region (Stadt, Stadtteil, Landkreis) erreicht, werden bestimmte Regeln automatisch fällig. "Gelb" liegt vor, wenn pro definierter Region mit 100.000 Einwohnern 35 Infizierte in den letzten sieben Tagen vorhanden sind. Dann das Einfluss auf Masken tragen, Feierlichkeiten und Partys abhalten. Ab 50 Infizierten pro 100.000 Einwohner gelten strengere Regeln (es geht immer um Kontakte, Gruppengröße und Mobilität). Um die Mobilität einzuschränken arbeiten einige Bundesländer mit einem Beherbergungsverbot: Betroffene dürfen nicht in Hotel untergebracht werden oder müssen einen negativen Coronanachweis erbringen. Besser wäre eine Abschottung der Hochrisikogebiete, was aber schwer umzusetzen ist.

Die Unterscheidung zwischen Mortalität und Letalität ist schwer in der Praxis durchzuführen. Mortalität ist die Sterberate pro Einwohnerzahl. Letalität ist die Sterberate an Covid-19 bezogen auf die Einwohnerzahl. Die Gerichtsmedizin hat aber nicht die Kapazitäten, um festzustellen, wer an Covid oder wer mit Covid (Lungenversagen, Herzversagen) gestorben ist.

Je mehr man über die Pandemie weiß, desto mehr spielen weitere Indikatoren eine Rolle. Wichtig ist, wie infektiös ein positiv Getesteter tatsächlich ist. Ist der so genannte Ct-Wert über 30, besteht für andere meist keine Gefahr. Der Ct-Wert steigt mit dem Aufwand, das Virus nachzuweisen.  Er wird leider in der Praxis kaum berücksichtigt. Dort ist der Schwellenwert von 50 neuen Corona - Fällen inner halb der letzten sieben Tage auf 100.000 Einwohner entscheidend. Das ist ein reines Verwaltungskonstrukt, um die Nachverfolgbarkeit von Infektionsketten durch dei Gesundheitsämter sicher zustellen. Der Lockdown, z. B. auch der 2. im November 2020, hat den großen Nachteil, dass er alles über einen Kamm schert.

Es können aus der Statistikdiskussion aber auch grundsätzliche Konsequenzen gezogen werden: Man hört in der Politik auf Experten. Die Frage aber bleibt, welchen Experten man folgen soll. Die unterschiedlichen Disziplinen gehen unterschiedliche Wege. Vor allem die Analyse der Toten lässt große Lücken offen: 2019 starben in Deutschland 939.520 Personen. 2020 waren es 950.000. Die Gesamtzahl ist also sehr ähnlich. Viel mehr Menschen sterben an Krebs und Verkehrsunfällen. Die Analyse der Todesursachen kann erst 2021 vorgelegt werden. Von den 34500  deutschen Corona-Toten waren wohl über die Hälfte Bewohner von Alten- und Pflegeheimen. In der zweiten Welle 2021 dürften es noch mehr sein. Das ist skandalös, weil man mehr hätte tun können. Aber man muss das in der Statistik herausstellen. Viele Hotspots gab es unabhängig von der Seuche. Sie weisen auf Missstände hin: Zustände in der Fleischproduktion. Mangelnde Integration bei Moscheen und Freikirchen (oft Immigranten). Die statistischen Informationen werden vielleicht sogar bewusst nicht differenziert genug verbreitet. Vgl. Streek, Wolfgang: Wissenschaftlern folgen? Jas doch, aber welchen, in: FAZ 11.01.2021, S. 13.

2021 wird die Statistik ad absurdum geführt. Corona-Lockerungen werden Anfang März 21 an die Inzidenz gekoppelt. Es gibt einen exakten Stufenplan, von Bund und Ländern ausgearbeitet. Man will gleichzeitig mehr testen (man kann Tests überall kaufen). Wenn mehr getestet werden kann, steigen aber auch automatisch die Fallzahlen. Dann kann man gleich wieder zusperren. Es bleibt abzuwarten, wie das funktionieren soll.

Man weiß statistisch relativ wenig über die Einflussfaktoren auf die Stärke der Pandemie. Dabei könnten genauere soziologische Studie dazu wahrscheinlich helfen. Es gibt indirekte Rückschlüsse, wenn man sich bestimmte Regionen und ihre Betroffenheit genau ansieht. Die Pandemie schlägt besonders hart zu, wenn Menschen wenig Geld haben, wenn viele Migranten auf engem Raum leben, wenn in einer Region viele Sekten vertreten sind oder wenn dort Betriebe arbeiten, die die Hygiene-Regeln nicht einhalten (Fleischindustrie).

2021 gibt es eine Diskussion um neue statistische Richtgrößen. Im Vordergrund sollen aber die Infektionszahlen bleiben (Corona - Inzidenzwerte). Es sollen aber die Krankenhauseinweisungen stärker berücksichtigt werden (Intensivbettbelegung). Die Delta-Variante trifft hauptsächlich jüngere Menschen und insgesamt nicht so stark. Der Inzidenz - Wert beschreibt die Anzahl an neu auftretenden Erkrankungen innerhalb einer bestimmten Personengruppe während eines bestimmten Zeitraums. In Deutschland ist die 7-Tage-Inzidenz relevant. Der R-Wert steht für die Reproduktionszahl. Diese kennzeichnet die Anzahl der Personen, die im Durchschnitt von einem mit dem Corona-Virus Infizierten angesteckt werden. Ab September 21 billigt das Kabinett in Deutschland neue Corona-Indikatoren: Wesentlicher Indikator wird jetzt die Anzahl der in regionale Kliniken aufgenommene Corona-Patienten je 100.000 Einwohner (Hospitalisierung). Sie wird allerdings zu niedrig ausgewiesen. Das liegt an zwei systematischen Fehlern bei der Messung der Hospitalisierungsrate. Erstens werden nur Fälle der vergangenen sieben Tage aufgenommen. Dieser Vorlauf ist zu kurz. Oft dauert es von der Infektion bis zur Aufnahme im Krankenhaus länger. Zweitens kommen die Meldungen oft erst mit großer Verzögerung beim RKI an. Weitere Indikatoren sollen berücksichtigt werden: Die nach Altersgruppen differenzierte Anzahl der Neuinfektionen pro 100.000 Einwohner in sieben Tagen, die freien Intensivkapazitäten und die Anzahl der Geimpften.

2021 ist man in der Lage, statistische Größen in Bezug auf Corona genauer darzulegen: Die Übersterblichkeit im ersten Corona-Jahr 2020 gab es in Deutschland um4%. Dagegen legte die Mortalitätsrate in anderen Ländern Europas massiv zu (Spanien, Schweden). Quelle: Auswertung der Universität Duisburg-Essen. Bei der Impfstrategie hat sich gezeigt, dass bei knappem Impfstoff zuerst der arbeitende Teil der Bevölkerung geimpft werden sollte, der die Gesellschaft im Wesentlichen am Laufen hält. Quelle: Forscher in British Columbia. Long-Covid beeinträchtigt auch nach 6 Monaten noch mehr als die Hälfte der Betroffenen. Quelle: Penn State University. Darauf müssen sich die Gesundheitssysteme einstellen. Die T-Zellen-Antwort des Immunsystems fällt unterschiedlich aus, je nachdem, ob man von Covis genesen ist oder als Nicht-Infizierter eine Moderna- oder Biontech-Impfung bekomme. Die Qualität ist bei nicht Infizierten höher. Quelle: Gladstone Institute. Je mehr eine Pandemie um sich greift, desto weiter hält man unwillkürlich Abstand zu Fremden (Abstandsinstinkt). Quelle: Universität Warschau. Vgl. auch: Gruber, Christian: Die Kinder & Corona, in: Rheinpfalz am Sonntag, 31. Oktober 2021, S. 19.

"Tausend Ärzte kurieren auch einen Gesunden zu Tode", aus China (Quelle siehe oben, S. 22).

 

Corona-Krise bzw. Wirtschaftskrisen und empirische Wirtschaftsforschung (Konjunkturforschung hochvolatil):

In der Corona-Krise 2020 wird die traditionelle Konjunkturforschung zum Glücksspiel. Neue Daten müssen zum Zuge kommen mit neuen Methoden. Einige setzen als Prognosehelfer Satellitenbilder ein. Andere wollen mehr mit indirekten Daten arbeiten (Stromverbrauch, LKW-Verkehr). Noch intensiver soll Big Data eingesetzt werden. Vgl. Losse, Bert/ Fischer , Malte: Propheten im Ausnahmezustand, in: WiWo 20, 8.5.20, S. 40f. Bei der hohe Exportquote Deutschlands können Prognosen aber nur halbwegs genau sein, wenn gleichzeitig eine Prognose der EU und der Weltwirtschaft damit verbunden ist. Das können Konjunkturforschungsinstitute in Deutschland naturgemäß aber nur begrenzt, egal welche Rechnungsmethoden - Änderungen sie national vornehmen.

Trotzdem werden neue Methoden der Konjunkturanalyse entwickelt, die mit einer höheren Volatilität zurecht kommen. Es müssen hoch frequente Indikatoren sein, die schneller als herkömmliche BIP-Daten (plus Industrieproduktion, Auftragseingänge) sind. Hilfsindikatoren sind: Bewegungsprofile von Handybesitzern. Reservierungsplattform Open Table (Situation im Gastgewerbe). Internationale Indikatoren sind: Licht- und Stickstoffemissionen, Schiffs- und Flugbewegungen, Suchanfragen für Taxifahrten und Reisevisa bei Google. Vgl. Fische, Malte: Die Neuvermessung der Weltwirtschaft, in: WiWo 15/ 9.4.21, S. 40f.

 

Übungen/ Lösung von Fallstudien zur Statistik:

Gesundheitskennzahl. Um den Nutzen des deutschen Gesundheitssystems besser beurteilen zu können, soll eine statistische  Maßzahl konstruiert werden, die den Gesundheitszustand der Bevölkerung indiziert. Erst dann könnten die gestiegenen Kosten, insbesondere im Bereich der Zivilisationskrankheiten, richtig eingeordnet werden. Gehen Sie auf einige Probleme einer solchen Maßzahl ein.

"Die traditionelle chinesische Medizin (TCM) beruht auf fünf Säulen: chinesische Arzneitherapie, Akupunktur und Moxibustion, Tuina-Massage, Ernährungslehre und Qigong.

Der Bettler in der Wohlstandsgesellschaft (Armut). Stellen Sie einen Forschungsplan auf (u. a. mindestens eine Forschungsfrage, mindestens eine Hypothese, Auswahlverfahren usw.) für eine empirische Studie. Diskutieren Sie auch mögliche auftretende Probleme.

In der Statistik wird immer interessanter, wie Lügen verkauft werden: Bei der Bayrischen Landesbank war die ursprünglich genannte Abschreibung 1,8 Mrd. €. Diese Zahl erwies sich nach Aussage führender Politiker als "nicht belastbar", so dass sie sich auf 4,3 Mrd. "aufblähte".

Messung der Internationalen Wettbewerbsfähigkeit (betriebs- und volkswirtschaftlich).

In der Statistik ist die Fallstudie auch immer Teil der Klausur (10%). Die meisten meiner Fallstudien aus der Statistik beschäftigen sich mit Problemstellungen aus der Marketing - Forschung.

"There are three kind of lies: lies, damned lies, and statistics", Benjamin Disraeli, englischer Schriftsteller und Politiker.

Zahlreiche mathematische Übungsaufgaben zur Statistik enthält mein Skript. Ebenso ist darin eine Klausur enthalten. Zusätzlich gibt es viele Übungsbücher der Statistik. Das Skript liegt in der Regel als Kopiervorlage in der Bibliothek der Hochschule oder des OAI aus. Es kann auch als Download in das Portal des Fachbereichs oder OLAT eingestellt werden.

Stoff für Statistik:

vgl. auf der Seite "Lehre/ Courses" Gliederung für Statistik (mit Literaturangaben) oder auf dieser Seite "oben"

 

Wissenschaftlich, analytisches Denken im Wandel (Denken und Daten, digitale Psychologie):

"Wir sind, was wir denken. Alles, was wir sind, entsteht aus unseren Gedanken. Mit unseren Gedanken formen wir die Welt", Buddha.

Das wissenschaftlich, analytische  Denken in allen Bereichen der Wirtschaftswissenschaften ist einem starken Wandel unterworfen. Einerseits gibt es durch das Internet und die digitalen Medien so viel Wissen so schnell wie nie. Andererseits ist dieses Wissen stark von Schlagzeilen geleitet und eher flach und breit. Die junge Generation von Studenten an den Hochschulen will lange Texte oft gar nicht mehr lesen, weil dafür  auch Geduld und Ausdauer fehlt. Insofern ist eindeutig zu konstatieren, dass an den Hochschulen im Bereich der Wirtschaftswissenschaften mehr und schneller wissen nicht automatisch mehr verstehen heißt. Eine Definition von "wissenschaftlichem Denken" ist nicht einfach (ganz gut auf den Punkt bringt es obiges Zitat) : Neben Wissen kommt sicher noch Verstehen, logisches und abstraktes Kombinieren, Kritikfähigkeit, gedanklicher Austausch (Diskurs) und ethische Relativierung dazu. Hinzu kommen Neugier und die Fähigkeit, Gedanken und Strukturen zu analysieren und auf andere Bereiche zu übertragen. Eine intensivere Auseinandersetzung mit wissenschaftlichem Denken findet sich bei Forschung/ Forschungsethik. Zum Stellenwert und den Folgen des Internet allgemein vergleiche folgende Betrachtung von mir "Stellenwert des Internet". "Unser Wohlstand beruht auf technischem Fortschritt und damit auch auf Aristoteles` Einführung des analytischen Denkens", Alfred Ritter, Unternehmer, Schokoladenhersteller Ritter Sport.

Wie können die Wirtschaftswissenschaften auf diese Entwicklungen reagieren? Die Rahmenbedingungen an den Hochschulen (Studienpläne, Prüfungsordnungen, Personalstruktur), insbesondere den anwendungsorientierten Fachhochschulen, sind so konstruiert, dass ein "Durchschleusen" großer Massen ohne große Hürden das Ziel ist. Das Beschäftigungssystem hat dies schon erkannt und überprüft die Absolventen selbst bzw. gewichtet die praktischen Tätigkeiten stärker oder beschränkt bei der Personalauswahl auf Masterabsolventen, die tatsächlich in der Regel besser sind. Es ist ein Herdentrieb zu guten Noten im gesamten Bildungssystem entstanden (von der Grundschule zur Hochschule; die Anteile der Einser-Kandidaten werden immer größer). "Die größte Medienkompetenz hat heute, wer sie als Unterlassungskompetenz begreift und dem Nach-Denken Raum gibt", Dieter Schnaas: Immer mit der Ruhe, in: Wirtschaftswoche, 1/ 23.12.2015, S. 78.

Die Hochschule darf aber nicht akzeptieren, dass die Qualität ihrer Absolventen schleichend schlechter wird. Sie muss gegensteuern, indem sie sowohl bei den Lehrtechniken (Didaktik) als auch bei den Prüfungsmethoden bedeutend mehr Wert auf Transfer- und Denkmethoden legt (auch schon bei der Auswahl ihrer Studenten; dies ist der dominante Einflussfaktor). Die mehr harten Fächer und formalen Anforderungen (Mathematik, Statistik, Logik, Wissenschaftstheorie, abstrakte Methoden) müssten verstärkt berücksichtigt werden. So war es ursprünglich im Bologna-Prozess auch beabsichtigt (überflüssiges Wissen entrümpeln, Methoden und Kommunikation, insbesondere Kleingruppenarbeit, stärken). Die Entwicklung der Realität geht aber aus den genannten Gründen und wegen finanzieller Engpässe eher genau in die andere Richtung. Hinzu kommt, dass der Geldzufluss und die Mittelausstattung nicht die Effizienz der Hochschulen belohnt. "Nur weil´s mich nicht kümmert heißt es nicht, dass ich´s nicht verstehe", Homer Simpson, Comicfigur aus Springfield, USA.

Das ist insgesamt sehr bedauerlich. Viele Studenten nutzen Blogs und andere Rubriken bzw. Netzwerke (Twitter, Facebook) nicht zur objektiven Informationssuche, sondern nur zur Bestätigung und Vergewisserung der eigenen Position. So bleiben viele Menschen in ihrem Denken in der Adoleszenz stecken und verändern sich nicht mehr.  Verknüpfungs-, Anwendungs- und Grundlagenwissen fehlt. Die Distanz zu Fachleuten und Wissenschaftlern wächst. Es wird weniger zugehört (auch in Vorlesungen) und mehr am Handy, Tablet oder Notebook gespielt. Viele Studenten haben  die Fähigkeit verlernt, zuzuhören und miteinander zu reden. Sie sind es zum großen Teil gar nicht mehr auf Grund ihrer sonst ausschließlichen digitalen Kommunikation gewöhnt, sich in Gegenwart Anderer zu äußern oder zu verteidigen. Darunter leidet insgesamt die Diskussionskultur, wobei die "Schere im Kopf" auch von den Massenmedien gefördert wird (z. B. Talkshows im Fernsehen mit immer denselben Teilnehmern mit vorhersehbaren Meinungen) . Weiterhin ist die Wahrnehmung stark von Bildern und Graphiken geleitet, die leicht zu manipulieren sind (wird von Powerpoint beschleunigt). Der Informationsaustausch in den digitalen Medien blendet zudem Experten aus. Die Studenten sind Nachrichtenquellen ausgesetzt, deren Seriosität sie nicht mehr überprüfen. Sie lassen sich so manipulieren, ohne das selbst zu erkennen. Das Internet ist eher ein Medium gefühlter Wahrheiten ("Postfaktisches"). Das begünstigt den Siegeszug des Unwahren. Natürlich sind die Wissenschaftler, Zeitungen und anderen Medien auch selbst Schuld an ihrem Bedeutungsverlust und gleichzeitigen Missbrauch. Es gibt immer mehr Medien mit immer mehr Journalisten und Wissenschaftlern oder solchen, die sich dafür halten. Der Wettbewerb um Aktualität und der Konkurrenzdruck verführen zu oberflächlichen oder einseitigen Recherchen und fehlerhaften Darstellungen. Sogar etablierte Redaktionen (z. B. Der Spiegel) müssen massiv Personal abbauen, der mit Qualitätsverlust einhergeht. Journalisten werden in Luxushotels "abgefüttert" (so oft in China).  Quellennachweis und Kritik werden immer öfter vernachlässigt. Hinzu kommt, das sich die Wissenschaft zunehmend instrumentalisieren lässt (auch "vor den politischen Karren spannen lässt"; vgl. Artikel über die Rolle der Statistik in der Ökonomie). Noch nicht geklärt sind die Netzeffekte auf das Gedächtnis. Wikipedia und andere Dienste im Internet verführen dazu, schneller zu vergessen, weil Wissen jederzeit im Internet verfügbar ist. Die Artikel in Wikipedia werden in der Qualität immer besser und übertreffen vereinzelt Lehrbücher. Google wird zu einer Art neuem Gedächtnis. Unser Gehirn wird müder und untrainierter. Das könnte kompensiert werden, wenn die Leistung des Gedächtnisses in andere Bereiche ginge. Das ist aber bisher nicht ersichtlich. Besonders negativ sind diese Auswirkungen bei Kindern und Jugendlichen, auch das Suchtpotential ist hoch. Was eindeutig schlechter wird durch die Nutzung digitaler Medien ist die Rechtschreibung. Das kann man durch Studien bei Schülern belegen. Dei Schriftlichkeit sei insgesamt auf der Strecke geblieben. Neben der Digitalisierung gibt es aber noch andere Ursachen: Methodik in den Grundschulen, Rechtschreibreform. Man weiß auch, dass die digitalisierte Welt von heute exakte Begriffe für komplexe Strukturen erfordert. Vgl. Doerry, Martin: Nach mir die Sintflut, in: Der Spiegel Nr. 11, 13.3.21, S. 110ff. Weiterhin gilt der Wortschatz als Schlüssel zum Bildungserfolg. Bei Viertklässlern gibt es in Deutschland erhebliche Unterschiede. Kinder, die zu viel auf dem Handy lesen, haben deutliche Defizite. Quelle: Studie des IfS der Uni Dortmund. Smartphone und Internet sind sicher eine Gefahr für das Erinnerungsvermögen. Das Gehirn schaltet ungenutzte Synapsen ab. Und was einmal weg, ist weg ("use it or lose it"). Vgl. Hannah Monyer/ Neurobiologin, in: Der Spiegel 9/ 24.2.24, S. 98ff.  "Wie konnte das passieren, dass niemand diese Krise vorhergesehen hat", Queen Elisabeth II. nach dem Finanzcrash 2008. "Um die Sache zusammenzufassen, Ihre Majestät, war dies ein Versagen der kollektiven Vorstellungskraft vieler kluger Menschen", Antwort der britischen Ökonomen in einem Antwortbrief. 2020 weist eine Studie der Uni Mainz nach, dass immer mehr Studenten das Internet und soziale Medien für ihre Arbeit nutzen. Sie haben allerdings große Schwierigkeiten, Informationen aus dem Internet kritisch einzuschätzen (160 Studenten verschiedener Fachrichtungen).

Generell wird der Mensch und damit auch der Student  im Internet zum bloßen Nutzer statt zum Macher. Er ist isoliert wie in einem großen Kaufhaus und merkt nicht, welchen Preis er zahlt. Die Entwicklung weg vom Web hin zum App bei Handys und Tabletts verstärkt die Kontrollmöglichkeit der Internetgiganten. Die Wissenschaftler selbst tragen auch eine Schuld und Verantwortung für diese Entwicklung, die andererseits einige Vorteile mit sich bringt. Das Internet ermöglicht eine Bürgerbeteiligung in der Wissenschaft. Laien sammeln Daten (tausende Bürger fotografieren mit dem Smartphone der Sternenhimmel und Wissenschaftler werten die Bilder aus) und Forscher werten aus. Die kulturellen Auswirkung des "cloud computing" werden noch einschneidender sein. Alle großen Hindernisse bei der Versorgung mit kreativen Produkten verschwinden. Wissenschaftliche Artikel werden im Nu digitalisiert werden. Das Internet wird das wichtigste Austauschmedium werden. Amazon ist schon der globale Speicher für geistiges Eigentum. Entscheidend ist die Frage wieder, ob sich dadurch die Qualität verbessert oder verschlechtert. Die Anonymität der Massen (Klickzahlen!) scheint zuerst einmal Qualität durch Quantität zu ersetzen. Was am Ende steht, weiß aber noch niemand. Außerdem ist damit eine gewisse "Janusköpfigkeit" verbunden: Viele, die im Netz ihre Meinung - auch wissenschaftlich - äußern, wollen anonym bleiben. Andererseits erhöht das Internet die Offenheit und Öffentlichkeit. Alle, und damit auch alle Wissenschaftler, werden selbst zum Medium. Sie veröffentlichen im Internet, konsumieren und verlinken sich. Die Kapazität, die man gewinnt, indem man Wissen ins Internet verlagern kann, müsste durch besseres Denken und effektivere Methoden ersetzt werde. Doch wie das genau laufen soll, weiß noch niemand. "Im Internet dreht sich im Grunde alles um hoch spezialisierte Informationen und hoch spezialisierte Zielfindung", Eric Schmidt, Ex-CEO von Google.

Es gibt also noch kein Patentrezept, wissenschaftliches Denken zu fördern. Aber es sollte mehr zum Thema an den Hochschulen gemacht werden und in den Gremien sollten Qualitätsfragen mehr Gewicht bekommen (nicht nur als Alibi). Neue Organisationsstrukturen, wie Studiengangleiter an Fachbereichen, dienen eher der Optimierung von Lebensqualität und sind durch die Hierarchiebetonung völlig unzeitgemäß. Jeder Wissenschaftler an einer Hochschule sollte in sich gehen und seine Arbeitsethik überprüfen. Lehrbücher dürften wegen der Dynamik unserer Zeit keine Zukunft mehr haben. Das Internet ist das wesentlich bessere Medium, weil es schneller, aktueller, billiger und flexibler ist. Eine immer größere Rolle dürften "Social Skills" spielen, die an der Hochschule kaum vermittelbar sind: Mut, Neugier, geistige Beweglichkeit, Offenheit. So brauchen wir auch neue Lernräume.  "Doch Lehrbücher sind problematisch. Sie suggerieren, dass es eine Wahrheit gäbe - einen Inhalt, den man lernen könnte. Nicht das Denken wird gefördert, sondern das nachahmende Verstehen", Ulrike Herrmann, Wirtschaftskorrespondentin der TAZ, 30.11.15, S. 12. Vielleicht geht es ja mit dem Internet besser, bleibt jedenfalls zu hoffen.

Auf der anderen Seite zeigen Studien, dass Papier besser als Online-Version ist: Wer Texte auf Papier liest, versteht - im Vergleich zu Online-Texten - mehr und kann hinterher die Inhalte besser wiedergeben. Quelle: Untersuchung über 54 Studien aus den Jahren 2000 bis 2017 mit insgesamt mehr als 170.000 Probanden, Educational Research Review 2018. Auch das Smartphone kann dümmer machen, wenn man es nicht richtig nutzt. Es ist im Prinzip ein ausgelagertes Gehirn. Aber man muss immer noch Informationen kombinieren, um zu Wissen zu kommen. Es gibt Studien mit dem Ergebnis: Je länger die Smartphone - Nutzung, desto schlechter die Noten und umgekehrt. Vgl. Die Zeit 10/ 2023, S. 36. 2023 unterstützen weitere Studien den Nutzen von gedruckten Büchern. Sie sind am Anfang für die Lesekompetenz besser. Gerade in den ersten vier Schuljahren gibt es viele Vorteile des analogen Lesens. Digitale Medien werden immer noch oft um der Digitalität willen eingesetzt. Man sollte auch analoges nicht gegen digitales Lernen gegeneinander ausspielen. Vgl. Koch, Julia: Handys aus, Bücher auf! in: Der Spiegel 37/ 9.9.2023, S. 96ff.

Die Lehrbuch-Wirtschaftswissenschaften legitimieren und erklären veraltete Organisationen und Institutionen., die oft nicht mehr fähig sind, die Komplexität der modernen Zeit zu bewältigen. Immer mehr Organisationen sind ineffizient, langsam und überfordert. Wir brauchen neue Heuristiken und damit neue analytische Denkweisen, die helfen, den großen gesellschaftlichen und technologischen Wandel zu verstehen und aktiv mit zu gestalten. Die Internetökonomie will Menschen eher  denkfaul und abhängig machen. Dieses den Studenten immer wieder zu vermitteln muss eines der obersten Lernziele der Hochschule sein. Die Hochschulen leiden weltweit unter einem Klima geistiger Enge. Wer nicht mehr stromlinienförmig ist, wird gemaßregelt (auch bei Veröffentlichungen). Lust am Streiten, Widerspruch und Disput sind auf dem Rückzug. Das schränkt auch das wissenschaftlich-analytische Denken ein ("Schere im Kopf"; Furcht um Gehaltszulagen, Stellen und Karriere). Ein dramatischer Wandel der Hochschulen steht sowieso in der digitalen Ökonomie bevor: E-Learning bietet ungeheure Rationalisierungsmöglichkeiten, regt aber sicher nicht zum Denken an.  "Höhere Fähigkeiten erwachsen nur aus mehr Komplexität", Carsten Bresch (Zwischenstufe Leben - Evolution ohne Ziel, München 1977). Oder noch präziser:  "Habe den Mut, dich deines Verstandes zu bedienen", Immanuel Kant.

Wünschenswert wäre eine spezielle Lehrveranstaltung zum wissenschaftlich analytischen Denken. Man spricht heute von abduktivem Denken (im Unterschied zu induktiv und deduktiv). Das umfasst alles, was mit Methoden und Kompetenzen zu tun hat.  Dieses Denken müsste an den wesentlichen Grundlagen der Philosophie (Wissenschaftstheorie) ansetzen. Was ist Realität? Kausalität und Determinismus (Ursache) Empirismus (Hume). Kontinentale Philosophie (Phänomenologie, Hegel, Husserl, Heidegger). Wahrheit und Mathematik (Leibniz). Sprache und Logik (Wittgenstein). Wissen (Carnap). Induktion und Deduktion (Mill, Russel). Wissenschaft und Rationalität.  Commonsense  und Pragmatismus. Gesellschaft (Hobbes, Rousseau, Rawls). Ein wichtiges Lernziel müsste es sein, Studenten wieder zum Lesen zu bewegen. Das unkritische  "Konsumieren" von "blutarmen" und veralteten Lehrbuchtexten oder das Reproduzieren von  stark vereinfachenden Power-Point-Folien kann sicher nicht die notwenige Kreativität und Innovationsfähigkeit fördern. "Lies nicht um zu widersprechen und zu widerlegen, auch nicht um zu glauben und für selbstverständlich zu halten, noch um Stoff für Gespräche und Diskurse zu finden, sondern um zu wägen und zu bedenken", Francis Bacon.

Die Digitalisierung führt zu einer neuen Lernkultur. Schon vorher zu Beginn der 1990er Jahre begann mit Bologna und anderen Reformen die Ausrichtung eines jeden Lernschrittes auf Kompetenz. Kompetenz wurde gleichgesetzt mit Sachverstand. "Workload" wurde eingeführt als Berechnung von Arbeitszeit, die für die Erledigung bestimmter Aufgaben ausreichen soll. Damit wurde irgendwann die Erreichung der Ziele einfach vorausgesetzt. Die Digitalisierung passt ideal dazu: Warum soll man sich Sachwissen, dass bei Google jederzeit abgerufen werden kann, noch mühevoll einprägen? Damit geht aber die Verbindung zum Transfer verloren, der ohne Wissenselemente gar nicht möglich ist. Harte Fächer wie Statistik oder Volkswirtschaftslehre sind an Hochschulen immer schwerer lehrbar. Studenten setzen Wissen, das jederzeit im Internet verfügbar ist, gleich mit Denken. Unternehmen lösen ihre Weiterbildungsabteilungen auf und erwarten von ihren Mitarbeitern, dass sie sich im Internet über Lernplattformen selber bilden. Lernen über Lernplattformen funktioniert aber nur, wenn man sich vorher in anderen Bildungsinstitutionen die Kultur des Lernens angeeignet hat. Vgl. Türcke, Christoph: Digitale Gefolgschaft. Auf dem Weg in eine neue Stammesgesellschaft, München 2019, S. 59ff. Wir brauchen zumindest ein Basiswissen. Außerdem muss die menschliche und humanistische Komponente der Bildung erweitert werden. Dazu muss man Kommunikation beherrschen, aber auch Wissen haben aus den Bereichen Ethik, Sozialwissenschaften und Geschichte.

Die Wissenschaft und ihr spezielles Denken darf sich aber nicht von der Gesellschaft isolieren. Sondern im Gegenteil muss die Wissenschaft sich gegenüber der Gesellschaft öffnen. Open Science wird diese Bewegung genannt. Wissenschaft sollte sich an der Erklärung der Welt offen beteiligen. Die Daten müssen stimmen, für alle zugänglich sein und sind damit für alle da. Offenheit muss vorherrschen und sich lohnen. Vgl. Hartung/ Sentker: Raus, raus, raus! in: Die Zeit Nr. 16, 12.042017, S. 29f. Was man früher Allgemeinbildung nannte, ist relativ schnell zu "googeln". Wenn man sich nur im Umkreis der eigenen Spezialgebiete bewegt, kann man schwerlich neue Wege gehen. Peer Review hat insofern auch etwas konservatives. Das wusste schon Albert Einstein:  "Wenn du ein wirklicher Wissenschaftler werden willst, denke wenigstens eine halbe Stunde am Tag das Gegenteil von dem, was deine Kollegen denken", Albert Einstein (1879-1955).

Das Verhalten junger Menschen und damit der Generation der Zukunft in Bezug auf Lesen und Informationen aufnehmen hat sich überall auf der Welt grundlegend verändert. Ich als Vertreter einer älteren Generation lese fast alle Tageszeitungen, mehrere Wochenzeitungen, Monatszeitschriften und ökonomische Fachzeitschriften. Wichtige und relevante Infos verarbeite ich und baue sie in mein System ein. Die meisten  jungen Menschen suchen nach Informationen, wenn sie Lust, Zeit und  einen Zweck haben. Hauptmedium ist das Internet. Sie verhalten sich "on demand" weg von einem zeitlich ritualisierten Informationsverhalten. Das beeinflusst sehr stark alle Printmedien und das öffentlich rechtliche Fernsehen (das qualitativ immer schlechter wird). Das "neue" Verhalten setzt aber eine gewisse Denkfähigkeit, Kritikfähigkeit, Erfahrung im Umgang mit Infos und ein Grund-Fachwissen voraus, das irgendwoher kommen muss. Die Gefahr, mit Vorurteilen rein selektiv Informationen aufzunehmen steigt (hinzu kommen Cancel Culture u. a.).

Eine völlig neue Diskussion entsteht über die Arbeitsteilung zwischen Mensch und künstlicher Intelligenz (KI). Inwieweit kann auch das Denken ausgelagert werden und sich in Maschinen verselbständigen? Unter Experten gehen die Meinungen hier weit auseinander. KI als Ablenkungsmanöver ("Roboter können keine Moral") oder neues Zeitalter: Die erste These vertritt der Philosoph Richard David Precht in seinem neuen Buch: Künstliche Intelligenz und der Sinn des Lebens, Goldmann Verlag 2020. Die Künstliche Intelligenz wird Homo Sapiens nicht in den Schatten stellen. Eine ethische Programmierung könne es nicht geben. Man müsse ethisch mit Maschinen umgehen. Vgl. auch: Ders., Roboter können keine Moral, in: Die Zeit 26, 18.Juni 2020, S. 32. Damit vertritt Precht die Gegenthese zu James Lovelock. Dieser sieht ein kommendes Zeitalter der Hyperintelligenz. Er nennt es Novozän. Er sagt weitreichenden Einfluss von Cyborgs voraus (KI). Vgl. Lovelock, James: Novozän, München (Beck) 2020. Meiner Ansicht nach, wird KI irgendwann die Aufgabe übernehmen können, die ich in diesem Informationssystem "Werners Web-Welt" habe. Sie kann die Informationsflut im Internet systematisch durchforsten und immer mehr das System perfektionieren und ständig aktualisieren (vor allem wenn ständig Korrekturen der Nutzer kommen). 

Neurowissenschaftler haben den Begriff "Online-Brain" geschaffen. Er bezieht sich auf Veränderungen des Gehirns durch die Digitalisierung. Die Neuroplastizität könnte verändert werden, so dass sich neue Synapsen in Verbindung mit Nervenzellen bilden. Online-Brain bezieht sich auf drei Bereiche: Aufmerksamkeit, Gedächtnis und soziale Wahrnehmung. Vgl. Czeschik, Christina: Digitalisierung für dummies, Weinheim 2022, S. 250f. Hier ist noch viel Forschung von der digitalen Psychologie zu erbringen. Merkfähigkeit und Gedächtnisleistung scheinen aber sicher mit Digitalisierung zu korrespondieren, d. h. sie nehmen ab. Dem müsste systematisch entgegengewirkt werden.

Mittlerweile gibt es Systeme im Internet, die maschinell Essays erschaffen können durch KI auf Bachelor- und Masterniveau, die  von menschlichen Werken nicht mehr unterscheidbar sind. ChatGPT revolutioniert studentisches Lernen. Geistlose Schreibarbeiten könnte es irgendwann nicht mehr geben. In Prüfungen müsste man dann wieder auf das gesprochene Wort setzen. Das würde die Unis total verändern. Die Hauptkompetenz (Schlüsselkompetenz) der Studenten wäre, die Auswahl der richtigen Ergebnisse. Forscher arbeiten schon an der leistungsfähigeren Version GPT-4. Vgl. Schnabel, Ulrich: Das kann sie auch! in: Die Zeit 52/15.12.22, S. 35.

Man weiß aus der Gehirnforschung, dass das menschliche Gehirn einem Quantencomputer gleicht. Die Neuronen haben unendliche Schwingungen, die durch Netze verbunden sind (Wolf Singer aus Frankfurt hat hier den entscheidenden Durchbruch errungen). So könnte es vielleicht irgendwann gelingen, bestimmte Denkprozesse auf die KI ganz zu verlagern, um das Gehirn für Prozesse zu nutzen, die der Computer nicht kann. Educational Design und Educational Effectiveness würden so von entscheidender Bedeutung sein. Das könnte die Hochschulen und die Bildung revolutionieren.

Wichtig ist auch - besonders für mein System - das man digitales Lesen lernen muss. Jedes Medium hat seine eigene Lesetechnik. Digital liest man schneller, weniger sorgfältig und sprunghafter. Es ist eher überfliegendes Lesen (Lesemodus). Das verstehend - intensive Lesen am Bildschirm dagegen muss geübt werden: bewusst langsamer lesen, digital oder analog fortlaufend Notizen machen., zwischendurch Fragen stellen und beantworten. Wird gelesen, um zu lernen, muss man sich anstrengen und konzentrieren. Oberflächliches und kursorisches Lesen hilft nicht. Vgl. Gold, Andreas: Die Position: Auch digitales Lesen will gelernt sein! in: Die Zeit 18/ 27.4.23. S. 38.

KI könnte beim Lernen hilfreich sein. Schon jetzt erhöht sie die Nutzbarkeit dieser Plattform. Da Microsoft ChatGPT in Bing und Edge integriert ist, erlaubt sie eine gewisse Interaktion. Sie ist zur Zeit noch rudimentär. Der Professor und Ökonom ist der KI noch weit überlegen. Das kann sich aber schnell ändern. Der Eingriff von KI in gesellschaftliche Prozesse wird sich nicht verhindern lassen (evtl. besser regulieren). Der Mensch muss lernen, kritisch mit KI umzugehen. Er lernt dies am besten im Umgang mit ihr. Vgl. Simanowski, Roberto Todesalgorithmus. Das Dilemma der künstlichen Intelligenz, Passagen Verlag 2021.

Ein wichtiger Aspekt der Digitalisierung bleibt oft unberücksichtigt. Unser Gehirn ist durch die ständige mediale und digitale Beschäftigung mit vielen Unterbrechungen überfordert. Das digitale Leben nimmt auch einen immer größeren Teil der Zeit ein. Sie kann bei vielen Menschen zu Überlastung und Unzufriedenheit führen. Sowohl in der Arbeitswelt als auch im Privatleben überfordert uns zusätzlich die Geschwindigkeit. Denken braucht aber Zeit, so dass die Beschleunigung der vermeintlich wichtigsten Dinge unser Denken überfordert. Das führt zu Frustration, Stress und erhöhtem Aufwand, um die Arbeit zu erledigen. Vgl. Jatzko, Alexander Leiter der Klinik für Psychosomatik, Kaiserslautern), Interview in Die Rheinpfalz 12.8.23. Weiterhin sind Computer wie Vampire, die uns aussaugen. Sie haben eine andere Form von Intelligenz und Bewusstsein. KI kann Bewusstsein nur simulieren, es besitzt sie nicht. So bleibt die Frage nach der Kontrolle von KI. Vgl. Interview mit Christof Koch, Hirnforscher, Hirnforschungsinstitut Seattle, im Spiegel 37/ 9.9.23, S. 100ff.

"Wissen wird nun angeeignet, indem man auf einen Bildschirm schaut statt auf Papier. Das macht das Wissen unmittelbarer und emotionaler, der Prozess ist aber weniger auf Reflexion angelegt", Henry Kissinger, Handelsblatt, Nr. 251, 30.12. - 4.1. 2016, S. 47.

"Jedermann trägt zwei Säcke: Vorn trägt man die Fehler der anderen und hinten die eigenen Fehler", Chinesisches Sprichwort. 

"Den Anfang eurer Rede haben wir wieder vergessen und das Letzte nicht verstanden", Herodot, griechischer Historiker.

 

Betriebswirtschaftliches/ ökonomisches Denken für erfolgreiche Unternehmen:

Die Hochschulen, vor allem die angewandten, müssen weg vom Auswendiglernen und der zu großen Faktenorientierung. Sie sollten systematisch mehr in Denkschulung und Methoden trainieren gehen. Das war ursprünglich auch im Bologna - Prozess vorgesehen. Nur das oft die Umsetzung gefehlt hat. Dafür kann die betriebswirtschaftliche Forschung einen wesentlichen Beitrag leisten, wenn sie in die Lehre einbezogen und wenn beides wechselseitig stattfindet.

Praktiker und Wissenschaftler haben dazu einen Versuch unternommen, der im Folgenden wiedergegeben wird (Siehe Schwenker u. a.: Erfolgsfaktor Betriebswirtschaftslehre. Was sie leistet und warum wir sie brauchen, München 2021, S. 86ff.): 1. Systematisierung von Aspekten. 2. Checklisten. 3. Visualisierung von Sachverhalten. 4. Sichtbarmachen von Trade - off bei Entscheidungen. 5. Zusammenhänge zwischen variablen aufzeigen. 6. Aufzeigen von Effektstärken. 7. Aufzeigen der Art von Beziehungen zwischen Variablen. 8. Modellierung und Vorhersage der Wirkungen von Entscheidungen. 9. Optimierungsmodelle. 10. Erkennen von Gesetzmäßigkeiten. 11. Erkennen von Nebenwirkungen. 12. Evaluierung von Entscheidungen und Strategien. 

Defizite in der betriebswirtschaftlichen Ausbildung sollten beseitigt werden. Entrepreneurship muss an Fällen oder als tatsächliche Gründung gezeigt werden. Mehr Wissen und Reflexion über internationales und aktuelles Wirtschaftsgeschehen sollte vermittelt werden (das ist ein wichtiger Schwerpunkt meiner Site). Verhaltensorientierte Ansätze (Psychologie, Soziologie)  sollten im Mittelpunkt stehen (und dem komme ich hier nach).. Quantitative Methoden sollten verstärkt werden, damit StudentInnen mit Big Data und der Realität zurecht kommen. Auch hier ist eine Reduktion in den Curricula erfolgt, um mehr StudentInnen "durchschleusen" zu können, was fatal ist. Die Interdisziplinarität sollte erhöht werden. Ebenso sollte eine ganzheitliche Sichtweise gefördert werden  (ganzheitliche Unternehmensführung!). Sie sollte in die Schnittstellen zu anderen Disziplinen gehen (Philosophie, Mathematik, Sozialwissenschaften). Dieses zeige ich schon hier auf der Methodenseite. Die internationale Vernetzung sollte selbstverständlich sein. Am wichtigsten ist der Konflikt zwischen den USA und China um die Weltherrschaft, auch ökonomisch. Ohne eine vernünftige  Werteorientierung bleibt die BWL blutleer (Ethik, "Ehrbarer Kaufmann"). Vgl. auch ähnlich: Schwenker u. a., a. a, O., S. 23f.

Einschneidende Ereignisse sollten immer als Fall analysiert werden (vgl. die Seite "Casestud/ Practice"). Dazu gehört aktuell die Corona-Krise. Bei Unternehmen ergeben sich einschneidende Veränderungen: Lieferketten sind unterbrochen. Absatz und Umsatz brechen ein. Bei der Liquidität gibt es Engpässe. Geschäftsmodelle funktionieren nicht mehr. Diese aktuellen Ereignisse müssen in die Lehre einbezogen werden.

Die BWL sollte auf die Phasen eines Betriebes zugeschnitten sein. Sie sollte sich am Leitbild des "Ehrbaren Kaufmanns" orientieren und das in Verantwortung, Verhalten, Transparenz und Fairness praktizieren. Vgl. Schwenker u. a., a. a. O. S. 43ff.

 

Philosophie und Ökonomie (Bereitstellung von Logik und Denkstrukturen):

"Die Philosophie ist keine Theorie, sondern eine Tätigkeit", Ludwig Wittgenstein (österreichischer Philosoph, Wissenschaftstheoretiker, 1889 geboren in Wien, gute Bekanntschaft mit Sigmund Freud; 1951 gestorben in Cambridge;  dort auch begraben). Wittgenstein war ursprünglich Ingenieur. Er arbeitete im Flugzeugbau in Manchester. Er war ein Freund von Keynes und Verwandter von Hayek. Der Forscher war einer der bedeutendsten Philosophen des 20. Jahrhunderts. Seine Gebiete waren Logik, Sprache und Bewusstsein. Seine "Philosophischen Untersuchungen" (1953) gehören zu den wichtigsten Werken der Philosophie des 20. Jahrhunderts. Schon im "Tractatus logico-philosophicus" (1921) hatte er eine Abbildungstheorie der Sprache vertreten., die der Sprache nur eine Funktion zuschrieb. Er behauptet die Unmöglichkeit einer reinen Privatsprache. "Wovon man nicht sprechen kann, darüber muss man schweigen", Ludwig Wittgenstein. Berühmt ist auch ein weiteres Zitat: "Wenn ein Löwe sprechen könnte, wir könnten ihn nicht verstehen". Die Sprache ist unsere Lebensart und ihr gemäß betrachten wir unsere Welt. Löwen würden keine dieser Perspektiven teilen.

Zunächst ist wichtig, dass auch der Philosoph seine Grenzen akzeptiert.  Die großen Philosophen Sokrates aus Griechenland und Laotze in China wussten schon beide, dass das Bewusstsein des Nichtwissens am wichtigsten ist. Am besten hat dies Kohelet um 300 v. Chr. (besser unter Prediger bekannt) ausgedrückt: "Den Wissenden und den Unwissenden trifft dasselbe Schicksal". Die Erkenntnis des Nicht-Wissens ist die Zierde des Wissenschaftlers. Der Mensch ist im Kosmos bedingt. Insoweit hatte auch Marx mit dem Denken als Überbau recht. Kohelet drückt es so aus: "Alles ist Windhauch und Luftgespinst". Insofern ist jede Philosophie auch nur Windhauch im Lauf der Geschichte. Man sollte es nur zugeben.

In der Ilias von Homer als Anfang (habe ich in den Schule noch in Alt-Griechisch gelesen, Teile des Werkes von Vergil dann in Latein) nahm es Odysseus mit den Göttern auf. Er emanzipierte sich gegenüber den Göttern. Er versucht sie zu überlisten, wenn er auch eine Göttin auf seiner Seite hat. Wesentlich ist, dass er sich auf seinen Verstand und seine Vernunft verlassen kann. Er ist also misstrauisch gegenüber den übernatürlichen Erkenntnisquellen. Das ist so was wie der Anfang jeder Philosophie, zumindest der westlichen. Zentrales Thema ist die Kontingenz: "Quod est nec impossibile nec necessarium". Was weder unmöglich noch notwendig ist. Man könnte es Zufall oder Schicksal nennen. Unsere Handlungsmöglichkeiten sind enorm erweitert, und die Risiken werden minimiert. Die Sterblichkeit wurde in der Antike ausgiebig reflektiert. Homer macht die körperliche Dimension des Krieges höchst anschaulich.  Homer schrieb als zweites Werk die Odyssee, die von der Reise des Helden Odysseus nach Ende des Trojanischen Krieges zurück in seine Heimat handelt.  Grundthema der Ilias ist die menschliche Fragilität. Die Helden verkörpern universelle Charaktere: Achill - toxische Männlichkeit, ohne Hoffnung. Odysseus ist heute populärer, der sich selbst aus dem Schlamassel zieht. Vgl. auch: Interview mit Jonas Grethlein, in: Welt am Sonntag Nr. 21/ 22.5.22, S. 43. 

Ökonomische Analysen im Rahmen der antiken griechischen Philosophie. Wichtige Elemente finden sich bei den klassischen griechischen Philosophen Sokrates (Ethik), Platon (Aufbau der Gesellschaft, idealer Staat) und Aristoteles (z. B. Allmendeproblem; Eigentum Privatbesitz; Logik; Wohlergehen). Platon war der erste prominente Vertreter einer gewissen Marktfeindlichkeit. Er hatte eine Verachtung für das Wirtschaften, insbesondere die Händler. Xenophon kann als der größte ökonomische Denker der antiken Philosophie bezeichnet werden. 400 Jahre vor Christus schildert er wichtige Grundlagen (Gespräch über die Haushaltsführung; Mittel und Wege, dem Staat Geld zu verschaffen; Gewinnmaximierung; auf ihn soll auch die Verbindung von Oikos und Nomos zurückgehen als Kunst der Haushaltsführung). Hesiod kann als erster bekannter Ökonom überhaupt benannt werden. Er lieferte Grundideen für die moderne Chaostheorie und definierte Arbeit als Quelle allen Guten für die Menschen. 100 Jahre später liefern Thales (Olivengeschäft), Archimedes und Pythagoras (Geometrie) wichtige mathematische Grundlagen, die auch in der Ökonomie Verwendung finden. Die einzelnen Bücher sollen an dieser Stelle nicht genannt werden. Die antike griechische Philosophie hatte großen Einfluss auf die römische Philosophie. Besonders hervorzuheben sind hier Lucius Annaeus Seneca (1 bis 65 n. Chr.) und Marc Aurel (161 - 188 n. Chr.; Kaiser und Philosoph). Sie gehörten zu der Richtung der Stoiker (gehen auf Athen/ Sokrates, Epiktet) zurück. Sie haben eine kosmologische, ganzheitliche Weltsicht und stehen für Weltoffenheit und Anpassungsfähigkeit (der Mensch soll seine Stelle in der Gesamtheit finden). Die griechische Philosophie hat sehr stark die Philosophie im römischen Reich beeinflusst. Auch die deutsche Philosophie greift immer wieder auf die antike griechische zurück. Das besonders in der Klassik. Goethe war der Pionier der Wiederentdeckung, in der Philosophie vor allem Hegel. Er preist die antike Kultstätte Eleusis (heute als Elefsina ein Vorort von Athen, Kulturhauptstadt 2023)  Er schreibt das Gedicht "Eleusis", das er Hölderlin widmet.  "Bedenke, dass die menschlichen Verhältnisse insgesamt unbeständig sind, dann wirst du im Glück nicht zu fröhlich und im Unglück nicht zu traurig sein", Sokrates (469 - 399 v. Chr.).  "In einem Gemeinwesen, in dem Reichtum und Armut fremd sind, wird auch die beste Gesinnung zu finden sein", Platon: Sämtliche Dialoge, Bd. 7, Hamburg 2004, S. 78. Ich habe in einzelne Texte noch in Alt-Griechisch, was ich im Gymnasium gelernt habe, "reingeschnuppert". Oder Texte der römischen Philosophen habe ich auch noch in Latein gelesen: "Betrachte die Vergangenheit, die großen Veränderungen so vieler Reiche; daraus kannst du auch die Zukunft vorhersehen", Marcus Aurelius, Selbstbetrachtungen, Kapitel 7 (er war römischer Kaiser und Philosoph). "Das harte Wort schmerzt immer, sei `s auch ganz gerecht", Sophokles, griechischer Tragödiendichter.

Exkurs: Stoizismus: Der Stoizismus erlebt 2021 eine Renaissance. Es erscheinen viele Bücher, auch auf Deutsch. Man spricht von einer Philosophie der Praxis. Die Ursprünge reichen ins antike Griechenland 300 v. Chr. Die bekanntesten Vertreter sind Zenon von Kition (ca. 334 -262 v. Chr.), Ariston von Chios (300 - 260 v. Chr.),  Epiktet (50-135 n. Chr., Griechenland, begann als Sklave, er gilt als Haupt-Begründer), Seneca (römischer Senator, 4. v. Chr. - 65 n. Chr.) und Mark Aurel (121 - 180 n. Chr., Kaiser von Rom, Schriftsteller: Selbstbetrachtungen). Auch Cicero (106 - 43 v. Chr., römischer Staatsmann, Redner und Schriftsteller) wird dazu gerechnet.  Xenon lebte von 336 v. Chr. auf der Insel Zypern in Kition, heute Lanarca. Der Ort wurde auch durch Barnabas (erster Bischof von Zypern. Jesus erweckte ihn wieder zum Leben, er wirkte mit Paulus) und Um Haram bekannt Letztere war die Tante von Mohamed und kam durch einen Sturz vom Maultier in Lanarca ums Leben. In einer Moschee dort am Salzsee liegt sie begraben (Pilgerstätte).Die griechischen Stoiker waren meist Pantheisten. Sie meinten, dass Gott das Universum ist. Sie nannten es Zeus, ein einziger Organismus, gleichbedeutend mit Natur und Vernunft. Ziel der stoischen Philosophie ist "Eudaimonia", ein erfülltes Leben (blühend, in gutem Fluss, in Harmonie mit der Natur). Man spricht auch von Glückseligkeit und menschlichem Gedeihen. Der Stoizismus meint heute ein bestimmtes Denken und Handeln. Er ist ein emotionales Handwerkszeug, um den Geist zu trainieren und ein erfolgreiches Leben zu führen. Stoisches Handeln erfolgt nach Tugenden: Tugenden sind Weisheit, Mut, Gerechtigkeit, Mäßigung. Man soll das Positive gestalten.  Psychologisch geht es um emotionale Resilienz. Das ähnelt dem Konzept der Achtsamkeit, das dem Buddhismus entspringt. Stoiker sollen dienen und nachhaltiges Glück anstreben. Vgl. Van Natta, Matthew J.: Stoizismus, München 2021. "Aufhören, darüber zu reden, wie ein guter Mensch ist, sondern einfach so sein", Mark Aurel, Selbstbetrachtungen, 10.16. "Tugend ist die Gesundheit der Seele", Ariston. "Geld macht nicht reich", Seneca. "Nicht weil etwas schwer ist, wagen wir es nicht. Weil wir es nicht wagen, ist etwas schwer", Seneca.

Die östliche, chinesische Philosophie bildete sich in der "Achsenzeit" (Carl Jaspers; 1883 - 1969; die Grenzen des Erkennens und Machens), also etwa zwischen 800 bis 200 v. Chr. Hier wuchs auch das geschichtliche Selbstverständnis. Am bekanntesten sind die Philosophen Laotse und Konfuzius. In Mesopotamien wirkte zu der Zeit Zarathustra, in Indien Buddha. Alle diese Personen werden sowohl der Philosophie als auch der Religion zugerechnet; in den Anfängen waren beide verbunden (vgl. den ausgezeichneten Gesamtüberblick von J. Habermas: Auch eine Geschichte der Philosophie, Berlin 2019). So kann man in den Anfängen der Philosophie nicht zwischen Religion und Philosophie trennen. Zarathustra wurde 630 v. Chr. geboren. Man spricht heute von Zoroastrismus (ca. 200.000 weltweit). Die meisten leben heute in Indien (Parsen). Mit dem rasanten Aufstieg Chinas zur früheren Dominanz in Asien und zur kommenden Weltmacht Nr. 1 werden auch Daoismus und Konfuzianismus rapide an Bedeutung zunehmen. Zusammen mit dem Marxismus, der perfekt integriert wird, stellen sie auch die entscheidende Legitimationsgrundlage für das heutige politische, soziale und ökonomische System in China dar. Die Beziehung zwischen Marxismus und Daoismus/ Konfuzianismus war ein Schwerpunkt meiner Forschung in den letzten Jahren (Vgl. Vortrag und Aufsatz). Verblüfft hat mich die Kenntnis der europäischen Philosophie bei den chinesischen Kollegen, etwa an der Hochschule der Kommunistischen Partei in Peking. Besonders im Vordergrund steht die deutsche Philosophie durch die Wurzeln des Marxismus (Hegel, Feuerbach, Kant, Nietzsche). Das ist auch nicht verwunderlich, wenn man sich die Curricula der Hochschulen ansieht. In den führenden Hochschulen des Landes sitzen Mitglieder des Politbüros in den Aufsichtsgremien und wachen über die Lehrprogramme. Es ist hier nicht der richtige Ort, um über diese Institutionen zu diskutieren, aber es fällt sehr negativ auf, wenn deutsche Ökonomen oder US-Ökonomen (das Allgemeinwissen ist manchmal nicht weit vom Durchschnitt der Bevölkerung) hier durch Nichtwissen und Ignoranz auffallen! Ich selbst habe oft erlebt, dass bei dem Stichwort "Marxismus" bei deutschen Kollegen (noch stärker bei Unternehmensvertretern) die "Klappe runtergeht". Das mag mit der deutschen Geschichte zusammenhängen, ist aber keine Entschuldigung.

Nach dem vorherigen Abschnitt über wissenschaftliches Denken und obigem Zitat liefert die Philosophie die Methoden des Denkens. Sie liefert damit die Fähigkeit zur Analyse, zum Beurteilen und zum Gebrauch von Argumenten. Als der Klassiker auf diesem Gebiet gilt der deutsche Philosoph Georg Wilhelm Friedrich Hegel. Er verbindet die Welt mit Widerspruch, Geist und Freiheit. Hegels Dialektik ist auch eine Denkmethode, die höchst flexibel und einfach ist: Es gilt die innere Logik eines Gedankens bis in seine äußerste Konsequenz hin zu verfolgen und zu betrachten, wohin er auch führt. Vgl. S. Ostritsch: Portrait G. W. F. Hegel: agora 42, S. 31ff. Als freie Individuen sind wir notwendigerweise auf die anderen, die gesellschaftlichen Institutionen und in letzter Instanz den Staat verwiesen. Das hat im Kern auch Karl Marx fasziniert (vgl. unten). Wichtig ist auch Carnap (Rudolf, 1891-1970). Er wendete sich ganz der logischen Analyse zu, insbesondere der Wissenschaftssprache. Er hat sich auch mit der Wahrscheinlichkeitstheorie beschäftigt (hatte auch Mathematik studiert). Nach Hans-Georg Gadamer (1900-2002, Schüler von Heidegger) beginnt jedes Verständnis mit einem "Vorverständnis" und "Vorwegnahmen", derer wir uns nicht bewusst explizit sind. Seine Kernthese ist, dass jedes interpretative Verständnis historisch bedingt und an Tradition gebunden ist.

In der Ökonomie ist die Logik (zusammen mit der Wissenschaftstheorie und -analytik) als Gebiet der Philosophie am wichtigsten. Sie liefert die Regeln für die Begriffsbildung, für Definitionen, für die Ableitung von Hypothesen und die Struktur von Aussagen und Begründungen. Sie liefert damit die Regeln der Systematik und Objektivität für die Wissenschaften. Als einer der Begründer gilt der britische Philosoph Bertrand Russel (1872 - 1970). "Wahrheit" ist keine Eigenschaft der Welt, sondern eine Eigenschaft sprachlicher Aussagen. "In der Tat sind Wahrheit und Falschheit Eigenschaften von Meinungen und Aussagen, deshalb könnte eine bloß materielle Welt eben weil sie keine Meinungen oder Aussagen enthielte - auch keine Wahrheit oder Falschheit enthalten". Eines der wichtigsten Schemata in der Ökonomie ist das Hempel-Oppenheim-Denkschema. Als Begründer der Logik in der Philosophie gilt Aristoteles (384 - 322 v. Chr.). Seine Grundfrage war auch, wie menschlich der Mensch ist. Einen großen Einfluss hatte John Stuart Mill (1806-1873) mit seinem Verständnis der induktiven, deduktiven und wissenschaftlichen Argumentation. Für die Wissenschaft und Wissenschaftstheorie heute hatte Karl Popper (1902-1994) eine große Wirkung. Im Zentrum steht der Falsifikationismus. Noch heute intensiv diskutiert wird das Buch von Thomas Kuhn (1922-1996): Die größten wissenschaftlichen Fortschritte erreichen uns mit Hilfe weit reichender wissenschaftlicher Revolutionen. Kuhn war Physiker und widmete sich der Geschichte der Wissenschaft. Weiterhin ist auch Ludwig Wittgenstein zu nennen (1889 - 1951; vgl. Anfang). Er weit darauf hin, dass jede rationale Erkenntnis beschränkt und fehlbar ist, und nicht alle Probleme unseres Lebens auf vernünftige Weise lösen lassen.  "Die Logik will immer nur Eines und bedenkt nicht, dass es viele Logiken gibt", Carl Einstein, deutscher Kunsthistoriker. "Ich misstraue allen Systematikern und gehe ihnen aus dem Weg. Der Wille zum System ist ein Mangel an Rechtschaffenheit", Friedrich Nietzsche, deutscher Philosoph.

Exkurs: Karl Popper: Logik der Forschung, 1934 (11. Auflg. 2005). Die offene Gesellschaft und ihre Feinde, Tübingen 2003 (Kampfschrift gegen totalitäres Denken). Er wurde 1902 in Wien geboren und starb 1994. Der Philosoph war von jüdischer Herkunft und trat später zum Protestantismus über. Er war Schulabbrecher und hatte so keine Chancen im Establishment. Später studierte er Philosophie an der Universität Wien, wo er auch promovierte. Popper war befreundet mit Rudolf Carnap. Sie hatten einen gemeinsamen Feind: die "Metaphysik" (vor allem Martin Heidegger). In der Jugend beschäftigte er sich intensiv mit Psychoanalyse und Marxismus. Popper war der Erfinder der Drei-Welten-Theorie: 1. Physikalische Gegenstände. 2. Mentale Welt mit Gedanken, Gefühlen, Empfindungen. 3. Objektives Wissen (z. B. mathematische Sätze). Als einer seiner Schüler bezeichnet sich George Soros. Später lehnt Popper Marx, Freud und Platon ab. Berühmt machte ihn das Falsifikationsprinzip. Dieses Prinzip sieht er als den wahren Antrieb der Wissenschaft. Wissenschaftler stellen vorläufige Hypothesen auf, die durch Beobachtungen und Experimente zum bestimmten Grad belegt werden können. Es wird in der modernen Wissenschaftstheorie heute überwiegend abgelehnt. Sein Grundgedanke bleibt heute noch wertvoll: Wissenschaftliche Erkenntnis besteht nicht in der Verallgemeinerung von Beobachtung. Wo eine Theorie herkommt, ist gar nicht so wichtig. Wichtiger ist, dass sie sich gegen Kritik und experimentelle Tests bewährt. Popper musste nach London emigrieren und lebte dort (wie Freud und Marx). Er lehrte an der London School of Economics und an der London University. Vorher hatte er an der University of Canterbury in Neuseeland unterrichtet.  1965 wurde er für seine Verdienst zum Ritter geschlagen. Vgl. Hürter, Tobias: Der schwarze Schwan, in: Hohe Luft, 2/2020, S. 23ff. Bassham, Gregory: Das Philosophiebuch, Librero, Kerkdriel 2020, S. 426ff.

Sprache und Bedeutung: Die Sprache ist zentral für die Ökonomie. Englisch ist die Weltsprache der Wirtschaft. Es gibt zahlreiche Abhandlungen darüber, wie Englisch das ökonomische Denken beeinflusst. Es gibt etwa 6000 Sprachen auf der Welt. Da sind die Dialekte noch nicht alle mitgezählt. Es gibt zahlreiche Sprachtheorien: Humpty Dumpty, Symbole und Bilder, Gebrauchstheorie (Wittgenstein, Sprache ist normativ), Holismus (Quine), radikale Interpretation (Davidson), Kommunikation als Spiel (Watzlawick), Universalgrammatik (angeboren, Chomsky), Philosophie kann Sprachtherapie sein. Vgl. Hübl, Philipp: Folge dem Weißen Kaninchen ... in die Welt der Philosophie, München (Penguin) 2020, S. 49ff.

Ausgangspunkt philosophischen Denkens sind Überzeugungen. Eine der Grundregeln ist, diese Überzeugungen offen zulegen und zu begründen.   Damit kann nun Wissen analysiert werden im Hinblick auf logische Richtigkeit (Aufspaltung in notwendige und hinreichende Bedingungen). Wahrheiten sollten nicht das Ziel sein (Falsifikationsprinzip, Popper). Vgl. Karl Popper, Lesebuch, (Hrsg. David Miller), Tübingen 1995. Auf der anderen Seite sollte aber klar werden, dass Aufklärung das Hauptziel ist, das ohne ethische Grundorientierung (z. B. Kategorischer Imperativ) nicht möglich ist (I. Kant: Kritik der reinen Vernunft). Beantwortung der Frage: Was ist Aufklärung? 1784 in der "Berlinischen Monatsschrift". Kant, der "Weise aus Königsberg" war der Philosoph der Vernunft und Aufklärung in Deutschland. Kant ist wahrscheinlich der einflussreichste deutsche Philosoph. Wichtigster Vorgänger war Jean-Jacques Rousseau: Über den Ursprung und die Grundlagen der Ungleichheit unter den Menschen, 1755 (auch: Gesellschaftsvertrag, 1762). Er war Wegbereiter der Aufklärung und der geistige Vorbereiter der französischen Revolution. Die Ziele "Freiheit, Gleichheit, Brüderlichkeit" sind von ihm theoretisch formuliert worden. Er wandte sich vom blinden Vertrauen in die theoretische Vernunft ab und widmete sich dem moralischen Gewissen. Er lebte von 1712 (geboren in Genf) bis 1778.

Die Philosophie beschäftigt sich mit der Welt (Was ist Realität, Zeit und Raum), mit Geist und Körper (Was ist Geist?, Bewusstsein), mit Wissen (Logik und Verstand, Weisheit), Glauben (Sinn des Lebens, Relativismus, Gott), Ethik und Gesellschaft (Was ist Gesellschaft/ z. B. Habermas, Soziale Gerechtigkeit/ z. B. Rawls); Reich und Arm/ z. B. Karl Marx). Vgl. David Papineau (Hrsg.): Philosophie, Darmstadt 2006. Georg Wilhelm Friedrich Hegel (1770 - 1831) ist wichtigster Vertreter des deutschen Idealismus und in seinem Einfluss auf Marx von großer Bedeutung. Die Struktur der Philosophischen Werke ist: Logik, Naturphilosophie, Philosophie des Geistes. Berühmt ist sein Schema der Dialektik: These, Antithese, Synthese. Eine seiner berühmtesten Werke: System der Wissenschaft. Erster Teil: Die Phänomenologie des Geistes, Bamberg 1807. Als Gegenentwurf gilt die Sicht von Herbert Spencer (1819 - 1903). Er lehnt sich an Darwin an und begründet die Lehre vom Sozialdarwinismus. Er sieht das menschliche Miteinander als unerbittliches Gegeneinander im Kampf ums Dasein ("Survival of the Fittest").  Tennessee Williams vergleicht das Leben mit einem gut geschriebenen Theaterstück, mit Ausnahme des dritten Aktes.

Weltoffenheit: Ein besonderer Aspekt der Welt ist die Weltoffenheit. Der Mensch hat die Fähigkeit, mithilfe von Vernunft und Sprache Erkenntnisse von sich und der Welt zu sammeln, die dem Menschen eine Sonderstellung in der Natur gibt. Der Mensch ist mit Vernunft ausgestattet, aber es ist eine offene Frage, ob sie ausreicht, ihm Selbsterkenntnis zu ermöglichen. Das ist die Meinung des deutschen Philosophen Max Scheler (1874 - 1928). Der Mensch kann die Welt erfahren wie ein Seefahrer das unerforschte Meer. Weltoffenheit ist in einer globalisierten Welt auch eine wichtige Grundkategorie, um ökonomische Beziehungen zu ermöglichen. "Der Mensch ist das X, das sich in unbegrenztem Maße "weltoffen" verhalten kann. Menschwerdung ist Erhebung zur Weltoffenheit kraft des Geistes", Max Scheler.

Weltgeist: Georg Wilhelm Friedrich Hegel (1770 - 1831; 250 Jahre 2020!): Wichtigster Vertreter des deutschen Idealismus. Struktur der Philosophischen Werke: Logik, Naturphilosophie, Philosophie des Geistes. Berühmt ist sein Schema der Dialektik: These, Antithese, Synthese. Eine seiner berühmtesten Werke: System der Wissenschaft. Erster Teil: Die Phänomenologie des Geistes, Bamberg 1807. Hegel hat großen Einfluss gehabt auf die Soziologie und Karl Marx. Hegel glaubte an den Weltgeist: Mag die Geschichte der Menschheit auch noch so schrecklich sein, irgendwann erreicht sie ihr Ziel - die Verwirklichung von Vernunft und Freiheit. Große Männer waren für ihn Cäsar, Napoleon, Alexander. Er nannte sie "Geschäftsträger des Weltgeistes". Die "welthistorischen Individuen" sorgen für den "Fortschritt im Bewusstsein der Freiheit". Sobald ein Staat den Bezug zu seinen Idealen aufkündigt, war er für Hegel vom Niedergang bedroht. Für Hegel sind in Asien das Licht des Geistes und der Weltgeschichte aufgegangen. Enden wird sie selbstverständlich im Westen. Es könnte deshalb ein Irrtum sein, weil China seiner Konzeption am nächsten kommt: der soziale Zusammenhalt , die Verbindung der individuellen "Willensatome", soll zu einem staatlichen Ganzen vereint werden. Dann wäre Xi Jinping " in China ein Geschäftsführer des Weltgeistes". Wichtig ist für ihn auch der Begriff "Wirklichkeit" Er übersetzt so den Begriff "Energeia" von Aristoteles. Es ist die Verwirklichung der Idee der Freiheit., die errechte Einheit von Äußerem und Inneren und damit die absolute Wahrheit. "Freiheit ist die Einsicht in die Notwendigkeit", G. W. F. Hegel. "Was Erfahrung aber und die Geschichte lehren, ist dieses, dass Völker und Regierungen niemals etwas aus der Geschichte gelernt und nach Lehren, die daraus zu ziehen gewesen wären, gehandelt haben", Georg Wilhelm Friedrich Hegel. "Beginnende Bildung fängt immer mit dem Tadel an, vollendete aber sieht in jedem das Positive", Hegel. Auch von ihm: Philosophieren heißt, frei leben zu lernen". Vgl. auch: Thomas Asseuher: Was macht der Weltgeist? in: Die Zeit Nr. 33, 6. August 2020, S. 41ff.  Am 27.8.20 vor 250 Jahren wurde Georg Wilhelm Friedrich Hegel in Stuttgart geboren. 1818 übernimmt er in Berlin den Lehrstuhl vom berühmten Johann Gottlieb Fichte. 1831 stirbt Hegel  während einer Cholera-Epidemie. Vgl. etwa: Sebastian Ostrisch: Hegel. Der Weltphilosoph, Propyläen-Verlag 2020. Jürgen Kaube: Hegels Welt, Berlin (Rowohlt) 2020.

Grundlegende Herausforderung ist der Zweifel: Der Zweifel an allen Antworten, der Zweifel an den Quellen, der Zweifel an den Berichten und Erinnerungen anderer Menschen. Der Zweifel in seiner Gesamtheit wird als Skeptizismus bezeichnet. In unserer Zeit wird der Zweifel reduziert. Es scheint, als hätten die Menschen vor lauter Aufgaben, Fragen und Tempo keine Zeit mehr für Zweifel. Das Wort "Alternativlos" charakterisiert diesen Zustand. "Basta" soll alle anderen Gedankengänge abwürgen. Für Karl Marx war der Zweifel das wichtigste Element der Philosophie, was seine Jünger und Schüler in China und Russland heute verdrängen. Der Philosoph Ludwig Feuerbach konzentrierte sich auf den Zweifel an der Religion und wurde zu ihrem schärfsten Kritiker. Sein 1841 erschienenes Buch "Das Wesen des Christentums" machte ihn auf einen Schlag berühmt. 1872 starb er mit 68 Jahren. Der Marxismus-Leninismus beruft sich auf ihn als Vorläufer. .

Inwieweit unbeweisbare Annahmen als Ausgangspunkt in der Ökonomie gelten können ist sehr umstritten. Einerseits arbeitet man mit Axiomen, die nicht bewiesen werden (z. B. Milton Friedman, Rationalismus), wenn sie zu fruchtbaren Ergebnissen führen. Andererseits wird ein empirischer Nachweis auch für Annahmen gefordert (D. Hume, Empirismus; Problem der Induktion). Natürlich sind auch Kombinationen möglich.

Grundfrage menschlichen Lebens und der Philosophie ist die Frage nach dem Glück. In Gestalt der Glücksforschung und des Glückssozialprodukts ist diese Idee auch in der Ökonomie auf dem Vormarsch. Der Zusammenhang zur Sittlichkeit und Ethik ist relativ offen. Ethik und Moral sind schwer aus der subjektiven Ebene herauszuholen (kann es ein objektives Fundament geben?). Der Versuch eines Sozialkontrakts oder die Entwicklung ethischer Regeln findet sich bei vielen Philosophen (etwa bei Kant). Die Ökonomie alleine kann schwerlich klären, worin ein gutes Leben besteht. Der griechische Philosoph Epikur schrieb eine Anleitung zur glücklichen Askese (Hedonismus, griechisch hedone = Lust). Seneca, der Lehrer Neros und Senator, spricht vom Glück der Seelenruhe. Sie beruhe auf praktischer Übung (lateinisch: meditatio). Der letzte große deutsche Philosoph, der sich damit befasste, was ist Glück und wie kann ich es erreichen, war Arthur Schopenhauer. In seinem 1819 erschienenen Werk "Die Welt als Wille und Vorstellung" erteilt er darüber Auskunft: Der Mensch erfahre Glück immer negativ, das heißt als Beseitigung eines Mangels, als Befreiung von Unlust, als Erlösung von Schmerz. Der Philosoph Gadamer definiert Glück als das "Gelassene Beschränken auf das noch Zugeteilte". Nicolas Chamfort (1741 - 1794, französischer Moralist) weist auf das Subjektive beim Glück hin: "Will das Glück sich mit mir einlassen, so muss es die Bedingungen annehmen, die mein Charakter ihm stellt". Marc Aurel (121 n. Chr. - 180; auch römischer Kaiser) weist darauf hin, dass wir nur ein winzig kleiner Teil des Universums sind, und im im Vergleich zu dessen Dauer ist unsere Lebenszeit nur ein Wimpernschlag. Das sollte uns seiner Ansicht nach Demut lehren. Wir sind nicht der Mittelpunkt der Welt, aber wir können uns vielleicht als Forschungspioniere des Universums betrachten. Das gibt auch für die Ökonomie Hoffnung, die rein materielle Wertgrößen immer mehr durch das Glück ersetzen will. Marc Aurel hängt der Stoischen Philosophie an: Es geht dabei auch um die Einstellung zu den Mitmenschen und um das Bewusstsein zur Wahrheit. "Die Menschen sind füreinander da. Also belehre oder dulde sie", Marc Aurel.

Viel diskutiert wird das Problem des freien Willens und des Schicksals. Sind wir immer von der gesellschaftlichen Realität beim Denken abhängig oder gibt es Unabhängigkeit und Freiheit (nach Karl Marx z. B. bestimmt die ökonomische Basis das Denken; im Kern hat er Recht; die größten Wissenschaftler kommen immer aus den besten Volkswirtschaften). Unabhängig davon bleibt die Frage, ob der Mensch überhaupt jemals etwas wissen kann. Schon der römische Sklave Epiktet beschäftigte sich damit ("Handbüchlein der Moral"; 50-138 n. Chr.). Er trifft eine scharfe Unterscheidung danach, was von uns abhängt und was nicht von uns abhängt. Thomas Hobbes (1588-1679) war der Ansicht, dass freier Wille und Determinismus einander nicht ausschließen.

Das führt zu der Grundfrage nach dem Verhältnis von Bewusstsein und Wirklichkeit: Haben wir mit dem Bewusstsein Zugang zu einer eigenen "geistigen" Wirklichkeit. Damit zu einer Welt des Geistes, die unabhängig von der materiellen Wirklichkeit existiert? Für Karl Marx gibt es kein Bewusstsein im luftleeren Raum. Der Geist gründet immer in der materiellen Wirklichkeit. Wahrscheinlich gilt heute beides: die Materie wird vom Geist ebenso beeinflusst wie der Geist von der Materie. Beide stehen in einem engen Zusammenhang. Für die Ökonomie hat dieser Grundgedanke von Marx eine ungeheure Bedeutung. "Das Bewusstsein kann nie etwas anderes sein als das bewusste Sein, und das Sein der Menschen ist ihr wirklicher Lebensprozess", Karl Marx.

Die Frage nach Gott, nach dem Tod, die Frage nach dem Wesen des Menschen (seiner Seele) und die nach dem Materialismus reicht bis in die Ökonomie. Ist die heutige Ökonomie reiner Materialismus? Zumindest hat die moderne Ökonomie gezeigt, dass sie praktisch ist. Anders kann man die Fortschritte der Menschheit in den letzten Jahrhunderten nicht erklären. Natürlich ist sie als "Raubtier-Ökonomie" auch für viele Missstände und Ungerechtigkeiten verantwortlich (und damit auch für viel Leid auf der Welt; "zügelloser Kapitalismus"; vgl. z. B. die Kritik von Naomi Klein am globalen Kapitalismus). "Ich weiß nicht woher ich komme, ich weiß nicht wohin ich gehe, trotzdem bin ich fröhlich", N. N. (bringt die Philosophie auf den Punkt). Als erster behandelt der griechische Philosoph Epikur (um 341 - 270 v. Chr., vgl. auch weiter oben) die Frage nach dem Tod. Er beantwortet die Frage, warum wir ihn nicht fürchten müssen: "Der Tod ist für uns ein Nichts, denn was der Auflösung verfiel, besitzt keine Empfindung mehr. Was aber keine Empfindung mehr hat, das kümmert uns nicht", Epikur. Deshalb sollte sich der Mensch auf sinnlich erfahrbare und notwendige Dinge des Lebensbedarfs konzentrieren und sich daran erfreuen (hedonistische Philosophie). Im Mittelalter war die Philosophie eng mit der Frage nach Gott, also der Religion, verknüpft. Die Klöster waren wichtige Zentren. In ihnen wurden auch ökonomische Grundlagen der Philosophie analysiert. Bier und Wein waren wichtige Handelsprodukte der Klöster.

Weitere wichtige Aspekte der Philosophie sind Ethik (Kant, Nietzsche, John Rawls), Glauben (Thomas von Aquin, Kierkegaard) und Gesellschaft (Hobbes, Rousseau, Rawls) und Wissen (Platon, Locke, Carnap). John Locke (1632 - 1704) ist auch einer der philosophischen Väter unseres Rechtsstaates. Er legt die Entscheidung in Konfliktfällen in die Hände des Volkes. Macht legitimiert sich nicht durch sich selbst, sie wird auf Zeit verliehen. Thomas Hobbes (1588 - 1679) weist darauf hin, dass vor dem Gesetz alle Menschen gleich sind.  Gott schuf den Menschen nach seinem Bilde, sagt die Bibel; die Philosophen machen es gerade umgekehrt, sie schaffen Gott nach dem ihrigen", Georg Christoph Lichtenberg, deutscher Philosoph. In seinem neuen Buch von 2019 behandelt Jürgen Habermas grundlegend diese Aspekte. Er gibt zur Zeit keine bessere Analyse dieser Gesichtspunkte im Zusammenhang: Das Buch gibt im Stil einer Genealogie darüber Auskunft, wie die heute dominanten Gestalten des westlichen nachmetaphysischen Denkens entstanden sind. Als Leitfaden dient ihm der Diskurs über Glauben und Wissen. Er zeichnet nach, wie sich die Philosophie sukzessive aus der Symbiose mit der Religion löst und säkularisiert (so behandelt er unter anderen auch die oben erwähnten Philosophen Thomas von Aquin, Kierkegaard, Hobbes, Locke). Es ist auch eine Reflexion über die Aufgabe einer Philosophie, die an der vernünftigen Freiheit kommunikativ vergesellschafteter Subjekte festhält. Vgl. Angabe der Quelle unten. Habermas sieht den Anfangspunkt der Trennung zwischen Glauben und Wissen mit Luther (in der Theologie).  Descartes führt das empirische, realitätsorientierte Denken im Wissensbereich ein. Diese Arbeit wird von Hume fortgeführt. Kant beharrt auf der Berücksichtigung der Moral bei der praktischen Vernunft. In seinem wunderbaren Aufsatz "Was ist Aufklärung"  kommt er zu der wichtigen Erkenntnis, dass die Menschen eine starke Vaterfigur wünschen, die ihnen erklärt, wo es langgeht (hier hat er fast hellseherische Fähigkeiten bewiesen, Adorno hat mit seiner Autoritätsanalyse das verfeinert). Feuerbach und Marx setzen die Säkularisierung des Wissens endgültig um.

Einheit von Seele und Körper: Das die Seele etwas vom Körper Unterschiedenes, eigenständig Existierendes und möglicherweise Ewiges ist, ist einen Vorstellung, die von vielen Religionen, vertreten wird (auch in der Philosophie). Bis heute gibt es auf die Frage keine befriedigende Antwort. Die moderne Neurophysiologie sieht mehr und mehr Anzeichen dafür, dass geistige und seelische Prozesse aufs engste mit körperlichen Prozessen zusammenhängen. Damit scheint sich die These zu bestätigen, die der materialistische Aufklärungsphilosoph Julien Offray de La Mettrie (1709 - 1751) bereits 1748 in seiner Schrift "Die Maschine Mensch" aufgestellt hat: Körper uns Seele sind vom selben Stoff. Seelen bleiben an den Körper gebunden. Das ist ein fundamentaler Gegensatz zu allen Religionen. "Da aber alle Fähigkeiten der Seele derartig von dem eigentümlichen Bau des Gehirns und des ganzen körpers abhängen, dass sie offensichtlich nichts anderes als deiser Bau selbst sind, haben wir also eine durch die Vernunft gut erleuchtete Maschine vor uns", Julien Offray de La Mettrie. Vgl. Philosophie-Kalender 2020 in Kooperation mit Die Zeit.

Wenn man nach dem Einfluss großer Philosophen auf die Ökonomie fragt, gibt jeder sicher verschiedene Antworten. Insofern ist meiner Erwähnung einiger Namen durchaus subjektiv (ausführlicher bei Geschichte der Ökonomie): Die griechischen Philosophen (Sokrates, Platon, Aristoteles) haben die Basis gelegt. Der größte ökonomische Denker der Antike war Xenophon. Rene Descartes hat das Bild des Homo Oeconomicus  maßgeblich geprägt. Kant hat für die Berücksichtigung der Moral gesorgt. Zentral bei ihm ist die Vernunft: Sie ist uns von Natur mitgegeben und gleicht einer Art daueraktiven metaphysischer Frage - App (würde man heute sagen). Die Vernunft hat aber eine mangelhafte "Softwareausstattung". Hegel als wichtigster Philosoph des Idealismus hat mit seinem dialektischen Materialismus starken Einfluss auf Marx gehabt, dessen Gedanken die größten praktischen ökonomischen Auswirkungen hatten (China, Russland, Kuba, Nordkorea). David Hume machte sich schon philosophische Gedanken über die langfristigen Auswirkungen der Staatsverschuldung:  "Nur eine der beiden Katastrophen ist denkbar: Entweder beseitigt die Nation die Staatsschuld oder die Staatsschuld die Nation", David Hume, Ökonom und Philosoph, 1750. Von besonderer Bedeutung ist auch John Stuart Mill (1806-1873). In seiner Schrift "Die Hörigkeit der Frau" setzt er sich für die Rechte der Frau ein (und wurde damals verlacht). Wichtige weitere Kernpunkte seines Denkens waren die Freiheit und der Utilitarismus. John Rawls gilt als der Begründer einer modernen Theorie der Verteilungsgerechtigkeit (Theorie der Gerechtigkeit). Sein berühmtes Gedankenexperiment lautete: Wenn ich nicht weiß, ob ich reich oder arm bin, schwach oder stark, dumm oder intelligent, wie sollen dann die Güter für alle verteilt werden? John Rawls wurde 1921 geboren, 1971 erschien sein Bahn brechendes Werk "Theorie der Gerechtigkeit".  Er stand er Globalisierung skeptisch gegenüber, aber aus Respekt vor der kulturellen und politischen Pluralität der Menschheit.  Den Gedanken von Rawls greift Amartaya Sen in der Ökonomie auf: Am 22. Mai 1979 hält der indische Wirtschaftswissenschaftler und spätere Nobelpreisträger in Stanford einen programmatischen Vortrag mit dem Titel "Equality of What?". Darin übte er scharfe Kritik an den herrschenden Gleichheitsvorstellungen. Er skizzierte als Alternative zum ersten Mal seinen berühmten Fähigkeiten - Ansatz (vgl. Ders., Gleichheit? Welche Gleichheit? Stuttgart/ Reclam 2020).  Die Grenzen zwischen Ökonomie bzw. Soziologie und Philosophie verschwimmen in den Werken von Georg Simmel (1858 - 1918). Er stellt die Frage nach dem Wesen des Geldes und seiner gesellschaftlichen Bedeutung. Geld an sich hat keinen Eigenwert. Geld kommt immer dann ins Spiel, wo die Dinge zu käuflichen Waren werden. Der moderne Mensch muss jedoch aufpassen, nicht alles einer Kosten-Nutzen-Rechnung zu unterziehen, sonst macht er das Geld zu seinem Meister: "Alle anderen Dinge haben einen bestimmten Inhalt und gelten deshalb; das Geld umgekehrt hat seinen Inhalt davon, dass es gilt, es ist (...) das Gelten der Dinge ohne die Dinge selbst."  In der neueren Philosophie beschäftigt man sich auch mit den dem Markt, dem man Grenzen setzen sollte. Am bekanntesten ist hier Michael J. Sandel (geb. 1953, USA). Er ist ein Vertreter des Kommunitarismus, der die Bedeutung der Gemeinschaftstugenden betont. Die Werte unserer gemeinsamen Lebenswelt wie Freiheit, Kreativität, Gesundheit, Toleranz und gegenseitige Achtung müssen gegenüber anderen Wertvorstellungen Vorrang haben. Politik und Moral setzen den Rahmen, innerhalb dessen Kommerzialisierung stattfinden kann. Sokrates lehrt uns z. B. , dass Klarheit eine Qualität der Erkenntnis ist. Eine gute Regel auch für Ökonomen. Sicher auch folgender Ratschlag der alten Römer: "Si tacuisses, philosophus manisses" (Hättest du geschwiegen, dann hätte man dich weiter für einen Philosophen gehalten).

Mit dem Vordringen der Umwelt in der Ökonomie besinnt man sich in der Philosophie wieder auf die Natur. Hier kann man auch auf Philosophen zurückgreifen, die den Wert der Natur schon viel früher erkannt haben. So etwa Baruch de Spinoza (1632 - 1677) oder Antoine de Rivarol (1753 - 1801). Rivarol betont, dass wenn wir von der Natur verlangen, ihre Abläufe zu unterbrechen, greifen wir genau in das ein, was ihre Faszination ausmacht: Die Schönheit, Komplexität und Vielfalt der Natur als das eigentliche Wunder. "Wer Wunder verlangt, ahnt nicht, dass er von der Natur verlangt, ihre Wunder zu unterbrechen", Antoine de Rivarol. Arthur Schopenhauer (1788 - 1860) arbeitet heraus, dass die Natur dem einzelnen Menschen völlig gleichgültig gegenübersteht und keine Wohltaten verteilt. Sie ist der Lebensraum, der ebenso einladend wie bedrohlich sein kann und in dem wir uns selbständig orientieren müssen. "Der Natur liegt bloß unser Dasein, nicht unser Wohlsein am Herzen", Arthur Schopenhauer. Stephen Hawking (1942 - 2018, britischer Physiker) stellt die Natur in einen Gesamtzusammenhang mit Raum, Zeit und Universum.

Heute hat man große Erwartungen an die Philosophie von Seiten der Ökonomie im Hinblick auf die Bereitstellung von Werten: In allen Bereichen der Ökonomie, in der BWL und auch VWL, gibt es wieder eine größere Werteorientierung. Auch für die Bewältigung der Anforderungen der Digitalisierung braucht man Werte. Exemplarisch sei die materiale Wertethik genannt, die für die Digitalisierung geeignet erscheint. Sie wird in Max Schelers Werk "Der Formalismus in der Ethik und die Materiale Wertethik" entwickelt. Scheler war Soziologe und Philosoph. Ich beziehe mich auf ein Sekundärwerk dazu: Spiekermann, Sarah: Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert, München (Droemer) 2019, S. 36ff: Vertrauen in menschliche Gefühle. Objektiv erfahrbare Werte sind der Schlüssel zur Ethik. Es werden drei Wertebenen unterschieden. Zusammenspiel von Werten und Technik. Aufmerksamkeit für Werte. Tugenden. In USA diskutiert man pragmatischer über Philanthropie. Vgl. den Abschnitt "Werteorientierung" bei der BWL. Das führt auch zur Bedeutung der Empathie, die heute auch in der Philosophie diskutiert wird. Immer dann, wenn wir es mit unseren Mitmenschen zu tun bekommen, werden die Grenzen der rationalen Mittel deutlich. Menschliches Handeln kann also nicht allein von abstrakten Regeln bestimmt werden, sondern muss in einem Gemeinschaftsgefühl wurzeln "Die Welt, aus der die Gefühle verbannt werden, ist eine verarmte Welt (...). Die abstrakte Sichtweise des abwägenden Intellekts ist ein stumpfes und relativ beschränktes Instrument, wenn ihr nicht die lebhafte und empahische Vorstellung zur Hilfe kommt, die sich ausmalt, was es wirklich bedeutet, ein bestimmtes Leben zu führen", Martha Nusssbaum, US-Philosophin, geb. 1947.

Wenn man nach großen Namen in diesem und letzten Jahrhundert in der deutschsprachigen Philosophie fragt, kommt man an der hermeneutischen (interpretative Verständnis)  und phänomenologischen Tradition (Erscheinung der Wirklichkeit im Mittelpunkt) nicht vorbei: Edmund Husserl, Martin Heidegger (beide Freiburg), Hans-Georg Gadamer (Heidelberg) haben aktuell international einen großen Einfluss gehabt. Gerade bei Heidegger (1889-1976, Sein und Zeit) wird aber auch deutlich, wie dumm intelligente Menschen sein können: Im Mai 1933 hielt Heidegger als frisch ernannter Rektor der Uni Freiburg seine Antrittsrede. In einem Zeitungsartikel ermahnte der philosophische "Daseinsführer" die deutsche Studentenschaft: "Nicht Lehrsätze und Ideen seien die Regeln Eures Seins. Der Führer selbst und allein ist die heutige und zukünftige deutsche Wirklichkeit und ihr Gesetz". Die Sprache hat eine große Bedeutung für die Struktur der Philosophie. Sehr wahrscheinlich wären die großen Leistungen der deutschen Philosophie nicht ohne die deutsche Sprache möglich gewesen. Es ist noch relativ wenig erforscht, wie die Struktur der deutschen Sprache Denkstrukturen beeinflusst. "If the English language made any sense, "lackadaisical" would have something to do with a shortage of flowers", Doug Larson, US-Journalist, geb. 1926; to lack a daisy - ein Gänseblümchen fehlt; heißt aber halbherzig.

Zimmer im Nietzsche-Archiv in Weimar (Das Haus ist Art Deco von Henry van der Velde). Dort lebte der Philosoph die letzten drei Jahre seines Lebens mit seiner Schwester. Diese hat später einen Kontakt zu den Nazis hergestellt und diese instrumentalisierten die Philosophie ("Übermensch"). Sie hatte schon mit ihrem Mann vorher in Chile eine rechtsradikale Kolonie betrieben, die Pleite ging. Deshalb war der Philosoph in der DDR eine Unperson. Nietzsche selbst war aber kein Anti-Semit und kein Sympathisant der Nazi-Ideologie. Er lebte auch viel im Ausland: in Basel, Sils - Maria, Genua, Sorrent, Venedig, Turin, Nizza. Nietzsche hatte großen Einfluss auf die Entwicklung der Philosophie in Deutschland und der Welt. Ein war ein großer Provokateur der europäischen Geistesgeschichte. Er hatte ganz wichtige radikale und globale Überlegungen. Reisen und Freiheit vom Nationalen waren wichtig für ihn. Er suchte nach Wahrheit und bleibenden Werten. Sein bekanntestes Werk ist "Also sprach Zarathustra". Nietzsche lebte von 1844 bis 1900. Vgl. Iven, M./ Fischer, A.: Lebensweg des Friedrich Nietzsche, Berlin 2011. "Es steht Niemandem frei, überall zu leben, und wer große Aufgaben zu lösen hat, die seine ganze Kraft herausfordern, hat hier sogar eine sehr enge Wahl", aus: Ecce homo, 1888. Als erster Philosoph weist er darauf hin, das die Philosophie ein Gebäude ist. Das ist aber nicht fertig. Es bleibt vielmehr eine Baustelle, ein Rohbau, auf dem angebaut, umgebaut, Materialien ausgetauscht und neue Konstruktionen ausprobiert werden.

Es gab auch bedeutende Philosophen und Soziologen, die in der Nazi-Zeit Deutschland verlassen mussten und im Ausland mit ihren Gedanken gegen das rechte Regime in Deutschland kämpften. Dazu gehören Hannah Arendt und Theodor W. Adorno. Arendt wurde 1906 in Hannover geboren. Sie entkam nur knapp ihren Verfolgern. Sie war sicher eine der größten Gesellschaftstheoretiker des 20. Jahrhunderts. Sie wollte rücksichtslos aufklären gegen den Totalitarismus. Berühmt sind ihre Zeitungsartikel zum Eichmann-Prozess. Sie hatte zeitweise ein Verhältnis mit ihrem Lehrer Heidegger. Mit vierzehn hatte sie schon alle Werke von Kant gelesen. Vgl. Ken Krimstein: Die drei Leben der Hannah Arendt. Übersetzt von Hans Zischler, 2022. Ebenso hat sich Adorno, einer der Begründer der "Frankfurter Schule" (zusammen mit Max Horkheimer), mit den Gründen für die Ausbreitung des Nationalsozialismus in Deutschland beschäftigt. Sein Artikel über die Entstehung des  Rechtsradikalismus ist noch heute sehr interessant und aktuell.

Andererseits gab es Philosophen, die als Vordenker des Nationalsozialismus gelten. Dazu gehört Ernst Jünger, der 1998 starb (1895 in Heidelberg geboren). Besonders umstritten sind seine Kriegserinnerungen "In Stahlgewittern". Ein weiteres Buch basiert auf Kriegserinnerungen: "Das Wäldchen 125". Hierin findet sich die Losung "Ich hasse die Demokratie wie die Pest". Auch Heidegger zählt zu den Wegbereitern des Nationalsozialismus. Im Mai 1933 hielt Heidegger als frisch ernannter Rektor der Uni Freiburg seine Antrittsrede. In einem Zeitungsartikel ermahnte der philosophische "Daseinsführer" die deutsche Studentenschaft: "Nicht Lehrsätze und Ideen seien die Regeln Eures Seins. Der Führer selbst und allein ist die heutige und zukünftige deutsche Wirklichkeit und ihr Gesetz". Vgl. auch oben zu seiner Philosophie.

Ich habe mein Studium der Volkswirtschaftslehre, Betriebswirtschaftslehre, Soziologie und Psychologie  mit einer Analyse der Legitimität abgeschlossen (Diplomarbeit; Konzepte von Jürgen Habermas, Niklas Luhmann, Max Weber, Talcott Parsons u. a. bei Renate Mayntz in Köln). Die Bedeutung des Legitimitätsglaubens ist aktuell weltweit noch gestiegen. Vgl. als kurzen Überblick über die Wissenschaft der Philosophie: Tom Morris, Philosophie für Dummies, Weinheim 2014. Auch: Vogt, Matthias: Philosophie - Von  der Antike zur Gegenwart, 2005. Ebenso: Bassham, Gregory: Das Philosophie-Buch, Kerkriel/NL 2018. Gut auch: Jordan, Stefan7 Nimtz, Christian: Grundbegriffe der Philosophie, Reclam 2019, 3. Auflage.

Aktuelle Bedeutung: Wir leben heute in einer Zeit der Wirtschafts- und Demokratiekrise. Gleichzeitig ist es auch eine Orientierungskrise. Vielleicht entsteht ein neues Weltbild. Dafür wird die Philosophie dringend gebraucht. Wir benötigen die Philosophie auch in der Manager-Ausbildung. Wir dürfen es nicht zulassen, dass Maschinen einmal die  Kontrolle übernehmen. Dafür brauchen wir Führungskräfte, die philosophische Denkstrukturen beherrschen. Insbesondere ethisches Verhalten können Maschinen nicht leisten.  Es muss ein Grundverständnis darüber vermittelt werden, was Ethik ist, wie Politik funktioniert und wie Technik auf Gesellschaften wirkt.  Philosophische Denkpraxis ist für Führungskräfte unabdingbar. Wer einmal im permanenten Reaktionsmodus feststeckt, kann dem hektischen Alltag nicht mehr entfliehen", Anders Indset, Wirtschaftsphilosoph ("Wild Knowledge. Outthink the Revolution", "Philosophy@Work"). Auch von ihm: "Wir sind geschaffen, um schöpferisch zu sein. Wir sind auf dieser Welt auf der Suche nach plausiblen Erklärungen und nach einem tieferen Grund für unser Dasein. Das ist unser Antrieb", in: HBM, September 2018, S. 52.

Dominant ist, unabhängig vom politischen und ökonomischen System, heute der Pragmatismus. Der Begriff kommt vom Lateinischen "Pragma" = Tat, Handlung, Geschäft. In der Philosophie gibt es eine lange Reihe, die sich schon damit beschäftigt haben: C. S. Peirce (1839 - 1914, pragmatische Maxime, "How to make your Ideas clear"; John Dewey (1859 - 1952; Realität hat praktischen Charakter sind nur eine kleine Auslese). Sogar in Gesellschaften, die sich marxistisch nennen, wie in China oder Russland, hat er sich durchgesetzt. Insofern vereint diese Sichtweise die Systeme: Geschäft geht über Alles. Eine ähnliche Richtung ist heute der Utilitarismus. Er hat eine lange Tradition in Großbritannien. Diese Denkschule ist auch sehr einflussreich dort. Es ist die Lehre von der zweckorientierten Ethik: Alle Entscheidungen werden daran gemessen, ob sie der größtmöglichen Zahl von Menschen das größtmögliche Wohlbefinden garantieren. einer der führenden Vertreter dieser Richtung ist heute Roger Crisp (Professor für Moralphilosophie am St. Anne`s College in Oxford).

Der größte, noch lebende Philosoph der Welt: Jürgen Habermas (geb. 1929): Er spricht von Neo-Pragmatismus in seinen Schriften.  Er wuchs in Gummersbach auf. Er studierte Philosophie und promovierte in Bonn. 1956 ging er an das Institut für Sozialforschung in Frankfurt (Theodor W. Adorno, Max Horkheimer). 1964 wurde er Professor für Soziologie in Frankfurt. 1971 wurde er Co-Direktor am Max-Planck-Institut in Starnberg. 1983 wechselt er wieder nach Frankfurt. Berühmte Bücher von ihm sind: Strukturwandel der Öffentlichkeit, 1962. Theorie des kommunikativen Handelns, 1981. Legitimationsprobleme des Spätkapitalismus, 1976. 2019 im Herbst erscheint: Auch eine Geschichte der Philosophie, zwei Bände (1752 Seiten). Dieses Werk hat Habermas im Alter von 90 Jahren vollendet. Es ist eine Geschichte des philosophischen und religiösen Denkens.  Band 1: Die okzidentale Konstellation von Glauben und Wissen. Band 2: Vernünftige Freiheit. Spuren des Diskurses über Glauben und Wissen. Seine Werke wurden insgesamt in über 40 Sprachen übersetzt. Zentrale Themen sind: Demokratie, Rechtstaat, Rationalismus und globale Ordnung, insbesondere Europa. Er ist auch in Asien, vor allem Japan, sehr bekannt.  2006 wurde ein Asteroid nach ihm benannt. "Mündigkeit ist die einzige Idee, deren wir im Sinne der philosophischen Tradition mächtig sind", J. Habermas.

Habermas war immer am Puls der Zeit. Die "Frankfurter Schule" bzw. "Kritische Theorie" versuchte auch, den Faschismus aufzuarbeiten und zu erklären (berühmt ist der Aufsatz von Adorno über Rechtsradikalismus). In der Studentenbewegung 1968 setzte er sich mit Rudi Dutschke auseinander. Sein härtester Vorwurf gegenüber Dutschke war "sozialistischer Faschismus" (kurz drauf wurde Dutschke in Berlin bei der Demo gegen den Schahbesuch schwer verletzt). Im Historikerstreit 1986 entlarvte er die Positionen von Nolte und Hillgruber, die letztlich behaupteten, dass der Nationalsozialismus aus Angst vor dem Bolschewismus entstanden sei. Habermas diskutierte mit Ratzinger in München (als der schon Papst) war). Er setzte sich immer wieder für Demokratie und für Europa ein. Habermas ist sehr angesehen in Frankreich. Habermas hat gesellschaftliche Entwicklungen immer kritisch hinterfragt: Konflikte entstehen aus der Spannung zwischen System und Lebenswelt. Die menschliche Lebensform ist durch Kommunikation geprägt. Er entwickelt so die Idee der Aufklärung weiter in die Moderne. In der Philosophie ist wohl Axel Horneth sein bekanntester Schüler (heute an der Columbia University, N. Y.), in der Soziologie Claus Offe (zuletzt Uni Bielefeld). In der Soziologie ist seine langjährige Auseinandersetzung mit Niklas Luhmann unvergessen. Es ging im Kern um das Wesen der Kommunikation. Habermas hat mit seinem Denken auch stark führende Vertreter des politischen Systems in Deutschland beeinflusst (Joschka Fischer, Frank-Walter Steinmeier). Weitere wichtige Sätze: "Nur die Vernunft kann uns retten".  Habermas mischt sich 2023 noch mit 93 Jahren in die Politik ein. In der SZ fürchtet er die Eskalation des Krieges in der Ukraine und plädiert energisch für Friedensverhandlungen. "Angetrieben durch den bellizistischen Tenor einer geballten öffentlichen Meinung", Ders. in SZ vom 14.2.23.

Starphilosophen weltweit: Sehr bekannt ist Judith Butler von der Universität Berkeley/ Kalifornien/ USA. Sie lehrt Komparatistik und Kritische Theorie. Ihre bekannteste Studie ist "Das Unbehagen der Geschlechter, Suhrkamp 1991. Weitere Bücher von ihr sind "Am Scheideweg", 2012 und "Die Macht der Gewaltlosigkeit", 2020. Butler ist 2023 67 Jahre alt. Sie gerät in dem Jahr in Kritik wegen ihrer Haltung im Nahostkonflikt ("Philosopy for Palestine"). Weitere bekannte Philosophen sind Etienne Balibar und Nancy Fraser.

"Ein Mensch, so er denn weise ist, sollte sich niemals schämen, Neues zu lernen und stets seinen Geist dem Wissen zu öffnen", Sophokles, griechischer Philosoph.

Auf dem Album "Rough and Rowdy Ways" von Bob Dylan aus dem Jahre 2020 gibt es als letzten Song "Key West (Philosopher Pirat)". Musikalisch ist das Akkordeon-Arrangement sehr schön. Dylan gibt in dem Song einen scharfsinnigen und illusionslosen Rückblick über die Zerrissenheit der USA. 2020 ist Bob Dylan auf der Höhe seines Ruhmes. Das aktuelle Album "Rough and Rowdy Ways" erreicht erstmals Platz eins in den deutschen Charts. Der Song "Murder Most Foul" wird der erste Nummer-eins-Hit in den Billbord Charts der USA. Es kann als Kommentar zur Zeit gelesen werden. "Murder Most Foul" zeugt von einer apokalyptischen Grundstimmung. Technologie und Hyperindustrialisierung könnten sich letztlich gegen das menschliche Leben auf der Erde wenden.  2012 hatte Dylan die Freiheitsmedaille in den USA erhalten, 2016 den Literaturnobelpreis.

"Denken ist das Selbstgespräch der Seele", Platon. Dieser Spruch bildet die Verbindung der Philosophie zum folgenden Abschnitt, der Psychologie.

 

Psychologie und Ökonomie:

Das Bild "Nighthawks" von Edward Hopper, ausgestellt im Art Institute of Chicago/ USA, steht wie kaum ein anderes künstlerisches Werk für psychologische Interpretationen und ist gleichzeitig ein "Icon" der amerikanischen Kultur. Gerätselt wird über die Beziehungssituation des Paares an der Bar.

"Die Grundlage der politischen Ökonomie und, im Allgemeinen, jeder Sozialwissenschaft ist offensichtlich die Psychologie. Es mag ein Tag kommen, an dem wir in der Lage sein werden, die Gesetze der Sozialwissenschaften aus den Prinzipien der Psychologie abzuleiten", Vilfredo Pareto, Manual of Political Economy: A Variorum Translation and Critical Edition, herausgegeben von Aldo Montesanto et. al. Oxford University Press, (1906) 2013, Kap. 2, S. 21.

"Der Mensch ist dem Menschen das Interessanteste und sollte ihn vielleicht ganz allein interessieren", Johann Wolfgang von Goethe, Wilhelm Meisters Lehrjahre.

Beiden Wissenschaften gemeinsam ist die Lage zwischen Sozial- und Naturwissenschaften. Gerade in der Psychologie spielen biologische, medizinische, insbesondere neurowissenschaftliche, Erkenntnisse eine große Rolle (natürlich auch Mathematik und Chemie in der Psychologie).

Die Ursprünge der Psychologie liegen in der Philosophie. Berühmt ist das Motto bzw. der Appell des Orakels von Delphi "Erkenne dich selbst". Er gilt bis heute als Richtschnur und Maxime für ein gutes Leben. Gemäß dem griechischen Denken sollen wir vor allem unsere eigene Hinfälligkeit bedenken uns so dem Laster der Hybris vorbeugen. Vgl. Bettina Fröhlich: Sorge um das Selbst, in: Sektrum Spezial "Die Psychologie vergangener Kulturen", S. 20ff.

Bestimmte ganz alte Behandlungsformen könnte man der Psychologie zuordnen. So der Schamanismus, der bis zu 10.000 v. Chr. zurückgeht. Es ist die Heilkunde analphabetischer und wenig entwickelter Gesellschaften. Es waren die ersten Formen der Psychotherapie. Der Schamane musste die Seele finden und dem Körper zurückgeben. Auch die modere Psychotherapie versucht, das Verlorenen des Menschen wieder zu finden und zurückzugeben. In der Jungsteinzeit sind Schädelbohrungen bekannt (Trepanation). Vielleicht wurde die Methode auch bei Geisteskrankheiten angewandt. Das Handlesen war eine verbreitete Praktik in vielen alten Kulturen. Die vier edlen Wahrheiten Buddhas (500 - 400 v. Chr.) oder die konfuzianische Ethik (550 - 450 v. Chr.) haben viel mit Psychologie zu tun. Berühmt ist das große Werk von Aristoteles "De Anima" (Über die Seele", 300 v. Chr.). Er geht auf die Einheit von Körper und Seele ein. Wissen beginnt mit Wahrnehmung. Auch das Bhagwad Gita (200 v. Chr.) des Hinduismus, das im Kern das Yoga geprägt hat, hat wichtige Sichtweisen der Psychologie beeinflusst. Vgl. Pickren, W. E.: Das Psychologie Buch, Librero 2018, S. 16ff. Um 400 v. Chr. behauptet der griechische Arzt Hippokrates dass sich die Eigenschaften der vier Elemente Erde, Luft, Feuer und Wasser in den Körperflüssigkeiten widerspiegeln.

Im Mittelalter spricht man eher von Seele statt von Psyche. Aber es gab sowohl Unterschiede als auch Gemeinsamkeiten zu uns heute. Die Kultur scheint einige grundsätzliche Denkweisen und Wahrnehmungen von Menschen zu prägen sowie die Art, wie sie Gefühle ausdrücken und erleben. Dem mittelalterlichen Weltmodell zufolge war der Körper nicht strikt von der Seele unterschieden. Innere Prozesse wurden auf Ereignisse der Außenwelt projiziert. Insbesondere Heldenreisen boten die Möglichkeit, seelische Konflikte aufzuarbeiten (siegreicher Krieger, Suche nach Identität).

"Psychologie" als Begriff wurde von Marko Marulic (1450 - 1524) eingeführt. Das war 1506 in seinen Moralstudien. 1524 erschien das Wort im Titel seines Buches "Psichiologica de ratione animae humanae". Im 16. und 17. Jhd. erwiesen deutsche Gelehrte wie Philipp Melanchton, Johannes Thomas Freigius und Otto Casmann in ihren Veröffentlichungen auf die Psychologie bzw. Psychologia. Richtig bekannt wurde der Begriff durch den Philosophen und Schriftsteller Denis Diderot, der Psychologie in einem Essay zum Thema machte. Vgl. Pickren, W. E.: Das Psychologie Buch, Libreo 2018, S. 44.

1816 erscheint das erste Lehrbuch der Psychologie von Johann Friedrich Herbart (1776-1841; Lehrbuch zur Psychologie; wirkte zuletzt an der Uni Göttingen). Im späten 18. Jahrhundert erkannten Gelehrte endgültig, dass Philosophieren allein nicht genügt, um die Welt zu ergründen, sondern vielmehr zur Ergänzung der Beobachtung bedarf. Der Schriftsteller und Pädagoge Karl Philipp Moritz gründete eine Zeitschrift mit Erfahrungsberichten zur Erforschung des "Gewebes der Gedanken". Er gilt als Wegbereiter der experimentellen Psychologie. Antrieb dieser Entwicklung war eine unglückliche Kindheit, die kein "Selbtzutrauen" aufkommen ließ und der Wusch, Wege zur Selbstheilung der Seele aufzuzeigen. Vgl. Steve Ayan: Seelenlehre. Die Leiden des Jungen M., in: Spektrum Spezial "Die Psychologie vergangener Kulturen" 2/2018, S. 84ff. Wilhelm Wundt (1832 - 1920) machte die weltweit ersten Lehrveranstaltungen zur experimentellen Psychologie. 1879 eröffnete er das erste psychologische Institut an der Uni Heidelberg. 1896 erschien sein Lehrbuch "Grundriss der Psychologie". Vgl. Collin, C. u. a.: Das Psychologiebuch, München 2020, S. 37. 1890 veröffentlicht der "Vater der Psychologie in den USA" William James (1842-1910) das Buch "Principles of Psychology"

Die Psychologie als Wissenschaft wurde besonders im 20. Jahrhundert im deutschsprachigen Raum geprägt. Einer der Väter ist Sigmund Freud, der in Wien geboren wurde und dort zuerst auch praktizierte (Vgl. unten). Der zweite ist einer der großen Vergessenen der Wissenschaftsgeschichte. Es ist William Stern. Er war mindestens so wichtig wie Freud. Er gilt als Erfinder des Intelligenzquotienten und prägte stark das psychologische Denken. Stern hatte jüdische Eltern und wurde in Berlin geboren (1871). Er studierte in Berlin und bekam seine erste Professur in Breslau. 1900 erschien seine Schrift "Über Psychologie der individuellen Differenzen". Es war eine Art Grundlegung des Faches. Er war gegen die Selbstüberschätzung des neuen Faches und gegen "experimentelle Scheinprüfungen" (Psychotechnik). Mit Hilfe der Methode der Naturwissenschaften kann man menschliche Individualität nicht erfassen. Diese Kritik ist heute noch aktuell. Im Dritten Reich musste Stern Deutschland verlassen (Uni Hamburg, zuerst Niederlande, dann USA). Otto Kernberg: Er gilt als bekanntester Psychoanalytiker der Gegenwart (95 Jahre 2023). Er wurde 1928 in Wien geboren. Die Eltern mussten 1939 vor den Nazis fliehen. Er war zuletzt Professor für Psychiatrie an der Cornell University in New York. Er ist Anhänger der Freudschen Theorie, bezieht aber auch neurobiologische Erkenntnisse ein. Er behandelt noch heute Menschen in seiner Praxis. Er behandelt schwere Persönlichkeitsstörungen. "Narzismus ist ein normaler Aspekt der Persönlichkeit", Otto Kernberg. Vgl. Der Spiegel 39/ 23.9.2023, S. 94ff.

In der Psychologie heute geht es um die Grundausstattung des Menschen (Fühlen, Wahrnehmen,  Denken, Erinnern und Vergessen, Erleben, Handeln, Verhalten). Vgl. Jordan, Stefan/ Wendt, Gunna: Lexikon der Psychologie, Stuttgart 2005. Als Lehrbuch: Cash, Adam: Psychologie für Dummies, Weinheim 2005.

Psychologie sagt uns damit, wer wir sind und wie wir sein könnten. Mit ihr können wir und erklären, wie wir die Welt konstruieren, wie wir unser Zusammenleben arrangieren und wie wir an unsere Grenzen kommen. Vgl. Oehler, R./ Bernius, V./ Wellmann, K. - H.:  Was kann Psychologie, Weinheim und Basel 2009. "Der Mensch ist ein Zwischenwirt - für Religion und Fußpilz", Gerhard Polt in seinem Programm 2016.

In jedem Beruf ist Psychologie relevant: Wir müssen uns kennen und gleichzeitig die anderen. Jeder führt und wird geführt. Man muss schwierige Situationen meistern, insbesondere Stress im Beruf bewältigen. Vgl. Boris von der Linde/ Svea Steinweg: Psychologie im Beruf, München 2009.

Vom Gottesbild zum Menschenbild (Individualismus versus Kollektivismus): Im antiken Ägypten (aber auch in Babylon oder bei den Kelten) bei den Pharaonen lautete die Selbstdefinition Gottes: "Ich bin, was da ist" (Inschrift auf einer Stehle). Gott definiert sich als das Seiende, die Natur. Der Gott Israels, der alle anderen monotheistischen Richtungen geprägt hat, wird im alten Testament wie folgt beschrieben: "Ich bin, der ich bin. Gott hat Dich bei Deinem Namen gerufen". Beim ersten Gottesbild geht es um die Ein- und Unterordnung des Menschen gegenüber der Natur. Beim zweiten Gottesbild geht es nur um die Akzeptanz der Natur in Anbetracht des Schicksals des Einzelnen. Das ist  die Grundlage des humanen Denkens. Der einzelne wird bei seinem Namen gerufen. Nicht das Kollektiv, nicht die große Zahl, sondern Gott widmet sich jedem einzelnen. Darin ist die Würde des Menschen begründet. Das ist im Kern auch die Ursache unterschiedlicher Vorstellungen über Menschenrechte im Westen und in China. China ist im Menschenbild antiker Natur-Religionen stehen geblieben. Das Menschenbild ist eine wichtige Basis der Psychologie. Es geht dabei auch um das Idealbild von einem Menschen ("neuer" Mensch). Die Ökonomen sind eher pessimistischer.

Die Psychologie als Wissenschaft gliedert sich in Spezialgebiete. Eine Einteilung lautet: 1. Behaviorismus. 2. Psychotherapie. 3. Kognitive Psychologe. 4. Sozialpsychologie. 5. Entwicklungspsychologie. 6. Differenzielle Psychologie. Vgl.  Vgl. Collin, C. u. a.: Das Psychologiebuch, München 2020. Es gibt andere Systematiken, z., B. Allgemeine Psychologie, Entwicklungspsychologie, Persönlichkeitspsychologie, Sozialpsychologie. Vgl. Waldbrühl, Ulrich: Wirtschaftspsychologie für dummies, Weinheim 2022.

In der Ökonomie steht die Sozialpsychologie im Mittelpunkt. Sie behandelt die Beziehungen zwischen Menschen. Es geht um Soziales Lernen und Sozialisation, Motivation und soziales Handeln, soziale Vergleichsprozesse, soziale Wahrnehmung und Kognition, soziale Einstellungen, Kommunikation, Interaktion (soziale Rollen), Gerechtigkeit, Macht und Führung, Norm und Abweichung, Gruppenstruktur, Konflikt und Wettbewerb. Vgl. Fischer, L./ Wiswede, G.: Grundlagen der Sozialpsychologie, München 2009.

Der wichtigste lebende Psychologe für die Wirtschaftswissenschaften dürfte Daniel Kahneman sein (Vgl. Kahneman: Schnelles Denken, Langsames Denken, München 2012). Er ist auch Nobelpreisträger der Wirtschaftswissenschaften. Das obige Buch ist von großer Bedeutung für den Zusammenhang von Psychologie und Wirtschaftswissenschaften gewesen. Kahneman kommt von der Wahrnehmungspsychologie. In seinem Buch behandelt erfolgende Themen: 1. Zwei Systeme (automatisch und schnell; subjektives Erleben und komplexe Berechnungen). 2. Heuristiken und kognitive Verzerrungen. 3. Selbstüberschätzung. 4. Entscheidungen. 5. Zwei Selbste.

Innerhalb der Sozialpsychologie haben sich Arbeitsgebiete herausgebildet, die besonders relevant für die Ökonomie sind. Man spricht auch von Wirtschaftspsychologie. Einmal die Organisationspsychologie, die alle menschlichen Aspekte der Arbeitswelt behandelt (Personal). Vgl. Lutz von Rosenstiel: Grundlagen der Organisationspsychologie, Stuttgart 2003. Zum anderen die Wirtschaft- bzw. Marktpsychologie, die stark in die Volkswirtschaftslehre und das Marketing hineinwirkt. Es werden sowohl makroökonomische als auch mikroökonomische Prozesse analysiert. Vgl. Günter Wiswede: Einführung in die Wirtschaftspsychologie, München/ Basel 1995. Manchmal wird noch speziell zusätzlich von Personalpsychologie, Arbeitspsychologie, Gesundheitspsychologie und Finanzpsychologie geredet. Vgl. Waldbrühl, Ulrich: Wirtschaftspsychologie für dummies, Weinheim 2022 82. Auflage).

Durch die Renaissance der Behavioral Economics finden immer mehr psychologische Theorien und Forschungsmethoden (Hirnforschung, experimentelle Forschung) Einzug in die Ökonomie (in deutschsprachigen Raum aktuell vor allem durch die Ökonomen Fehr und Ockenfels).

In mehreren meiner Veranstaltungen beziehe ich psychologische Grundlagen (habe Sozialpsychologie als Fach studiert)  stärker ein, allerdings immer in Bezug auf die Praxis. Das gilt für die Personalökonomik und für Psychologie und Kommunikation/ Interkulturelle Kompetenz. Eine neuere Veranstaltung (Psychologie und Soziologie der Führungskompetenz) geht noch stärker auf Psychologie ein.

"Wir wissen von unserer Seele wenig und sind sie selbst", Georg Christoph Lichtenberg.

 

Zehn Regeln der Volkswirtschaftslehre aus unternehmerischer Sicht (Grundfragen):

"Wenn eine Gesellschaft den vielen, die arm sind, nicht helfen kann, kann sie auch die wenigen nicht retten, die reich sind", John F. Kennedy, 1917-1963, US-Präsident (zitiert nach Mankiw u. a., s. unten, S. 482).

Diese Regeln bzw. Grundfragen sind folgendem Lehrbuch entnommen: N. Gregory Mankiw/ Mark P. Taylor/ Andrew Ashwin: Volkswirtschaftslehre für Schule, Studium und Beruf, Stuttgart (Schäffer  Poeschel) 2015:

1. Alle Menschen und Unternehmen stehen vor abzuwägenden Alternativen.

2. Die Kosten eines Gutes bestehen aus dem, was man für den Erwerb eines Gutes ausgibt.

3. Rational entscheidende Menschen und Unternehmen denken in Grenzbegriffen.

4. Menschen und Unternehmen reagieren auf Anreize.

5. Durch Handel kann es jedem besser gehen.

6. Märkte sind für gewöhnlich gut für die Organisation des Wirtschaftslebens.

7. Regierungen können manchmal die Marktergebnisse verbessern.

8. Der Lebensstandard eines Landes hängt von der Fähigkeit ab, Waren und Dienstleistungen herzustellen.

9. Die Preise steigen, wenn zu viel Geld in Umlauf ist.

10. Die Gesellschaft hat kurzfristig zwischen Inflation und Arbeitslosigkeit zu wählen.

"Die Lektüre von ´Volkswirtschaftslehre´ wird Sie besser verstehen lassen, welche Möglichkeiten und Grenzen der Wirtschaftspolitik gesetzt sind und wie sie auf das Verhalten von Unternehmen wirkt", Mankiw u. a. s. oben, S. XV.

 

Die Beutung der Rechtswissenschaften und der Ingenieurwissenschaften für die Ökonomie fehlt hier, weil es sehr spezielle Einsatzbereiche sind: Die Rechtswissenschaften spielen in der Volkswirtschaftslehre vor allem in der Wirtschaftspolitik eine Rolle (z. B. Wettbewerbspolitik) oder in der Betriebswirtschaftlehre etwa in der Personalwirtschaft (Arbeitsrecht). Die Ingenieurwissenschaften finden insbesondere in der Produktionslehre, der Arbeitswissenschaft (z. B. Taylor), der Logistik und der IT-Technologie ihre Anwendung.

 

Fortsetzung des VWL - Lehrbuchs auf der Seite Fallstudie/ E-Learning: hier (Volkswirtschaftslehre, Inhalt: Fallstudien, Funktionsweise, Ideologien (Ideen) und Wirtschaft, wirtschaftspolitische Grundkonzeptionen, Marktbetrachtung (Grundlagen, Finanzmärkte, Umwelt, Arbeitsmarkt), Weltwirtschaftskrise,  Wirtschaftsordnungen) und auf dieser Seite "Methode" (Methode und Wissenschaftstheorie der VWL).

 

"Es gibt in der Pfalz ein liebes Nest, das hält mein Herz und meine Seele fest", Karl May über die Villa Motzenbäcker in Ruppertsberg, Pfalz (am 30. März 1912 starb Karl May in Radebeul bei Dresden).

Der Pfälzer Dialekt bietet eine Menge von Begriffen, um die Benutzer gewisser methodischer Regeln und Verfahren humorvoll zu kennzeichnen: Dappschädel, Dibbelschisser, Dollbohrer, Griwwelbisser, Labbeduddel.

Auch für andere Kommentare gibt es hervorragende Sätze: Uffpasse! Kumm, geh fort!, Pänn mer die Gäns!, Du machst mich ganz heckewelsch, Liewer en Bauch vum Esse wie en Buckel vum Schaffe.