Werner Krämer

 Methoden: Statistik, Geschichte, Mathe, Logik, Spiel, Daten  

Wirtschaftsforschung Statistik Economics Data collection Home Impressum Sitemap

"Die gefährlichsten Wahrheiten sind Wahrheiten, mäßig entstellt", Georg Christoph Lichtenberg, dt. Schriftsteller, 1742-1799. Die Kenntnis der Methoden soll der Manipulation entgegenwirken.           

Inhalt:  (Übungs-) Modell; Spieltheorie; (Übungs-) Lern-Datenraster (Data collection: die wichtigsten Daten und Informationen mit Quellen);  Methode der Ökonomie und Volkswirtschaftslehre (VWL); Wissenschaftstheoretische Grundlagen  der Ökonomie und VWL; Betriebswirtschaftslehre/ Business Economics als Wissenschaft; Wirtschaftsgeschichte und Ökonomiegeschichte; Markt oder Staat? Einfluss und staatliche Eingriffe (neue Ökonomie nach zwei Krisen). Neuere Konzeptionen und Ansätze der Ökonomie; Rolle der Statistik bzw. ÖkonometrieZusammenhang zwischen Modell, Planspiel, Rollenspiel und Simulation; Empirische Forschungsmethoden in der Ökonomie und den Wirtschaftswissenschaften; Prognose der Weltwirtschaft bis 2033; Mathematik und Ökonomie; Statistik: Daten und Methoden; Stoff von Statistik in der Lehre, Statistik und kognitive Psychologie: Factfulness; Manipulation mit Statistik; Datenethik und Qualität der Statistik; Statistik in China und ihre Genauigkeit; Corona-Krise und Statistik; wissenschaftlich, analytisches Denken; Philosophie und Ökonomie (Logik); Psychologie und Ökonomie; Soziologie und Ökonomie;  Zehn Regeln der VWL aus unternehmerischer Sicht; Stellenwert des Internet; Ökonomische Aspekte der Präsentation im Internet; Sonstige Gebiete (Blogs,Wikis).

 

Knossos, Palast, auf Kreta. Die minoische Kultur ist die älteste Hochkultur Europas (vor über 4000 Jahren). Damit ist sie letztlich auch die Wiege unseres wissenschaftlichen, auch ökonomischen und volkswirtschaftlichen, Denkens. Der Kontinent "Europa" hat seinen Namen von jener phönizischen Prinzessin Europa, die der Göttervater Zeus in Gestalt eines Stiers nach Kreta entführte (Gründungsmythos). Die Insel beherrschte die Meere mit einer mächtigen Flotte. Die neueste Forschung berichtet aber auch von Menschenopfern und Kannibalismus. Die Minoer waren aber auch Europas erste alphabetisierte Gesellschaft. Erbgutanalysen des Max-Planck-Instituts für Menschheitsgeschichte 2017 zeigen, dass die Hochkultur von ersten jungsteinzeitlichen Bauern aus Westanatolien und Griechenland abstammt. Seit dem dritten Jahrtausend sind Handelsbeziehungen zwischen Anatolien und dem alten Ägypten nachweisbar. Kulturen gab es aber schon weitaus früher in Europa. Davon zeugt auch die Chauvet-Höhle im südfranzösischen Ardeche-Tal. Vor 36.000 Jahren wurden dort mit Holzkohle und Ocker hervorragende Tierzeichnungen hinterlassen. Noch ältere Höhlenzeichnungen hat man 2018 auf Borneo gefunden: Bis zu 52.000 Jahre alt könnten die Zeichnungen in der Höhle Lubang Jeriji Saleh sein. Methoden haben eine Schlüsselfunktion in der Kultur und Wissenschaft. Im Kern liegt ihre Bedeutung darin, Manipulationen aufzudecken, wie es das Zitat oben von Lichtenberg auf den Punkt bringt. Im Oktober 2018 ist ein Buch vom Vorsitzenden der Grünen Robert Habeck erschienen: Wer wir sein könnten. Warum unsere Demokratie eine offene und vielfältige Sprache braucht (Köln, Kiepenheuer & Witsch 2018). Das Buch beschäftigt sich mit der Bedeutung der Sprache in der Kultur. insbesondere der politischen Kultur. Sprache ist eine wichtige methodische Grundlage. Eine zentrale Frage ist, ob das Vordringen der englischen Sprache als Wirtschaftssprache das ökonomische Denken verändert.

Die Minoer beeinflussten viele Nachfolgekulturen wie Mykene, Tiryns, Midea und Theben. Die minoische Schrift wurde mit übernommen. Bis heute ist ungeklärt, wieso diese Kulturen untergingen. Die Schätze von Mykene wurden von dem deutschen Archäologen und Kaufmann Heinrich Schliemann ausgegraben. Von Dezember 2018 bis Juni 2019 läuft im badischen Landesmuseum Karlsruhe eine Ausstellung zu Mykene.

 

   Fortis fortuna adiuvat

Das Schiff hängt mehr am Ruder denn das Ruder am Schiff (Sprichwort)

Ökonometrisches Übungsmodell für Deutschland:

Gliederung: I. Basisdaten, II. Logische Struktur, III. Wirtschaftspolitische Steuerung, IV. Erläuterungen, V. Wichtige Grundlagen eines Modells und der Spieltheorie, VI. Lernhilfe.

 

I. Basisdaten  ( erhalten Sie unter anderem über die Institutionen in "Links")

Wirtschaftswachstum (BIP ), Außenwirtschaftliches Gleichgewicht (AG)

Arbeitslosenquote   (AL)

Inflationsrate    (IR)

Exporte (X) + Importe (M)

Investitionen  (I),    Konsum (C)

Leitzins (i),     Preise (P)

Wechselkurs (WK)

Löhne (L oder W)

II. Logische Struktur:  (Einfachstkonjunkturmodell als Denkstruktur)

Finanzpolitik                                                                    Wirtschaftswachstum

                        Wechselkurs           Exporte (+ M)         Außenwirtschaft

                            Löhne                                                  Arbeitslosenquote

                          Zins                      Investitionen

Geldpolitik           Preise                  Konsum                     Inflationsrate

 

III. Wirtschaftspolitische Steuerung (spieltheoretische Auszahlungsmatrix)

                                                          Finanzpolitik (Staatshaushalt)

                                               hohe HH-Defizite     geringe HH-Defizite

                  niedrige Zinssätze    sehr niedrige AL       mäßig hohe AL

                                                 sehr hohe IR             mäßig hohe IR

Geldpolitik (EZB)                      mäßig hohe I             hohe I

                  hohe Zinssätze         mäßig hohe AL          hohe AL

                                                 mäßig hohe IR           geringe IR

                                                 geringe I                    mäßig hohe I              

Hauptziel der Europäischen Zentralbank ist die Geldwertstabilität. Der Staat muss im Rahmen des Stabilitätspaktes handeln.

IV. Erläuterungen

Dieses kleine Modell soll nur die Methode der Volkswirtschaftslehre verdeutlichen. Es setzt die Kenntnis der Grundlagen der VWL voraus. Für praktische Prognose- und Analysezwecke ist es natürlich nicht geeignet. Die Variablen können spielerisch beliebig geändert werden. Empirische Informationen und Daten erhalten Sie, wenn Sie den Links nachgehen. Dies sollte aber nicht als Data-Mining ("automatisches" Durchforsten riesiger Datenmengen) gesehen werden, denn dies liefert immer mehr zweifelhafte Resultate.  Jeder Student bzw. Ökonom sollte sich sein persönliches Info - Netzwerk zulegen, da man einige wichtige Daten auch für Prüfungen parat haben sollte.  Ein komplexes Simulationsmodell finden Sie unter anderem  in Clement u. a.: Praxis der Wirtschaftspolitik, München 2001. Auch Kollege Prof. Dr. Ulli Guckelsberger bietet ein Modell der Konjunkturprognose als Download auf seiner Homepage an (Pfad: Home HS LU, Studium, Professoren). Weitere, neuere Modelle können Sie einsehen unter: www.macroeconomicbase.com .

"Der Mensch hat Hoffnung, der Wirtschaftsweise Zahlen. Und deren Botschaft ist klar: Es wird alles schlechter, wenn nicht in diesem Jahr, dann wenigstens im nächsten. Die Statistik ist die Religion der Marktwirtschaft", Martin Gerstner, in: Sonntag Aktuell, 22. 10. 2006, S. 1.

V. Wichtige Grundlagen eines Modells und der Spieltheorie

"Nichts in der Welt ist schwierig, es sind nur die eigenen Gedanken, welche den Dingen diesen Anschein geben", Wu Cheng`en.

Modell:

"Wir sehen die Dinge nicht, wie sie sind, sondern so, wie wir sind", Talmud.

Die Methoden der VWL werden in ökonomische Modelle eingebracht. Diese sind  Gedankenexperimente, die oft mit der Ceteris-paribus-Annahme arbeiten (siehe unten). Sehr bekannt sind die Produktionsmöglichkeitskurve und das Konzept des komparativen Vorteils . Ein ökonomisches Modell ist die kompakte, vereinfachte Abbildung der ökonomischen Realität (Beispiel: Wirtschaftskreislauf, vom Physiokraten Francois Quesnay, 1694-1774, "Tableau economique" erschien 1758; am bekanntesten ist das IS/LM-Modell, das durch Analyse des Zusammenwirkens von Güter- und Geldmarkt die Bestimmung des Gesamteinkommens bei gegebenem Preisniveau zeigt). Das GINFORS (Global Interindustry Forecasting System) ist ein aktuelles Modell, das auch die Umwelt einbezieht. Alle vorliegenden Modelle sind noch nicht in der Lage, alle ökonomischen Phänomene zu erklären oder zuverlässige Prognosen abzugeben. "Das ist eine Mahnung, dass jedes Modell nur eine grobe Annäherung an die Realität sein kann", Spencer Dale, Chef - Volkswirt, Bank of England.

Computable General Equilibrium Models (CGE, berechenbare allgemeine Gleichgewichtsmodelle): Auf der neoklassischen Wirtschaftstheorie beruhende, numerisch spezifizierte gesamtwirtschaftliche Modelle mit einer Gliederung  (mehr oder weniger tief) nach Märkten und Branchen.

VAR-Modelle: Vectorautoregressionen. Sie untersuchen lange Zeitreihen aus der Realität ohne bestimmten theoretischen Rahmen. Sie können auf annahmen über Präferenzen oder Entscheidungsregeln von Konsumenten verzichten.

Exogene Variable: Parameter, der in einem Modell vorgegeben ist und von dem die Lösung des Modells (Gleichgewicht) abhängt; die Akteure müssen sich an diese Parameter anpassen. Wird auch als Schock bezeichnet. Das Gegenteil ist eine endogene Variable, die im Modell bestimmt wird und u. U. von den Akteuren kontrolliert wird.

Ceteris-paribus-Klausel: Analyse eines Zusammenhangs unter der Annahme, dass sich nur die betrachtete (unabhängige) Variable ändert, während alle anderen konstant sind. Eine extreme Anwendung ist die geschlossene Volkswirtschaft (die sich nicht am internationalen Handel beteiligt, "Closed Economy"). Das Gegenteil ist eine große offene Volkswirtschaft, die Einfluss auf die Weltmärkte und insbesondere auf den Weltzinssatz hat.

Business as usual: Annahme über das Verhalten des politischen Systems in Modellrechnungen. Es wird unterstellt, dass die Politik im Simulationszeitraum gegenüber dem aktuellen Stand nicht verändert wird.

Komparative Statik: Untersucht, wie sich die Änderung exogener Größen auf die endogenen Größen eines Modells auswirken. Es ist der Vergleich zweier Gleichgewichtszustände.

Gleichgewicht: Zustand, in dem kein Akteur glaubt, durch Änderung seines Verhaltens seine Lage verbessern zu können. Die Volkswirtschaftslehre nimmt das Gleichgewicht in der Regel als Bezugspunkt. Man geht in der modernen Makroökonomik nicht mehr nur von einem stabilen Gleichgewicht aus, sondern betrachtet mehrere Gleichgewichte (multiple Gleichgewichte). Nach der Finanz- und Weltwirtschaftskrise 2008/2009 gerät der Begriff immer mehr in die Kritik. Evolutionsprozesse, die auf menschlicher Kreativität, Neugierde und Nachahmung beruhen, rücken in den Vordergrund. Zuerst in der Ökonomie hatte Thorstein Veblen (1857-1929) die Ideen von Darwin aufgegriffen. Immer wichtiger wird auch die Einbeziehung des Zeitfaktors, so dass simultane Gleichgewichte in kurzer und langer Frist unterschieden werden.

Allgemeine Gleichgewichtsanalyse: Ermittlung von Preisen und Mengen zur gleichen Zeit auf allen relevanten Märkten, wobei rückwirkende Einflüsse einbezogen werden. Sie bildet immer noch ein Herzstück der ökonomischen Theorie. Sie geht auf Ende des 19. Jahrhunderts in Lausanne wirkenden französischen Ökonomen Leon Walras zurück. "Die mathematische Ökonomie wird dadurch den Status der mathematischen Wissenschaften Astronomie und Mechanik erreichen. Und an diesem Tag wird unsere Arbeit gebührend gewürdigt werden", Leon Walras (er präsentierte 1874 sein mathematisch formuliertes Modell der Tauschwirtschaft).

Totalanalyse: Alle relevanten Zusammenhänge werden vollständig berücksichtigt. Das Gegenteil ist eine Partialanalyse (z. B. wird nur der Gütermarkt analysiert). Hier werden Gleichgewichtspreise und -mengen auf einem Markt unabhängig von den Einflüssen anderer Märkte untersucht.

Ex-ante-Analyse: Analyse einer Transaktion aus dem Blickwinkel einer Periode, die vor der Ausführung der Transaktion liegt. Dass Gegenteil ist eine Ex-post-Analyse.

Kurzfristige Analyse der geschlossenen Volkswirtschaft: dies wird nur noch zu didaktischen Zwecken gemacht (Grundstudium), weil es zu weit von der heutigen Realität entfernt ist. Die kurzfristige Analyse der offenen Volkswirtschaft ist realitätsnäher, aber formal schwieriger.

Rationale Erwartungen: die Wirtschaftssubjekte nutzen bei der Prognose zukünftiger Entwicklungen alle verfügbaren Informationen über die Wirtschaftspolitik optimal.

Repräsentativer Agent: Analyse des Verhaltens eines einzigen Akteurs in einem Modell. Damit wird die Anwendung der Mathematik einfacher.

Hysterese-Effekt: Fortdauer einer Wirkung bei Wegfall der Ursache, also ein lang andauernder Einfluss der Vergangenheit (z. B. Entstehung struktureller Arbeitslosigkeit aus der konjunkturellen).

Random walk: Pfad einer Variablen, deren Änderungen im Zeitablauf nicht vorhersehbar sind.

Steady state: Zustand eines dynamischen Systems, in dem sich die endogenen Variablen nicht mehr ändern (häufig auch Wachstumsgleichgewicht genannt).

Risiko: Hier tun sich Modelle, vor allem mathematische, sehr schwer. Der wichtigste Grund ist: Statistiken bilden die Vergangenheit ab. Was niemals vorkam, kann nicht in Berechnungen eingehen. Die Risikomodelle der Banken unterscheiden sich stark, auch in ihrer Qualität. Als gut gelten die von Goldman Sachs und der Deutschen Bank.

Beta-Faktor: Eine Konstante misst die Empfindlichkeit einer Anlage auf Marktschwankungen. Dies ist das nichtdiversifizierbare Risiko jeder Anlage. Hier kann nicht in verschiedene Projekte investiert oder Aktien vieler Unternehmen besessen werden.

Edgeworth-Box: Diagramm, das alle möglichen Allokationen zweier Produktionsfaktoren zwischen zwei Produktionsprozessen darstellt. Es ist auch auf Güter und Konsumenten anwendbar.

Varianz: Mathematisches Maß für das Risiko (Situation mit ungewissem Ausgang). Der Erwartungswert bewertet das durchschnittliche Ergebnis einer riskanten Situation (Summe der Wahrscheinlichkeitsergebnisse mal Wert).

Ockham´s Razor (Rasiermesser, Wilhelm von Ockham, 1287-1347): Es ist nicht zulässig, Theorien aufzustellen auf der Basis von Annahmen, die weder offensichtlich noch im Einklang mit den empirischen Tatsachen sind.

Heuristiken: In der Ökonomie sind dies "Daumenregeln" oder Abkürzungen, die bei Entscheidungen verwendet werden.

Aggregationsproblem: Die aggregierten Daten der Volkswirtschaftlichen Gesamtrechnungen und die Makroökonomik unterscheiden sich oft von mikroökonomisch festgestellten Entwicklungen. Eine einfache Aufsummierung mikroökonomischer Einheiten ist nicht möglich. So stellte der Nobelpreisträger 2015 Angus Deaton z. B. fest, dass der Konsum stärker schwankte als das Einkommen, weil die Menschen auf erwartete Einkommenszuwächse mit einem überproportionalen Konsumanstieg reagieren. Werden die Daten aggregiert, gleichen sich die Unterschiede zum großen Teil aus. "Ich bin jemand, der sich mit den Armen der Welt befasst, zudem damit, wie sich Menschen verhalten und was sie glücklich macht", Angus Deaton, Träger des Wirtschaftsnobelpreises 2015.

"Die Aussage, mathematische Modelle seien ideologiefrei, kann man bestenfalls als naiv beschreiben", Michael Hüther, Direktor IW, Köln.

Spieltheorie:

"Das Spiel ist die höchste Form der Forschung", Albert Einstein.

"Was die Leute das Schicksal nennen, sind meistens ihre eigenen dummen Streiche", Arthur Schopenhauer, Philosoph, 1788-1860.

Spieltheorie: Theorie oder  Methode zur Analyse und zum Verstehen menschlichen Verhaltens in strategischen Situationen (die eigenen Aktionen beeinflussen das Verhalten anderer und umgekehrt). Die Spieltheorie erlaubt die Analyse von Situationen mit zwei und mehr Entscheidungsträgern, die entgegen gesetzte Ziele verfolgen, und sich in einer strategischen Interaktion befinden. Strategisches Verhalten ist ein Entscheidungsverhalten, das die möglichen Reaktionen anderer mit einbezieht (für solche Situationen eignen sich Mathematik und Geometrie weniger). Berühmte Vertreter sind von Neumann/ Morgenstern, Harsanyi/ Nash/ Selten, Auman/ Schelling, Hurwicz/ Maskin/ Myerson. Reinhard Selten erhält als einziger Deutscher 2004 den Nobelpreis für Ökonomie für seinen Beitrag in der Spieltheorie. Selten, 1930 geboren, studiert in Frankfurt Mathematik. 1968 habilitiert er sich in VWL in den USA. Zuletzt war er Professor in Bonn. "Bei der Spieltheorie geht es um rationales Verhalten in sozialen Situationen", John  Harsanyi, 1020-2000, US-Ökonom. An der US-Elite-Uni MIT lernen Studenten das Pokerspiel ("Wie man zockt, wenn man muss"). Es steht in der Tradition des MIT-Black Jack Teams. Sie sollen so für die Karriere als Investmentbanker üben.

Logik und Spieltheorie: In den Veranstaltungen der Bachelor - Studiengänge komme ich über logische Erwägungen in der Spieltheorie nicht hinaus. Insofern schult aber die Spieltheorie hervorragend logisches Denken. Ich behandele die Spieltheorie deshalb zusammen mit einer Einführung in die Logik (samt logische Symbole).  "Das System der Logik ist das Reich der Schatten, die Welt der einfachen Wesenheiten, von aller sinnlichen Konkretion befreit", Hegel, Logik (1832).

Gefangenen-Dilemma: Situation (Prisoner`s Dilemma), in der individuelles Rationalverhalten zu einem kollektiv abträglichen Ergebnis führt. Ausgangsposition der Spieltheorie: Zwei Gefangene entscheiden unabhängig voneinander, ob sie ein Verbrechen gestehen sollen. Wenn nur ein Gefangener gesteht, wird er eine milde Strafe erhalten, der andere dagegen eine harte. Gesteht keiner der beiden, wird die Strafe milder ausfallen als bei einem Geständnis beider Gefangener. Mittlerweile wurde das Dilemma auch an realen Gefangenen getestet. Offenbar sind Häftlinge solidarischer als andere Versuchspersonen.

Park-Version des Gefangenen-Dilemmas mit öffentlichen Gütern: Vgl. Beeker, Detlef: VWL für dummies, Weinheim 2017, S. 160ff.

Spiele: Für das Verstehen der Spieltheorie ist es hilfreich, verschiedene Spiele zu kennen. So helfen Schach (Antizipation), Doppelkopf (Psychologie, Kooperation), Poker (Bluff), Skat (verschiedene Milieus; Mischung Glück und Können), Mensch ärgere dich nicht (Glück, Verlieren), Monopoly (Wirtschaft), Würfelspiel (Wahrscheinlichkeit).

Homo ludens: Der durch das Spiel sich entwickelnde Mensch. Diese Sichtweise ist nicht neu (Schiller: "der Mensch ist nur ganz Mensch, wo er spielt"). Die Digitalisierung fördert dieses Menschenbild wieder. Dahinter steckt die Vorstellung, dass Spielen die primäre Kulturtechnik ist und es der wichtigste Grund für Gesellschaften ist (das wusste schon Niklas Luhmann:  Art der Kommunikation). Heute spricht man von einer Weltgesellschaft, die in ihrer Komplexität noch nicht ausreichend erforscht ist. Das Spielerische in der digitalen Welt kann motivieren. Man spricht auch von einem Trend zur "Gamifizierung". Vgl. Manouchehr Shamsrizi, Interview in: bdvb aktuell, Nr. 137, S. 6f.

Pay-off: Gewinn (Auszahlung), den der Spieltheorie zufolge die Teilnehmer an einem Spiel erspielen. Die komplexe Darstellung der Auszahlungen wird in einer Pay-off-Matrix dargestellt (in der Regel eine Vierfeldertabelle).

Auszahlungsfunktion (payoff function): eine Funktion, die jedem Strategieprofil einen Auszahlungsvektor zuweist. Die Auszahlungen können ordinale oder kardinale Nutzenwerte sein. Der Auszahlungsvektor enthält für jeden Spieler einen  Wert (Auszahlung, Nutzen, Profit in Euro).

Common Knowledge: Die Informationen über Spielregeln und Auszahlungen, über die die Spieler vor Beginn des Spiels verfügen. Dazu zählen auch Kenntnisse über die Informationen, die die Mitspieler haben. Vgl. Diekmann, Andreas: Spieltheorie, Hamburg 2013, S. 231.

Strategie: Aktionsplan bzw. Regel für ein Spiel. Bei einer strategischen Handlung wird einem Spieler ein Vorteil verschafft, sein Verhalten aber eingeschränkt. Bei einem Spiel treffen die Spieler strategische Entscheidungen, die die Reaktionen der Mitspieler mit einbeziehen. Spiele können nach den verschiedenen Strategien unterschieden werden: Z.B. Evolutionär stabile Strategie, gemischte Strategie, Maximin - Strategie.

Dominante Strategie (dominant startegy) Eine Strategie ist dominant, wenn sie die beste Antwort auf das Verhalten des Gegenspielers ist, unabhängig davon, welche Strategie der Gegenspieler wählt. Von dieser Strategie sind dominierte Strategien zu unterscheiden: bei dominanter Strategie eines Spielers wird er keine dominierte wählen. So werden  vielmehr dominierte Strategien iterativ eliminiert.

Nash-Gleichgewicht (1951 von dem Mathematiker John Nash, geb. 1928,  bewiesen): Dieses tritt in der Spieltheorie ein, wenn kein Spieler bei einer gegebenen Strategie der anderen Spieler seine Auszahlungsfunktion verbessern kann (oft schlechteste Situation für beide Spieler). "Das Nashgleichgewicht ist ein stabiler Zustand, der sich nicht aus sich selbst heraus zerstört", (Christian Rieck). Es ist ein nichtkooperatives Spiel, in dem die Spieler keine glaubhaften und verbindlichen Vereinbarungen treffen können (pragmatisch und am leichtesten umzusetzen: nicht kooperativ und geringster Nutzen für beide Spieler). Nash erhielt 1994 dafür den Wirtschaftsnobelpreis. Der Wissenschaftler stirbt im Mai 2015 (zusammen mit seiner Frau bei einem Taxiunfall). Er machte die Spieltheorie zu einer zentralen Analysemethode in den Wirtschaftswissenschaften. "Die Realität ist immer eine Art von Fiktion, der alle zustimmen", John Nash. Nash nutzte 1950das vereinfachte Modell eines Pokerspiels mit drei Personen: Das Gleichgewicht ist erreicht, wenn alle Spieler eine individuelle Strategie gewählt haben, welche die jeweils bestmögliche Antwort auf die Strategie des Gegenspielers ist - und umgekehrt. Der Hollywood-Film "A Beautiful Mind" zeichnet sein Leben wieder. Vgl. auch: Nasar, S. A.: A Beautiful Mind, London/ Faber 1998.

Informationen: Perfekte Information, bei denen jeder Informationsbezirk genau einen Entscheidungsknoten hat (der Spieler am Zug kennt immer den vorangehenden Zug des Mitspielers). Bei unvollständige Information hat mindestens ein Spieler keine vollständige Kenntnis über die Auszahlung. Gegenteil ist die vollständige Information (complete information).  Ein Informationsbezirk (information set) umfasst eine Menge von Knoten auf einer Entscheidungsebene. Vgl. Diekmann, Andreas: Spieltheorie, Hamburg 2013, S. 232, 233.

Wahrheit und Vertrauen: Koordination zwischen Einzelnen findet typischerweise auf Märkten durch das Aushandeln von Preisen statt. Doch sogar wo Kommunikation zwischen Beteiligten möglich ist, gibt es Fehler in der Interaktion. Die Koordination kann verbessert werden, wenn Teilnehmende an Spiel-Experimenten sich durch einen Eid zur Wahrheit verpflichten, bevor sie ins Labor gehen. Dahinter steckt die sozialpsychologische Theorie der Verpflichtung. Dieses Spiel-Experiment geht auf Robert W. Rosenthal und Reinhard Selten zurück. Vgl. Stephane Luchini: Menschen auf Märkten. können wir uns besser koordinieren, wenn wir die Wahrheit sagen? in: WZB Mitteilungen, Heft 159, März 2018, S. 38ff.

Praktische Anwendungsgebiete der Spieltheorie, insbesondere des Nashgleichgewichts (auch in Klausuren; entsprechende Aufgaben eignen sich hervorragend zur Überprüfung der Transferfähigkeit): Während des Kalten Krieges wurde die Spieltheorie militärisch verwertet (konkret etwa in der Kuba-Krise). In der Ökonomie finden sich viele Beispiele in der Wettbewerbstheorie (Markteintritt) und der Theorie der Preisbildung ("Friedhofsruhe"; ruinöser Preiskampf). Anwendungen finden sich auch in der Umweltökonomik (Begründung staatlicher Umweltpolitik; Fischerei und Wasserqualität), der Arbeitsökonomik (Tarifverhandlungen) und der Globalökonomik (Krisenlösung). Die Spieltheorie eignet sich besonders, wenn es um Fragen der Kooperation geht. Möglich ist auch die Übertragung auf den Konflikt zwischen EU und Griechenland nach dem Wahlsieg von Syriza. Die Situation entspricht dem Nash-Gleichgewicht: Keine Partei kann sich verbessern, wenn sie - als Einzige - ihre Strategie ändert (Beispiel Hasenfußrennen bei James Dean "Denn sie wissen nicht, was sie tun"). Wenn keiner ausweicht, könnten sich beide durch Strategiewechsel verbessern. Anwendbar ist die Spieltheorie auch auf die Verhandlungen zwischen EU und GB um den Brexit. So kann nachgewiesen werden, dass die EU langfristig von einer eher kompromisslosen Verhandlungsführung profitiert (Vgl. Busch/ Diermeier/ Hüther: Brexit und die Zukunft Europas - eine spieltheoretische Einordnung, in: Wirtschaftsdienst 2016/12, S. 883ff.) . Man versucht auch mit der Spieltheorie den Konflikt zwischen den USA und Nordkorea 2017 zu analysieren. "Das Spiel findet am Abgrund statt. Keiner weiß, ob nicht etwas Unvorhergesehenes passiert und in die Katastrophe führt", Benny Moldovanu, Spieltheoretiker, Uni Bonn; vgl. Handelsblatt, Mo. 09.02.2015, Nr. 27, S. 10. "Wenn die Griechen zu ihren Zusagen stehen, dann stehen die Geldgeber zu ihren Finanzzusagen. Steigt eine Seite aus, steigt auch die andere aus", Martin Schulz, EU-Parlamentspräsident.

Ein anderes Gleichgewicht ist das Bayessche. Es erhält man, wenn die Spieler ihre erwartete Auszahlung maximieren, rationale Erwartungen besitzen und die Bayessche Regel anwenden (aus der statistischen Wahrscheinlichkeitstheorie bekannt). Treffen die dominanten Strategien beider Spieler zusammen, erhält man ein dominantes Gleichgewicht. Die Baysianische Statistik hat sich in den letzten Jahren sehr stark weiterentwickelt. so gibt es eine Reihe simulationsbasierter Verfahren. Das bekannteste ist die Markov Chain Monte Carlo.

Weiterentwicklung des Nash-Gleichgewichts durch R. Selten (geb. 1930, 1994 einziger deutscher Wirtschaftsnobelpreisträger): nicht nur ein Spiel als Ganzes, sondern auch einzelne Teile erreichen ein Nash-Gleichgewicht. Vgl. Ders., Reexamination of the Perfectness Concept for Equilibrium Points in Extensive Games, in: International Journal of Game Theory, 4(1), 1975. Einer der Begründer der experimentellen Wirtschaftsforschung in Deutschland.

Teilspiel-Perfektheit: Verfeinerung des Nash-Gleichgewichts durch R. Selten (einziger deutscher Nobelpreisträger der Ökonomie). Das Gleichgewicht muss nicht nur im Spiel als Ganzem, sondern auch in all seinen Teilen bestehen. "Man weiß, was man denkt, aber man weiß nicht, warum man es denkt", Reinhard Selten.

Symmetrisches Gleichgewicht: Die Gleichgewichtsstrategien und Auszahlungen der Spieler sind identisch.

Kooperatives Spiel: Die Spieler können verbindliche Vereinbarungen treffen und sich so gegenüber Dritten oder gegenüber sich selbst glaubhaft festlegen.

Kooperation im Eigeninteresse: Die Kooperation "Wie du mir, so ich dir" ist für beide Seiten positiv (Robert Axelrod). Kooperationsstrategien können sich bei wiederholten Spielen ändern. So kann man die Entwicklung der Moral spieltheoretisch erforschen (Kenneth Binmore). Mit der Zeit kooperieren also auch Egoisten.

Einmalige simultane Spiele: Ein Spiel wird nur einmal durchgeführt, wobei die Akteure ihre Entscheidungen gleichzeitig treffen. Ein Spiel kann auch mehrfach bestritten werden, oder die Akteure treffen ihre Entscheidungen nacheinander (sequentielle Spiele).

Bei sequentiellen Spielen wird besonders der Spielbaum mit Wahrscheinlichkeiten eingesetzt (ist auch aus der Wahrscheinlichkeits-theorie bekannt). Bei der Bewertung der Alternativen spielt das Moral Hazard und das Monitoring eine wichtige Rolle. Gelöst werden sie oft durch die Methode der Backward Induction (gesucht wird die Nash-Strategie für das letzte Teilspiel).

Das Reversal Paradoxon (Umkehr-) macht deutlich, das für einen Wahlausgang entscheidend sein kann, ob eine Wahlalternative entfällt während eines Wahlprozesses. Dies gilt auch, wenn die entfallende Wahlalternative die geringste Präferenz aufweist.

Sehr wichtig ist bei Spielen die Informationsstruktur. Sind jedem Spieler alle Bestandteile des Spiels (Spielerzahl, Auszahlungen, Strategien) bekannt, herrscht vollständige (complete) Information. Konnte jeder Spieler bei jeder seiner Aktionen die bis dahin ausgeführten Aktionen der Gegner beobachten, ist die Information vollkommen (perfect).

Nach der Geschwindigkeit werden statistische und dynamische Spiele unterschieden. Beide können mit vollständiger und unvollständiger Information verbunden werden. Bei beiden können Bayessche Gleichgewichte erreicht werden.

"In einem Nullsummenspiel (zero-sum game) erhält bei jedem Ereignis ein Spieler eine Auszahlung, die der andere Spieler bezahlen muss. Damit addieren sich die Auszahlungen der Spieler immer zu null", Sieg, G.: Spieltheorie, München/ Wien 2005, S. 25.

Minimax-Regel: Sie wurde 1928 von John von Neumann formuliert: Die beste Strategie ist, bei jedem Zug den maximalen Verlust zu minimieren.

Maximin-Theorem: Der Akteur wählt jene Strategie, die ihm das (garantierte) Minimum, das ihm der Gegenspieler nicht nehmen kann, maximiert.

Commitment - Strategie (Aumann/ Schelling, Nobelpreis 2005): Alle Brücken hinter sich abbrechen, um den Verhandlungsgegner glaubhaft zu bedrohen.

Tit for Tat: eine effektive Strategie für das wiederholte Gefangenendilemma. Der Agent folgt seinem Gegner. Wenn der Gegner vorher kooperativ war, ist der Agent auch kooperativ. Wenn nicht, ist der Agent nicht kooperativ. Er kann mit kooperativen Gegnern zusammenarbeiten und unkooperative Gegner angreifen.

Mechanismus-Design (Hurwicz/ Maskin/ Myerson, Nobelpreis 2007): Zwei Kinder streiten sich um ein einziges verbliebenes Stück Kuchen. Lösung: Kind 1 teilt das Kuchenstück in zwei Teile. Anschließend wähle Kind 2 eines der beiden Kuchenteile, das andere behält Kind 1. Vgl. Hehenkamp, B.: Die Grundlagen der Mechanismus-Design-Theorie, in: Wirtschaftsdienst, 11/ 2007, S. 770.

Hochzeitsproblem (Lloyd Shapeley, Wirtschaftsnobelpreis 2012): Taucht beim Globalen Matching auf. Zwei Schemas sollen aufeinander abgebildet werden und dafür muss ein Verfahren gefunden werden. Man hat eine Liste von Männern und Frauen, wobei jeder eine Rangliste von allen Personen des anderen Geschlechts besitzt. Die Personen werden verheiratet, so dass jeder mit einem Partner verheiratet ist, der die höchstmögliche Stellung in der Rangliste hat.

Zukunftsformel: Der Spieltheoretiker Bruce Bueno de Mesquita sagt mit spieltheoretischen Formeln wirtschaftliche und politische Ereignisse voraus. In nahezu 90% der Fälle sollen seine Aussagen eintreffen.

Der Nettere und Integere siegt langfristig: In einer Welt der nicht perfekten Information gibt es eine Strategie der Disinterpretation der Signale. Diese Strategie hat zudem eine rekursive Tendenz und ist häufig mit einem Spiraleffekt verbunden. Zuletzt ist der nettere und integere Spieler am effektivsten.

Brinkmanship-Theorie: Sie beruht auf der Idee, dass ein Akteur den anderen in die Enge treibt, um ihn zu Zugeständnissen zu bewegen.

Griechenlandkrise und Spieltheorie: Der ehemalige griechische Finanzminister Varoufakis hat sich als Universitätsprofessor intensiv mit der Spieltheorie beschäftigt. Er wollte wohl auch spieltheoretisch gegen die Euroländer antreten. Allerdings scheiterte er, weil Grundregeln missachtet wurden. Strategische und psychologische Erwägungen wurden nicht zu einer guten Verhandlungsstrategie kombiniert (Selbstbindung, Delegation). Wichtigste Einsicht für die Zukunft ist, dass die Spielregeln stimmen müssen. Vgl. Ockenfels, Axel: Spieltheorie für Anfänger, in: Wirtschaftswoche 30, 17.07.15, S. 59.

US-Strafzölle und Vergeltungszölle, Handelspolitik: Die Grundstruktur entspricht dem Gefangenendilemma. Zölle bescheren dem Land A den höchsten Gewinn, wenn Land B auf Gegenzölle verzichtet. Erhebt B dagegen Zölle, sinkt der Handelsgewinn von A, und der von B steigt. Allerdings ist der Gesamtgewinn von A und B in dieser Konstellation am geringsten. Den höchsten Gesamtgewinn machen A und B, wenn sie auf Zölle verzichten. Je nach Setzen der Rahenbedingungen sind andere Konstellationen möglich.

"Die Ökonomen haben die Disziplin in eine Art soziale Mathematik verwandelt, in der analytische Schärfe alles und praktische Bedeutung nicht zählt", Mark Blaug, berühmter britischer Wirtschaftshistoriker, über weite Teile der Spieltheorie. Vgl. auch kritisch: Guala, F.:  Game Theory been Refuted?, in: Journal of Philosophy, 103/2006, S. 239-263.

Zu den Pionieren der Ökonometrie und quantitativen Wirtschaftsanalyse in den Wirtschaftswissenschaften gehört Jan Tinbergen (1903 - 1994). Er erhielt zusammen mit Ragnar Frisch den ersten neu gestifteten Nobelpreis für Ökonomie 1969. Zu seinen Hauptwerken zählt: Statistical Testing of Business Cycle Theories, 1939. Ökonometrie überprüft mit Hilfe statistischer Daten wirtschaftstheoretische Aussagen.

VI. Lernhilfe

Das dargestellte Modell eignet sich auch, um fundamentale  ökonomische Übertragungsmechanismen, die immer wieder vorkommen,  zu lernen und zu üben. Als wichtige Beispiele seien die Zinselastizität der Investitionen, "Crowding-out", Löhne und Arbeitsproduktivität, Zahlungsbilanz-Preiseffekt und der Wechselkursmechanismus genannt. So kann das Modell  durchaus auch mit der Makroökonomik einer offenen Volkswirtschaft interpretiert werden (z. B. Einfluss der Geldpolitik aus dem Ausland bei flexiblen Wechselkursen, etwa USA). In der Einbindung in die Globalisierung liegt zugleich die Schwäche aller nationalen Modelle und ein Weltmodell gibt es noch nicht. Im Hauptstudium bzw. 2. Studienabschnitt arbeite ich überwiegend mit logischen Partial - Kausalmodellen, die jeweils für bestimmte Problemstellungen konstruiert sind. Mit dem obigen Modell  kann man sich auch in die Grundzüge der Spieltheorie einarbeiten. Transfereffekte ergeben sich auch mit der Statistik: Korrelation und Regression sowie Pfadanalyse, zeitabhängige Daten (Prognosetechniken), Fehlermöglichkeiten und Grenzen statistischer Untersuchungen können beispielhaft behandelt werden. Die Übungstheoreme und das empirische Datenraster weiter unten sollten in enger Beziehung gesehen werden: sie bieten eine weitere Vertiefung in einer anderen Logik als die bekannten Lehrbücher (mit den mir zur Verfügung stehenden Ressourcen kann ich das Buch von Mankiw z. B. nicht mehr optimieren, obwohl die Umwelt hier explizit fehlt). Die ganzen hier angebotenen Bausteine sollten als Ergänzung zu Büchern und der Vorlesung genutzt werden.

Die Finanz- und Weltwirtschaftskrise, die von Ökonomen nicht vorhergesagt wurde, zeigt, dass die Modelle und Theorien der Volkswirtschaftslehre grundlegend überarbeitet werden müssen. Nicht ökonomische Motive und psychologische Faktoren (Emotionen) müssen in die Modelle eingebaut werden. Wichtige bisherige Theoriestränge sind unhaltbar.

"Alle Modelle sind falsch. Aber manche sind nützlich", N. N.

 

Experto credite!  P. V. MaroAktuellen Daten sollte man systematisch hinterher eilen (vgl. Internationale Wirtschaft bei Aktuelles)

"Die Ökonomie ist wie ein gigantischer Computer, der die numerische Lösung einer großen Anzahl von Preisgleichungen durch schrittweisen Vergleich errechnet", Wassily Leontief  (Konstrukteur der Input-Output-Analyse, Input-output economics, New York 1986).

"Gerade in wirtschaftlich schwierigen Zeiten sind einigermaßen valide Zahlen unverzichtbar. Allerdings wird die Wirtschaft immer schnelllebiger. Neue Informationen können mittlerweile schnell die Gemengelage verändern", Christoph Schmidt, Vorsitzender des Sachverständigenrats für Wirtschaft, 2019.

Empirisches Lern-Datenraster (Indikatoren, relevante aktuelle Daten, Informationen mit empirischen Quellen), Data collection, (vgl. als Muster Ostasien, Ökonometrie = Einsatz der Statistik in der Ökonomie und ihre Analyse):

Gliederung: Magisches Viereck, Parameter der Finanzmärkte, Schlüsseldaten, Grundtendenzen in der Welt, institutionelle Rahmenbedingungen, empirische Wirtschaftsforschung (mit Prognose), Messung von Wohlstand, Messung von Verschuldung, Messung der Verteilung, Messung von Wettbewerbsfähigkeit, Messung der Digitalisierung Messung der Freiheit einer Wirtschaftsordnung. Messung der Nachhaltigkeit. Wichtige Indikatoren im (Extra-) Ausland, Spezielle Indikatoren für China und Japan.

"Jeder hat das Recht auf eine eigene Meinung, aber nicht auf eigene Fakten", US-Senator P. Moynihan (1927-2003).

- So sollte man mindestens die Daten zum magischen Viereck (makroökonomische Grundzahlen) der Wirtschaftspolitik für die wichtigsten Länder der Weltwirtschaft parat haben: Wachstumsrate des Bruttoinlandsproduktes (BIP/ Gross domestic product, es ist der Gradmesser für den Erfolg und das Wachstum einer Volkswirtschaft. Die Wachstumsrate des Bruttoinlandsproduktes betrug 2010 in Deutschland 3,6% (höchster Wert seit deutscher Einheit). Für 2011 werden wieder 2,8% erwartet. Im Juni 2011 schrauben mehrere Institute ihre Erwartungen auf 3,7% hoch (im dritten Quartal 2011 +0,5%). Größte Komponente ist der private Konsum mit 58%, die Investitionen umfassen 18%. Der Außenbeitrag liegt bei rund 5%, die Ausgaben des Staates liegen bei 19,5%. Tatsächlich betrug die Wachstumsrate 2011 3,0%. Im letzten Quartal 2012 fällt Europa in die Rezession (Euroraum -0,6% gegenüber dem Vorquartal, auch D; noch stärker im Minus Italien und Portugal). Die Prognose für 2014 liegt bei 1,2 bis 1,5%. Absolut war das BIP 2012 2,6666 Billionen € hoch. Ermittelt wird der Wert (aktuelle Marktpreise, real: Inflationseffekte herausgerechnet) aller Waren und Dienstleistungen, die innerhalb eines Jahres im Inland hergestellt werden. Die Vorleistungen werden von den Endprodukten abgezogen. Unbezahlte Heimarbeit und Schwarzarbeit finden keinen Eingang. Früher wurde Computersoftware als Vorleistung, heute als Investitionsgüter betrachtet. Die Wachstumsraten des BIP werden international nicht einheitlich berechnet, z. B. rechnen die US-Statistiker die Zuwachsraten auf das Jahr hoch (annualisieren). Unterschiede gibt es auch in der Saisonbereinigung. Ende 2010 schlagen die Wirtschaftsweisen in Deutschland und Frankreich neue BIP-Indikatoren vor. Bei der Berechnung sind zwei Methoden am wichtigsten: Die Entstehung und die Verwendung. Die US-Statistiker haben auch einige Tricks auf Lager: Einrechnung des technischen Fortschritts, quadratische Gewichtung in der Inflation, mehr Buchung bei Investitionen (Erhöhung durch Abschreibungen), keine Qualitätsbereinigung bei Bildung, Bankdienstleistungen nicht als Vorleistung sondern Endprodukt. Das Konzept der USA wurde von Simon Kuznets 1937 entwickelt.1942 wurde es in die Praxis umgesetzt (Galbraith berechnete die erste Zahl für Deutschland). Beim Haushaltsstreit 2013 werden die volkswirtschaftlichen Akteure ausgebremst. Die US-Notenbank und die Ministerien können keine Daten mehr erheben. Kreativ gehen auch chinesische Statistiker an die Wachstumsrate. Die Provinzen schönen wie in Zeiten der Planwirtschaft, der Dienstleistungssektor wird unzureichend erfasst. Wahrscheinlich ist die offizielle Wachstumsrate einige Prozentpunkte zu hoch. Berechnet wird vom Bureau of Economic Analysis. 2013 werden einige Methoden geändert: Forschung und Entwicklung nicht mehr als Vorleistung, sondern als Investition betrachtet.  Deutschland ist mit ca. 2489,4 Mrd. € 2008 die drittgrößte Volkswirtschaft der Welt. Davon waren die Konsumausgaben mit 1,4 Bill. € der größte Batzen. Beim Pro-Kopf-Einkommen, einem internationalen Maßstab für Wohlstand, ist Deutschland auf Platz 19 unter 30 OECD-Staaten zurückgefallen. Der Umfang der Schattenwirtschaft liegt bei ca. 350 Mrd. €. Nach der Entstehungsrechnung hatte bei der Wirtschaftsleistung 2010 das stärkste Wachstum das Produzierendes Gewerbe mit 10,3%.  Das Bruttonationaleinkommen (bis 1999 Bruttosozialprodukt) wird im Rahmen der Verwendungs- und Verteilungsrechnung der VGR des StBA ermittelt und dient als Maßstab für den Wohlstand eines Landes. Über die Einkommensströme an die übrige Welt und von der übrigen Welt ist auch eine Berechnung vom Bruttoinlandsprodukt aus möglich (der Unterschied Brutto - Netto beruht auf den Abschreibungen; der Unterschied Marktpreis - Faktorkosten ergibt sich aus den addierten Subventionen minus den indirekten Steuern).  Genauer ist der Net Economic Welfare (-externe Kosten, + private Dienste). Frankreich will zukünftig die Umweltverschmutzung und den Bildungsstand einbeziehen. Das Frankfurter Zentrum für gesellschaftlichen Fortschritt hat einen alternativen Maßstab für Fortschritt entwickelt. Vgl. zur Kritik auch: Schlaudt, Oliver: Die politischen Zahlen. Über Quantifizierung im Neoliberalismus, Klostermannverlag 2018. Die Schattenwirtschaft (inoffizielle, verborgene Untergrundwirtschaft; illegal oder um Steuern zu vermeiden) wird gesondert von einigen Wirtschaftswissenschaftlern geschätzt. Dazu gehören Nachbarschaftshilfe, Schwarzarbeit, Steuerhinterziehung, Arbeiten ohne Rechnung und  Einkommen aus illegalen Geschäften (Prostitution, Rauschgifthandel). In Deutschland lag der Umfang der Schattenwirtschaft 2010 bei ca. 14,6% (353 Mrd. €) des offiziellen BIP (in Europa ist Griechenland mit 25% Spitzenreiter). 2011 lag der Gesamtumsatz der Schattenwirtschaft darunter mit 343 Mrd. € (13,4%). Grund ist die steigende Beschäftigung (Institut für angewandte Wirtschaftsforschung, Tübingen, IAW). 2013 sinkt die Schattenwirtschaft auf 13,2% des BIP (340 Mrd. €).   Arbeitslosenquote (ALQ/ Unemployment rate: Gliederungszahl mit gemeldeten Arbeitslosen im Zähler und Erwerbspersonen, d. h. Arbeitslose + Erwerbstätige, im Nenner). Zusätzlich werden als Indikatoren für Vollbeschäftigung verwendet die Zahl der offenen Stellen (ungenau, da kostenlose Meldung) und die natürliche Arbeitslosenquote (Höhe der friktionellen AL). Preissteigerungsrate, Handelsbilanz (Exporte, Importe)  für die USA, Japan, und Deutschland (je nach Problembereich auch  für die G9-Länder) sollten bekannt sein. Die Preissteigerung wird mit dem Preisindex für die Lebenshaltung gemessen. Dabei handelt es sich um die Kosten eines festen Warenkorbs (Ergebnis der Verbrauchsstichprobe, EVS) im Vergleich zu den Kosten desselben Warenkorbs in einem Basisjahr (Basisjahr der Vergangenheit, Laspeyres-Index). International nicht einheitlich werden Qualitätsveränderungen bei der Preissteigerung berücksichtigt. Die USA rechnen diese relativ stark ein, so dass bei Qualitätssteigerung, z. B. Rechenleistung eines PC, das Produkt de facto billiger wird (so genannte hedonische Preisindizes). Wegen der hohen Schwankungen der Nahrungs- und Energiepreise werden diese bei der Berechnung der so genannten Kerninflationsrate nicht berücksichtigt. Der Vermögenspreisindex wird vom Finanzdienstleister Flossbach und Storch ermittelt. Er ermittelt die Preisentwicklung von Vermögensgütern deutscher Privathaushalte. Die Gewichtung der Vermögensteile stammt von der Bundesbank. Das größte Gewicht haben Immobilien. Es folgt das Betriebsvermögen.  "Die deutsche Wachstumsrate von 2,2% im zweiten Quartal wäre nach amerikanischer Lesart - also annualisiert beziehungsweise für das Gesamtjahr einfach mit vier multipliziert - rund 9 Prozent", Axel Weber, Präsident der Bundesbank im Herbst 2010.

"Wer unsere Gesellschaften mit Hilfe des BIP lenkt, agiert wie ein Pilot ohne Kompass", J. Stiglitz und A. Sen, Nobelpreisträger. Joseph Stiglitz wurde 1943 geboren. Er wurde bekannt durch Arbeiten zur Informationsökonomik. Er war Wirtschaftsberater von Bill Clinton und danach Chefökonom der Weltbank. Sen erhielt 1998 den Nobelpreis.

Börse Kopenhagen,  vom Wasser aus fotografiert 2018. Die Börse wurde 1624 von König Christian IV. eingerichtet. Ursprünglich war sie auch für Schweden und Norwegen zuständig.  Die Länder arbeiteten im Finanzbereich zusammen. Die schwedische Notenbank ist die älteste Notenbank der Welt (auch ungefähr zu der Zeit gegründet; Schwedische Riksbank). Die zweitälteste Notenbank, die Bank von England, wurde erst 1694 gegründet als Privatbank für Wilhelm III., damit er Kriege gegen Ludwigs XIV. führen konnte. 1998 bildeten Dänemark und Schweden wieder mit der NOREX einen gemeinsamen Index. Bis ins 19. Jahrhundert war die Börse Warenbörse. Bis 1974 dann Aktienbörse. Die Aktienbörse Kopenhagen hatte 2020 die dynamischste Entwicklung. Das hängt natürlich mit den dort vertretenen Unternehmen in der Corona-Krise zusammen.

Ebenso sollte man die wichtigsten Parameter der Finanzmärkte  verfolgen: Wechselkurs €/$, Leitzins in der EU (für Hauptrefinanzierungsgeschäfte) und in den USA ("federal funds rate"), Aktienkurse "Dow Jones" (NYSE) und  "DAX"  (für OAI noch "Nikkei" und "Hang Seng" sowie mittlerweile Shanghai-Index mit Shenzhen, die Anfänge gehen auf das Ende der Qing-Dynastie im Jahre 1890 zurück). Als weltweit erste Aktiengesellschaft gilt der schwedische Forst- und Papierkonzern Stora, der schon 1288 Aktien ausgibt. Momentan ist der Bovespa (Brasilien) wegen seiner Wertentwicklung besonders interessant. Er liegt Ende Oktober 2018 bei 85720 Punkten (relativ hoch).  2008 war ein Jahr der Verluste: am größten in Island und der Ukraine. Gewinne gab es nur in Ghana, Ecuador und Tunesien.  In New York war das schlechteste Börsenjahr seit 1931 (Rückgang des Dow Jones um 777,68 Punkte an einem Handelstag, Rekord, am 05.03.2013 erreicht er ein Allzeithoch mit über 14.200, später sogar über 14.500 und über 15.000 im Mai 13). Einbrüche gibt es im August 2015 wegen der schlechten Konjunkturlage in China (am 24.08.15 wieder -3,6%; danach wieder nach oben). Weitere Einbrüche erfolgen zu Beginn des Jahres 2016 (wieder sind die Volatilitäten in China die Auslöser). Die Kurse von Internet-Firmen sind im Februar 2016 besonders vom Einbruch betroffen. Platzt eine Tech-Aktien-Blase? Nach dem Brexit am 23.06.16 fällt auch der Dow Jones zunächst (steigt dann aber um 0,02%). Deutlich bricht der Index nach dem Wahlsieg von Trump ein. In der Folge erreicht er aber dann ein Rekordhoch (über 20.000). Am 05.02.18 bricht der Index massiv um 4,6% ein (-1600 Zähler; Flash Crash: höchster Einbruch seit Bestehen des Index, "Wer höher fliegt, fällt auch tiefer"). Grund dürfte die Sorge um die schneller als vermutet verlaufende Zinswende sein, aber auch eine Überhitzung (Inflationsangst). Manche vermuten eine Manipulation durch Algorithmen von Händlern (Finra untersucht). Nach über hundert Jahren fliegt 2018 GE aus dem US-Leitindex. Microsoft, Apple und Alphabet sind die wertvollsten Unternehmen 2018. Der Dow Jones verliert 2018 -5,6%. Ende 2019 und 2020 steht es über 28.000 (28.823 Mitte Januar 2020). In Folge von Corona sinkt der Dow Jones dramatisch. Am 09.03. ist der Einbruch mit über 8% am stärksten, er bricht weiter am 16.3. ein und in der Folge. Am 24.3. kommt es zum höchsten Jahresgewinn (+10%, Hilfspaket). Er sinkt wieder stark nach der Corona-Infektion von Trump Anfang Oktober 2020. Es gibt auch einen MSCI-Welt-Aktienindex. Der Wechselkurs bzw. Devisenkurs setzt 1 € in Relation zu x$. Der Leitzins wird von der Zentralbank festgelegt und bestimmt die Konditionen, zu denen sich Banken kurzfristig Geld bei der Notenbank leihen können. Insofern achten institutionelle Investoren sehr auf diesen Index. Zusätzlich gibt es einen Dow Jones Sustainability Index World (DJSI World). Es sind die 250 nachhaltigsten Unternehmen der Welt (dazu sollen auch Nestle, Johnson&Johnson und Microsoft gehören?). Der Dow-Jones Stammindex schloss 1906 mit 100 Punkten, 1956 mit 500 und war 2006 erstmals über 12.000 Punkte. Im März 2013 geht er sogar erstmals über 14.300 und später über 15.000. Sein Ursprung kann bis zum 17. Mai 1792 zurückverfolgt werden, als das Buttonwood-Abkommen von 24 Börsenmaklern vor dem Haus Wallstreet 68 in NY unterzeichnet wurde. Ursprünglich diente er dazu, die Effizienz des industriellen Sektors in Amerika zu überwachen. Nach dem chaotischen Absturz 2010 ohne erkennbaren Grund werden Regeln gegen Panikreaktionen aufgestellt (Handelsstopp). 70% des täglichen Aktienhandels in den USA gehen auf High-Frequency-Trader zurück. Am 8. Februar 1971 wurde in New York die erste elektronische Börse der Welt gegründet, die NASDAQ (National Association of Securities Dealers Automated Quotation System). Sie ist die größte amerikanische Börse mit über 3200 Firmen. Sie hat die Handelssysteme OTC und Curb Exchange ersetzt. Der Nasdaq 100 enthält die 100 größten Unternehmen. Der Nasda Composite enthält über 3000 Aktiengesellschaften. Im September 2020 kommt es zu einem Einbruch an der Nasdaq. Die Tech-Giganten verlieren. Experten sprechen von einer Milchmädchen- oder Taxifahrer-Hausse. Konsumenten haben gekauft, was sie konsumieren (Apple, Tesla, Spotify).  Jetzt geht Luft raus.. Die Toronto Stock Exchange (TSE) in Kanada gehört der TMX Group. Der Volatilitäsindex Vix misst die Kursschwankungen des US-Börsenindex S&P 500. Er gilt als Angstbarometer der Aktienmärkte insgesamt. Eine Manipulation des Vix könnte den Februar-Absturz 2018 ausgelöst haben.

 Der DAX setzt sich aus Deutschlands 30 größten und liquidesten börsennotierten Firmen zusammen (Basiswert 1000 1987, umfasst auch Dividenden; Berechnung der Börsenzeitung fortgesetzt). Der Dax-Kursindex kann auch ohne Dividenden berechnet werden und ist so eher mit anderen Indices vergleichbar. 425 Jahre ist Frankfurts Börse alt. Schon 1605 entwickelten Kaufleute Wechselkurse für Währungen (1150 wurde erstmals die Messe Frankfurt erwähnt).  Im Mai 2011 wird der Parketthandel eingestellt. Das Xetra-System bringt es auf mehr als fünf Mrd. Euro. Im September 2018 ordnet die Deutsche Börse den Aktienindex neu: Commerzbank fliegt aus dem DAX (der Hochfinanz nicht gewachsen). Dann folgt ThyssenKrupp (Missmanagement, Dumping aus China). Im Juni 2020 muss die Lufthansa raus (in der Pandemie zu wenig Cash), dafür kommt die Deutsche Wohnen rein. Es ist der zweite Immobilienkonzern nach Vonovia. Im DAX gibt es 2020 noch keine weibliche CEO, auch keinen digitalen Newcomer. Der M-Dax bekommt zehn Werte mehr als bisher. Der Tec-Dax wird neu zusammengesetzt. auch die Regeln für den DAX sollen reformiert werden. Auslöser ist der Wirecard -Skandal. Dei Zusammensetzung soll aktionärsfreundlicher und zukunftsträchtiger werden (auch gesünder und innovativer). Dann  müssten aber 15 Unternehmen ersetzt werden. Es soll eine DAX-Erweiterung um 10 Firmen geben. Es soll auch neue Qualitätskriterien geben. Der Rauswurf soll schneller möglich sein. Das Beratergremium soll eine größere Bedeutung bekommen.  Im Februar 2013 erreicht der DAX mit über 8000 ein Fünfjahreshoch (am 14.03. sogar drüber geschlossen). Am 07.05.13 wird ein 25 Jahreshoch erreicht (8200, später über 8500; im Oktober 13 mit über 9000 Rekordwert; dann auf über 9500). Die Krim-Krise und schlechten Daten aus den USA treiben ihn im März 2014 unter 9000. Nach der Europa- und Ukraine-Wahl 2014 wird mit über 9800 ein Allzeit - Hoch erreicht, das nach der Leitzinssenkung auf 0,15% über 10.000 geht. Die Verschärfung einiger Krisen in der Welt und Konjunktureinbrüche treiben den Dax wieder unter 9000 im August 14 und Oktober 14. Nach der Aufgabe der Kursbeschränkung für den Schweizer Franken und der Ankündigung von Anleihekäufen der EZB steigt er wieder weit über 10.000 (neues Verlaufshoch 10.810 am 27.01.15; dann Allzeit - Hoch über 11.000 am 13.02.15 und weiter über 12.000 am 16.03.15). Im April 2017 nach der Frankreichwahl wird wieder ein neues Rekordhoch erreicht mit 12.455. 2014 hat die Ausschüttung an Anteilseigner (Dividende) mit 41,7 Mrd. € einen neuen Rekordwert erreicht. Am 29.06. vor der drohenden Staatspleite Griechenlands erfolgt ein Absturz um fast 500 Punkte (auch die anderen europäischen Börsen FTSE  in London, Ibex in Madrid, CAC in Paris geben nach). Ein weiterer großer Einbruch erfolgt am 24.08.15 nach dem Kurssturz in China (vorübergehend unter 10.000 Punkte). Im September 2015 kommt erstmals eine Immobilienfirma in den Leitindex (Vonovia, ehemals Deutsche Annington). Die Manipulation bei den Abgaswerten von VW drückt den DAX Ende September 2015 insgesamt nach unten (Automobilaktien). Zu Beginn von 2016 sinkt er unter 10.000 durch die Volatilitäten in China. Am 08.02.16 fällt der DAX unter 9000 (-16% seit Jahresbeginn; schlechte Weltkonjunktur; später runter auf 8700, Bankwerte, Anleger fliehen).  Durch den Brexit am 23.06.16 kommt es zwar zu einem Minus des DAX, das aber sehr moderat ausfällt (-0,7%). Ebenso gibt es zunächst ein Minus nach dem Wahlsieg von Trump. Nach dem Beibehalten der Geldpolitik der EZB Ende 2016 erreicht der DAX mit über 11.000 Punkten ein neues Jahreshoch. Am 2. Juni  2017 kommt der DAX auf 12878. Am 12.10.17 überschreitet der DAX kurz die 13.000 Marke; am 16.10.17 schließt er erstmals über 13.000. Im Jahre 2017 ist der DAX um 12,5% gestiegen. Am 05.02.18 bricht der Index um 2,3% ein, sinkt aber nicht unter 12.000. Er folgt dem Dow Jones. Ende 2018 haben die DAX-Konzerne eine Euro-Blase: Einige haben sich bei Übernahmen übernommen. Die Quittung kommt, wenn sich die Konjunktur abschwächt. Im Dezember 2018 bricht der Dax um 3,5% ein nach der Verhaftung der Huawei Finanz-Chefin  (unter 11.000, Zweijahrestief). 2018 war kein gutes Börsenjahr: der DAX sank um über 18%. Nur noch zwei deutsche Konzerne sind unter den Top 100: SAP und Siemens. Ende 2019 und Anfang 2020 ist der DAX über 13.000 und hält sich da. Am 21.01.20 erreicht der DAX ein neues Rekordhoch: 13.615 (Konjunkturoptimismus, Billiggeld der Zentralbanken, Entspannung Nahost). Trumps Drohung in Davos mit Zöllen gegen die EU lässt ihn wieder nach unten gehen. Ein Schock löst das Corona-Virus (Covid-19) aus: Der DAX sinkt zwischen 20.02. und 25.02.20 um 7,4%. Noch schlimmer trifft es den FTSE MIB, den italienischen Leitindex: -9,2%. Am 09.03. kommt es wegen Corona zu einer Börsenpanik weltweit: Der Dax sinkt um 8% (noch über dem Stand von Ende 2018). Am 16.03.20 fällt er sogar unter 9000. Bis zum 17.3.20 ist der DAX 2020 um 33% gefallen. Am 18.3. kommt es zu einer Wende. Am 23.3. kommt es erneut zur Talfahrt. Am 24.3. klettert er wieder nach oben (10%, Hilfspaket). In der Folge steigt er wieder über 13.000 (Rekordhoch 2020 17.2.20: 13.795). Interessant ist in Deutschland auch der NAI (Naturaktienindex; 30 Unternehmen; aber seltsame Zusammenstellung). Ebenfalls für ökologische Geldanlagen gibt es den ÖkoDAX (seit 2007; nur erneuerbare Energien; keine Gewichtung). Sehr aussagefähig ist in Deutschland mittlerweile auch der MDax. Hier sind viele mittelgroße, exportstarke Firmen (50 Unternehmen, 62% der Umsätze im Ausland) vertreten, die gleichzeitig Weltmarktführer sind. Seit Mitte 2012 bis April 2013 ist er um 17 Prozent gewachsen. Der kleine DAX-Bruder SDax ist auch interessant (eingerichtet 1999). Viele Nebenwerte entwickeln sich besser als bei den DAX - Unternehmen. Man braucht allerdings einen längeren Atem. Der TecDAX ist der Nachfolger des Neuen-Markt-Index (NEMAX 50). Hierin sind 30 Technologie-Unternehmen. Die Deutsche Börse will ab 2018 ihre Index-Welt unterhalb des DAX umbauen. Es gibt auch noch spezielle Börsen-Indices. Einer davon ist der Gebert-Börsenindikator. Er baut auf vier Kennzahlen auf (Zinsen, Dollar, Inflation, Saisonalität). Weiterer deutschsprachiger Raum: Die Schweizer Indizes SMI (Swiss Market Index) und SLI (Swiss Leader Index). Der SMI bildet die Kursentwicklung der 20 größten Schweizer Unternehmen ab (reiner Kursindex ohne Dividenden). Allerdings werden Nestle, Novartis und Roche zu stark gewichtet. Insofern ist der SLI aussagefähiger (seit 2007; 20 große, 10 mittelgroße Unternehmen; geringere Gewichtung der drei großen). Der österreichische Leitindex heißt ATX (Austrian Traded Index). Hier sind 20 Unternehmen eingerechnet. Im CECE Composite Index in EUR sind die Leitindizes von drei osteuropäischen Ländern zusammengefasst: Der ungarische HTX, der tschechische CTX und der polnische PTX. Großbritannien hat den FTSE 100. Frankreich hat den CAC 40. Der Leitindex der Börse Kopenhagen OMX hat 2020 alle anderen abgehängt. Das liegt an den Schwergewichten der Börse (Pandora, Genmab, Ambu). Weiterhin gibt es Branchenindizes des Stoxx Europe 600. Es handelt sich um reine Kursindizes. Für die ganze Europäische Union gibt es Euronext: Euronext hat Zentralen in Amsterdam, Brüssel, Lissabon, London, Dublin, Oslo  und Paris. Im Oktober 2020 kauft sie die Borsa Italiana in Mailand (vorher bei London Stock Exchange). Weiterhin gibt es den E-Stoxx 50. In ihm sind die 50 größten, börsennotierten Unternehmen des Euro-Währungsgebietes enthalten.  Interessant ist auch das Angstbarometer VDAX. Es misst Kursturbulenzen beim DAX. Im Februar 2018 wurden 40% erreicht, den höchsten Stand seit 2011 (das wäre umgerechnet ein erwarteter Rückung um 1400 Punkte). Der VDAX ist besser gegen Manipulationen abgesichert als der Vix in den USA. Klima-Aktienindex: Aufgestellt von Fintechs right, Frankfurt. 260 der 600 größten börsennotierten Unternehmen Europas schaffen es hinein.

Der Hang Seng Index (H-Index) hat seinen Namen von Hongkongs Hang Seng Bank, die den Index 1969 ins Leben rief (chinesisch, "stets wachsend"). Der Hang-Seng hatte 2017 einen Rekordzuwachs (wie seit 2007 nicht mehr, +36%). Er bricht in der Corona-Krise 2020 stark ein. Dann noch mal am 22.05.20 (Sicherheitsgesetz für Hongkong im Volkskongress).  Mittlerweile ist auch der CSI-300 in Shanghai (zusammen mit dem Component Index in Shenzhen) etabliert. Ein Index für die Börse in Tianjin wird noch eingerichtet.  2014 legt er um 50% zu (nach dem Verbot bestimmter Finanzprodukte sackt er am 17.01.15 um 7% ab). In der Folge fällt er sehr stark (bis zu 8%; Blase platzt; Regierung nimmt Unternehmen aus dem Index). Weiterer Einbruch am 21.08.2015 um 8,5% (Sechsjahrestief; am 24.08. auch andere Weltbörsen im Abwärtstrend). Weitere Einbrüche folgen Anfang 2016 (Rückgang der Industrieproduktion). 2017 endet der CSI unweit seines Jahreshochs. Am 05.02.18 gibt er stark nach infolge des Absturzes des Dow Jones, der Trend hält eine Zeitlang an. Das Corona-Virus führt zu einem Absturz in mehreren Sequenzen. Der Nikkei wird von der Wirtschaftszeitung Neihon Keizai Shimbum veröffentlicht und misst die Wertentwicklung der  225 wichtigsten Aktien an der Börse von Tokio (1950 eingeführt). 2015 fällt der Nikkei infolge der Euro-Krise und dem Einbruch des chinesischen Aktienmarktes. Zuletzt stark am 24.08.15. Weitere Rückgänge gibt es zu Beginn von 2016 und nach dem Brexit, ebenso nach dem Wahlsieg von Trump. 2017 liegt der Nikkei gut 19% zu. Am 05.02.18 gibt der Nikkei stark nach infolge des Absturzes des Dow Jones.  Die Talfahrt hält vorerst an. Ende 2018 kommt es noch mal zu einem Absturz um 2.8% (Zinserhöhung der Fed). Im Jahre 2018 stürzt der Nikkei um 12,1% ab. Einen Einbruch hat dann der Nikkei im März 2020 wegen Corona; die Senkung setzt sich fort. Am 24.3. kommt eine Wende. Die älteste Börse in Asien ist die in Mumbai/ Indien. In Indien gibt es mehr börsennotierte Unternehmen als in jedem anderen Land der Welt. An der Mumbay Stock Exchange (BSE) sind ungefähr 5000 Unternehmen gelistet, mehr als an jeder anderen Börse. Die heute führenden Gesellschaften in Indien wurden von Parsen im 19. Jahrhundert gegründet. Die Parsen gründeten auch die Textilindustrie. Die Juteindustrie in Bengalen dominierten die Briten. Die Briten betrieben ursprünglich auch den Kohlebergbau. Auch die Teeplantagen waren ein Monopol der Briten. Die Parsen waren aus Persien eingewandert. Immer interessanter wird das Marktbarometer der indonesischen Börse der Jakarta - Composite - Index (402 Aktien, seit 1982). Aktienindex in vietnam ist der FTSE-Vietnam-Index. Die größten Positionen haben der Nahrungsmittelmulti Vietnam Dairy Products, der Mischkonzern Vingroup und der Hausbaukonzern Vinhomes. Für Asien insgesamt gibt es den Stoxx 600 Asia/ Pacific. 2014 öffnet Saudi-Arabien seine Börse für große Anleger aus dem Westen. Saudi-Arabiens Leitindex heißt Tadawul. Vorher hatte sich schon Dubai geöffnet. Hier gibt es den DFM General Index. In Griechenland heißt der Leitindex ASE. Griechenlands Börse wurde 1876 gegründet. Sie ist mittlerweile in privater Hand. 230 Unternehmen sind dort 2015 notiert. Der Wert aller Aktien liegt im August 2015 bei etwa 40 Mrd. € (allein die Deutsche Bank ist wertvoller). Am 03.08.15, als die Börse nach fünf Wochen wieder öffnet, wird er schwer gebeutelt (-16%, am Folgetag noch -4 %; viele Firmen wandern aus). 

Die älteste Aktienbörse ist die Amsterdamer Börse von 1602. Der wertvollste Konzern in der Wirtschaftsgeschichte nach dem Aktienwert ist bisher Apple. Nobelpreisträger Shiller aus den USA eine eine spezielle Formel für die Bewertung von Aktien entwickelt auf Basis des Kurs-Gewinn-Verhältnisses (KGV). Ein KGV berechnet sich aus dem Börsenwert eine Unternehmens geteilt durch seinen (erwarteten) Jahresgewinn. Er soll Über- und Unterbewertungen signalisieren. Weitere Indikatoren für die Lage an den Finanzmärkten sind die folgenden: Renditedifferenz. Die Zinsdifferenzkurve zeigt die Differenz zwischen der Rendite kurz laufender und lang laufender Anleihen. Investoren orientieren sich dabei an US-Staatsanleihen mit zwei und zehn Jahren Laufzeit. Wertpapierkredite. Kaufen Anleger Wertpapiere zunehmend auf Pump, signalisiert das eine höhere Spekulationsneigung. Kurs-Buchwert-Verhältnis. Das Kurs-Buchwert-Verhältnis (KBV) zeigt, wie teuer ein Unternehmen an der Börse relativ zu seinem Buchwert oder Eigenkapital ist. Hinzu kommen die Anlegerstimmung, die Volatilität und die Marktbreite.

Wichtig sind auch die Indikatoren der Geldpolitik: Die Geldmenge M1 umfasst den Bargeldumlauf sowie täglich fällige Sichteinlagen. Er gilt als zuverlässiger monetärer Frühindikator. Die Zinsstruktur misst die Differenz zwischen den langfristigen und den kurzfristigen Zinsen.  Klettern die kurzfristigen über die langfristigen Zinsen spricht man von einer inversen Zinsstruktur, was auf das Ende einer Rezession hindeutet. Das Zentrum für Europäische Politik (CEP) hat einen Default-Index entwickelt, der die Fähigkeit eines Landes misst, Auslandskredite zurückzuzahlen. Mittlerweile gibt es einen Glaubwürdigkeitsindex, der die Reputation von Notenbanken misst. Der Ruf von Fed und EZB hat danach 2017 gelitten (Quelle: Bloomberg, DZ Bank).

2015 wird ein neuer Index für den Stress an den Finanzmärkten (WSSI) entwickelt. Konstrukteur ist das Institut für Kapitalmarktanalyse (IFK) in Köln. Experten des IFK prüfen weltweit 6500 finanzielle und konjunkturelle Indikatoren, darunter Aktien-, Währungs-, und Rohstoffkurse sowie Zinsen auf Staats- und Unternehmensanleihen. Im März 2017 lassen Protektionismus, Brexit und Rechtspopulismus die Nervosität an den internationalen Finanzmärkten steigen (der WSSI steigt merklich).

- Genauso sollte man für die wichtigsten Länder die Schlüsseldaten wie Bevölkerung und Höhe des BIP und das Pro-Kopf-Einkommen nennen können (wichtig können für spezielle Fragestellungen auch die Analphabetenrate und die Sparquote sein).

- Bei einigen Themen sollte man die Grundtendenzen in der Welt im Umriss erahnen können: Verschuldung (Haushaltsdefizit: Neuverschuldung bezogen auf das BIP pro Jahr x 100; Gesamtverschuldung; auch Euro-Konvergenzkriterien von 3,0% und 60%); Staatsquote: Verhältnis der staatlichen Ausgaben zum BIP (R. Barro fand keinen Zusammenhang mit dem Wirtschaftswachstum; setzt sich aus vielem zusammen, nicht einheitlich definiert, z. B. Sozialversicherung, Wohlfahrtseffekte der Ausgaben?).  Konjunktur (Boom, Rezession, Stagnation); Inflation (gemessen durch die Preissteigerung am Preisindex für die Lebenshaltung: hier werden laufend die Kosten eines bestimmten Warenkorbes, der eine repräsentative Güterauswahl enthält, ermittelt, die Basisperiode ergibt sich aus dem Jahr der EVS-Stichprobe). Die Inflation steht in engem Bezug zur Geldmenge:M1=Bargeldumlauf und gängiger Geldmengenbegriff, M2=M1 + Einlagen mit Laufzeit bis 2 Jahren und Kündigungsfrist von bis 3 Monate, M3=M2 + Geldmarktfonds, Geldmarktpapiere und Bankschuldverschreibungen.  Welthandel (Exporte, Importe), Welt -BIP, Direktinvestitionen (Beteiligung, Erwerb oder Bau von Produktionsstätten im Ausland), Energie/Umwelt.

- Einige institutionelle Rahmenbedingungen sollten bekannt sein: Wirtschaftsordnung (Art der Marktwirtschaft: frei, gelenkt; welches Grundmodell?), Zentralbankstatus (abhängig, unabhängig; Bank der Banken: kontrolliert die Höhe der Mindestreserven und des Zinses), politisches System (z. B. Demokratie, Diktatur), Kultur (individualistisch, kollektivistisch), Geschichte (Tradition), Wirtschaftsstruktur (z. B. Anteil tertiärer Sektor), Integration in die Weltwirtschaftsordnung (Mitglied WTO, IWF, G8).

- Es sollte auch bekannt sein, aus welchen Quellen der empirischen Wirtschaftsforschung die Daten stammen. In Deutschland legt im Januar eines jeden Jahres die Bundesregierung den Jahreswirtschaftsbericht vor (z. B. Prognose für  2011: Wirtschaftswachstum +2,25; Haushaltssaldo -2,5%; Arbeitslosenquote +7%). Für 2013 prognostiziert das Bundeswirtschaftsministerium 0,4% Wachstum des BIP. So kommt es dann auch exakt. Für 2014 werden 1,8% Wachstum erwartet (2015 2,0%). 2016 rechnet die Bundesregierung mit einem Wirtschaftswachstum von 1,7% (tatsächlich 1,9%). Das Konsumklima ist stabil. Für 2017 werden 1,4% Wirtschaftswachstum erwartet. Im Jahreswirtschaftsbericht 2019 schraubt die Regierung ihre Wachstumsprognose für 2019 auf 1,0% herunter. Im Frühjahr und Herbst eines jeden Jahres geben die Wirtschaftsforschungsinstitute (seit 1950, 8 Institute seit 2007, 2013 soll das DIW, Berlin, das IfW in Kiel ablösen), ein Gemeinschafts-Gutachten heraus. In der Gemeinschaftsprognose der acht Institute im April 2011 wird ein Wachstum von 2,8%, eine Inflationsrate von 2,4% und eine Arbeitslosenzahl von 2,89 Mio. für 2011 vorausgesagt. Im Herbstgutachten 2011 wird 2012 nur noch ein Wachstum von 0,8% gesehen (Arbeitslose 2,8 Mio., Preise +1,8%, HH-Defizit -0,6%). Das Herbstgutachten 2012 der Institute für die Bundesregierung erwartet für 2013 nur noch ein Wachstum von 1 Prozent. Die Inflationsrate wird bei 2,1% gesehen. Im Frühjahresgutachten wird nur ein Wachstum von 0,8% erwartet (2014 1,9%). Andere Daten werden wie folgt gesehen: Arbeitslose 2,87 (2,72), Anstieg der Verbraucherpreise 1,7 (2,0). Im Herbstgutachten 2013 wird ein schwacher Aufschwung 2014 erwartet (1,8%; 2013 0,4%). Etwa 33 Mrd. € stehen bis 2018 für Schuldenabbau, gerechteres Steuersystem und Investitionen zur Verfügung. Im Frühjahrsgutachten im April 2014 werden die geplanten Sozialleistungen und der Mindestlohn kritisiert. Im Herbstgutachten 2014 der Institute wird konstatiert, dass die Regierungspolitik (Rentenpaket, Mindestlohn) Arbeitsplätze kostet. Im Frühjahrsgutachten 2015 wird ein Wirtschaftswachstum für 2015 von 2,1% prognostiziert (von 1,2% erhöht; 2016 1,8%). Die Zahl der Erwerbstätigen soll auf 43,01 (2016: 43,24) steigen (2,72 Mio. AL). Im Herbstgutachten 2015 sehen die Institute gute Aussichten für die Konjunktur in Deutschland (1,8% Wachstum 2015 und 2016 wegen der großen Kauffreude).  Die zuletzt enttäuschenden Exportzahlen könnten diese Prognose noch durcheinander bringen. Im Frühjahresgutachten wird die Prognose für 2016 revidiert (nur noch 1,6%; Inflation 0,5%; ALQ 6,2%). Im Herbstgutachten 2016 wird die Prognose des BIP-Wachstums für das laufende Jahr auf 1,9% angehoben (Staatskonsum, Verbraucher). Im Frühjahrsgutachten 2017 erwarten die Forscher 1,5% Wachstum 2017. Sie sehen Risiken durch den möglichen Handelskrieg mit den USA. Im Herbst 2017 heben sie die Wachstumsprognose an: 1,9% (2018: 2,0%, 2019: 1,8%; ALQ ). Sie mahnen Änderungen in der Abgabenpolitik an. Im September 2018 (Herbstgutachten) wird die Wachstumsprognose für 2018 gesenkt (auf 1,7%). Im Frühjahr 2019 senkt man sie weiter auf 0,8% (wenn harter Brexit, noch weiter runter). Auch für 2019 wird man pessimistischer (Handelskonflikt, Brexit, Schulden Italiens; deshalb 1,9%; 2020 1,8%). Im Herbst 2019 geben die Wirtschaftsforschungsinstitute ihre Prognose im Herbstgutachten (Gemeinschaftsgutachten)  ab: für 2019 (0,5%) und 2020 (1,1%) BIP-Wachstum. Ab 2021 soll die Wirtschaftsituation besser werden. Die Arbeitslosenzahlen werden werden 2020 leicht ansteigen, ebenso die Inflation. Der Finanzierungsüberschuss des Staates wird zurückgehen. Im Frühjahr 2020 steht das Frühjahrsgutachten ganz im Zeichen der Corona-Krise:2020 -4,2% Wachstum, 2021 + 5,8%. Das Herbstgutachten verstärkt den Negativtrend: Wachstum 2020 -5,4%, Wachstum 2021 +4,7%-   Im Spätherbst erscheint jährlich das Gutachten des Sachverständigenrates für Wirtschaft (seit 1963, Vorsitzender 2013 Christoph M. Schmidt, RWI-Essen; werden auch die "Fünf Weisen" genannt, Lars Feld, Walter-Eucken-Institut Freiburg; Peter Bofinger, Würzburg; Claudia M. Buch; Volker Wieland ). Im neuen Gutachten 2011 wird für 2012 ein Wachstum von 0,9% (2011: 3,0%) erwartet. Die Arbeitslosigkeit soll 2012 im Schnitt bei 2,89 Mio. liegen (6,9%). An Inflation wird 2012 1,9% erwartet. Es wird ein Euro-Tilgungsfonds empfohlen. Im Gutachten 2012 gibt es Kritik an den jüngsten Regierungsbeschlüssen (Abschaffung Praxisgebühr, Zuschussrente, Betreuungsgeld). Es wird von den "Fünf Weisen" eine bessere Konsolidierung des Haushalts gefordert. Reformen werden bei der Unternehmensbesteuerung und der Ökostromförderung angemahnt. Das Wachstum soll 2013 0,8% betragen.  Im Gutachten 2013 warnen die "Fünf Weisen" vor Mindestlohn und Mietbremse. 2014 prognostizieren sie ein Wirtschaftswachstum von 1,6%. Die Zahl der Erwerbstätigen soll auf den Rekordwert von 42,1 Mio. steigen. Die Arbeitslosenquote wird knapp unter 7% liegen (2,95 Mio. AL). Im Gutachten des SRW 2014 wird der Regierung die Verantwortung für die schwache Konjunktur gegeben. Für 2014 wird ein moderates Wachstum des BIP von 1,2 Prozent erwartet (von 1,9% herunterkorrigiert). Das Jahresgutachten 2015 sagt für 2016 Folgendes: Wirtschaftswachstum 1,6%; Arbeitslose 6,6%; Preise +1,2%; Überschuss Staatskasse 0,2%. Im Jahresgutachten 2016 sprechen sich die Weisen für ein späteres Renteneintrittsalter und die Ausweitung des Niedriglohnsektors aus. Die Wirtschaftsweisen erhöhen im März 2017 ihre Wachstumsprognosen: 2017 1,4%; 2018 1,6%. Im Haupt-Gutachten im Herbst 2017 erhöhen sie die Prognose für 2018 auf 2,2%. Der Soli sollte Schritt für Schritt abgeschafft werden. Die Situation der Gemeinden sollte verbessert werden. Im Herbstgutachten 2018 senken die Wirtschaftsforscher die Prognose für 2018 deutlich (von 2,3 auf 1,6%). Die Abkühlung der Weltkonjunktur und der spürbare Fachkräftemangel gehen an der deutschen Wirtschaft nicht spurlos vorbei (2019: 1,5%). Die Arbeitslosigkeit geht aber weiter zurück und die Inflation steigt.  Im Jahresgutachten 2019, das am 06.11.19 vorgestellt wurde, prognostizieren die 5 Weisen für 2019 ein Wachstum von 0,5%, 2020 0,9%. Deutschland sei im Abschwung, stehe aber nicht vor einer Rezession. Es werden Steuersenkungen empfohlen. Sie setzen auch ein Fragezeichen hinter die "Schwarze Null".  Die Frankfurter Allgemeine Zeitung (F.A.Z.) erstellt regelmäßig monatlich einen Konjunkturbericht Deutschland. Am Ende eines Jahres führt das IW (Institut der deutschen Wirtschaft) im Auftrag des BDI bei den Industriebranchen eine Umfrage über die Wirtschaftsaussichten im nächsten Jahr durch. 2013 rechen für 2014  26 von 48 Wirtschaftsverbänden mit einer positiven Entwicklung (vor allem im Bau, 5 Mrd. € im Koalitionsvertrag). Ein großes Beschäftigungsplus wird nicht erwartet. Die Verbandsumfrage 2014 für 2015 zeigt eine leicht positive Stimmung.  Das Finanzministerium gibt einen Finanzbericht heraus, der viele internationale Übersichten enthält. Alle zwei Jahre gibt es den Subventionsbericht der Bundesregierung. Die EU kritisiert hier, dass die Empfänger in der Landwirtschaft nicht genannt werden. Vergleichbare Institutionen gibt es auch in den USA und Japan. Alle genannten Institutionen sind bei den Links vertreten. Von 2005 bis 2008 fährt der Bund seine Subventionen um 2 Mrd. € zurück. Darüber hinaus gibt es noch andere - zum Teil private - Institute, die Indikatoren erstellen: Das Marktforschungsunternehmen GfK konstruiert den Konsumklimaindex. Dies geschieht seit 1980 (2000 Verbraucher, 600 Interviewer, alle Ausgaben der privaten Haushalte, drei Teile: Anschaffungsneigung, Einkommenserwartung, Konjunkturerwartung). 2014 wird eine Revision des Indikators in Angriff genommen. Gesamtwirtschaftliche Aspekte wie Preiserwartungen und Arbeitslosigkeit spielen heute eine größere Rolle. Die GfK ist nicht mehr unabhängig. Sie wird von Investor KKR dominiert und umgebaut.  Im März 2011 steigt der Index auf den höchsten Stand (6,0) in Deutschland seit 2007, weil die Verbraucher mit höheren Einkommen rechnen. Er fällt danach langsam wieder (auf 5,2 im September 2011, am positivsten ist die Einkommenserwartung). Im Februar 2013 steigt der Index auf den höchsten Wert seit November 2012. Ende 2013 steigt das Barometer sogar auf 7,4 Punkte (niedrige Zinsen, Kauflaune). Das ist der höchste Wert seit August 2007. Ende Januar steigt der Index sogar auf 8,2 (Lohnerwartung, Zuversicht); im Februar auf 8,5. Im Juli 2014 erreicht er 8,9 und damit den höchsten Stand seit sieben Jahren (Schub durch niedrige Zinsen). Im August steigt er noch mal auf 9,0. Sogar Ende des Jahres 2014 ist er noch hoch wegen des niedrigen Ölpreises. Ende Januar 2015 erreicht er den höchsten Stand seit 2001. Im April werden 10,0 erwartet. Laut dem GfK-Index Ende 2015 dürfte der Private Konsum auch 2016 eine Stütze der Konjunktur bleiben. Der Index steigt sogar noch leicht an zu Beginn von 2016. Im Herbst 2016 sinkt er nach dem Brexit und dem Terror. Im Mai 2017 steigt der Index überraschend stark an (so gut wie seit 2001 nicht). Er erhöht sich dann im Juni 17 noch mal. Für Februar/ März 2018 sinkt der Index (Regierungsbildung, Börsenturbulenz, US-Handelshemmnisse). 2018 insgesamt bleibt das Konsumklima stabil auf hohem Niveau. Es steigt die Bereitschaft zu teueren Anschaffungen. Im April 2019 geht der Index gegenüber dem 1. Quartal wieder nach oben (stabiler Arbeitsmarkt, Rentenerhöhung). Im Juli 2019 sinkt der Index um 0,3 Zähler (9,8: tiefster Stand seit April 2017). Im Oktober 2019 steigt die Kauflaune wieder (9,9). Durch die Corona-Krise 2020 ist die Kauflaune im freien Fall. Ende April 2020 ist der Index bei -23,4. Im September 2020 stabilisiert er sich wieder (-1,7). Seit 2010 gibt es einen Frühindikator für die Ausgaben der privaten Verbraucher. Er wird am DIW in Berlin erstellt. Datengrundlage sind die monatlichen Umfragen der EU-Kommission (Dreger, C./ Kholodilin, K.: Forecasting Private Consumption by Consumer Surveys, DIW, Berlin Sept. 2010). Das RWI in Essen berechnet den Konsumindikator. Er besteht aus 41 Kategorien, die für private Konsumausgaben besonders relevant erscheinen.  Das RWI veröffentlicht seit 2011 alle drei Monate einen aktualisierten Indikator. Grundlage sind Google-Daten. Das Handelsblatt Research Institute veröffentlicht den HDE-Konsumbarometer. Es besteht aus sechs Fragen an repräsentativ ausgewählte Konsumenten. Erhoben werden Konsum- und Sparneigung. Das Ifo - Institut in München berechnet das Geschäftsklima. Es ist wohl der wichtigste Frühindikator in Deutschland. Jeden Monat werden 7000 Unternehmen aus dem Verarbeitenden Gewerbe, Bau, Groß- und Einzelhandel über die aktuelle Geschäftslage und die Perspektiven für die nächsten sechs Monate befragt. Den Index gibt es seit 1969 (erste Umfrage 1949; dadurch lange Reihen möglich).  Dieser erreicht im Januar 2011 mit 110,3 den höchsten Wert seit der Wiedervereinigung. Im November 2011 steigt er überraschend wieder an. Im Januar 2013 kündigt er einen Konjunkturaufschwung an. Im September 2013 steigt er zum fünften Mal in Folge. Im Januar 2014 erreicht er sogar 110,6. Im Juli 2014 sinkt der Index auf 108,0 (Konflikte in Gaza und der Ukraine). Im Herbst 2014 sinkt der Index weiter (Exportindustrie leidet aufgrund der Krisen). Ende Oktober 14 fällt er auf den tiefsten Stand seit Ende 2012. Im November 2014 geht er wieder nach oben. Ende März erreicht er den höchsten Stand seit Juli 2014. In den ersten 5 Monaten 2015 sinkt der Index leicht. Im Mai 2017 steigt der Index auf einen Rekordwert (Erleichterung nach Macrons Wahlsieg). Im April 2018 sinkt der Index im fünften Monat in Folge. Eine Rezession wird aber nicht erwartet. Trumponomics zeigt aber Wirkung. Im August 2018 steigt der Indes deutlich ("Waffenstillstand" mit Trump). Im November 2018 sinkt der Index auf 6,6 ab (von 19,6; Sorgen um Italiens Staatsschulden, Euro-Konjunktur). Im Februar 2019 sinkt er weiter ab (Brexit, Handelsstreit mit USA, weltweite Konjunkturflaute). Im März 2019 steigt der Index überraschend wieder an. Im Mai sinkt der Index weiter ab (97,9 von 99,2 im April). Er fällt noch weiter im Sommer 2019 (Juli, August; auf 94,3). Dei Anzeichen für eine Rezession (längerer Rückgang der Wirtschaftsleistung) verdichten sich. Im März 2020 geht der Index rapide nach unten (87,7, Grund ist die Corona-Krise). Im April sinkt er auf 74,3. Insgesamt ist das der stärkste Rückgang überhaupt. Nach dem Rekordtief klettert er zum dritten Mal in Folge bis Juli 2020; dann steigt er weiter (Wirtschaft setzt auf Erholung). Das Ifo-Institut berechnet für das Handelsblatt auch das Ifo-Beschäftigungsklima (darin auch Exportklima-Index). Es handelt sich um Erwartungen von 9500 repräsentativ ausgewählten Unternehmen. Sie werden nach Planungen für die nächsten drei Monate befragt. Zu Beginn 2015 klettert es auf den höchsten Stand seit drei Jahren. Zu Beginn 2016 ist das Exportklima eher mau. Am Anfang 2017 sinkt der Index deutlich. Die Banken sehen Trump als Grund. Nach der Frankreichwahl im April 2017, die Macron gewinnt, wird der höchste Stand seit sechs Jahren erreicht (112,9). Im November 2017 steigt das Exportklima auf den höchsten Stand seit über zehn Jahren. Im Juli 2019 fällt der Index überraschend kräftig 95,7, niedrigster Stand seit 2013).  Zusammen mit dem IAB-Arbeitsmarktbarometer indiziert es den deutschen Arbeitsmarkt in der Konjunktur.  Der Arbeitsmarkt ist eher Spätindikatoren für die Konjunktur. Der DIHK macht regelmäßig Umfragen (z. B. im Frühsommer). Die Commerzbank berechnet den Earlybird-Frühindikator für die Wirtschaftswoche. Er wurde Anfang 2000 entwickelt. Der Indikator soll früher als alle anderen Alarm schlagen. Er misst  den Kurs der Geldpolitik anhand des kurzfristigen Realzinses. Er ergibt sich aus der Differenz des Nominalzinses für Kredite mit dreimonatiger Laufzeit am Interbankenmarkt (Euribor) und dem Durchschnitt der Kernteuerungsraten (ohne Energie und Steuern). Auch die Auslandskonjunktur geht durch den Welteinkommensmagerindex mit ein (Gewicht 25%). Z. B. Januar 2010 mit 2,05 Punkte höchsten Stand seit 20 Jahren. Im Juni 2015 legt der Frühindikator deutlich zu (wieder 2,0). Im Februar 2016 rutscht der Index nach langer Zeit wieder ins Minus. Im Frühjahr 2020 rutscht der Index in der Corona-Krise auf den tiefsten Stand seit 8 Jahren.  Seit 2011 arbeitet das Institut für Wirtschaftsforschung Halle (IWH) mit einem Flash-Frühindikator, der die Wirtschaftsleistung im laufenden und folgenden Quartal einschätzt. Der Bundesverband Materialwirtschaft, Einkauf und Logistik (BME) lässt den Einkaufsmanagerindex (EMI) ermitteln. Sein Vorteil ist die internationale Vergleichbarkeit. Er kommt ursprünglich aus Großbritannien. Er orientiert sich methodisch am 80 Jahre alten amerikanischen Index (ISM, Frühindikator der US-Konjunktur und Gradmesser für die gesamte Weltwirtschaft). Im Juni 2014 liegt er bei 52,4. Im Frühjahr 2015 ist er sehr positiv in der Euro-Zone und deutet auf Wachstumsschub hin. Im Oktober 2018 indiziert er, dass Europas Wirtschaft schwächelt. Bei diesen Projekten handelt es sich eher um Frühindikatoren. Etabliert und eine der ältesten Früh- Indikatoren ist der Auftragseingang, gemessen vom Statistischen Bundesamt. Hier gehen die Auftragseingänge der Industrie ein. Diese sind im August 2014 (5,7% gegenüber Juli 2014) so stark eingebrochen wie seit 5 Jahren nicht mehr. Neu ist die Mautstatistik. Sie kann als Frühindikator für die Konjunktur benutzt werden. Allerdings ist die Korrelation mit den anderen Frühindikatoren nicht besonders hoch. Neu ist auch die Nutzung der "Schwarmintelligenz" in der Konjunkturforschung. Es handelt sich um eine Konjunkturbörse, die auf die Einschätzung vieler Studenten im schnellen Internet setzt. Man spricht auch von Konjunkturschwarm. Speziell für den sozialen Bereich wird ein Sozialbericht erstellt vom Arbeitsministerium. 2009 fließen wegen der Wirtschaftskrise 754 € in Sozialausgaben (gut ein Drittel des Nationaleinkommens).

Die EU arbeitet mit eigenen Indices, in denen auch Werte für Deutschland ermittelt werden. Die EU-Kommission erhebt einen Index, der die konjunkturelle Entwicklung misst für die Eurozone und die gesamte EU. Daneben wird die Wirtschaftsstimmung und das Geschäftsklima (Auftragslage, Exportaufträge, Produktionstrends) in Indices gemessen.

Die OECD will einen Glücksindex ermitteln. Dieser soll ein Maßstab für Wohlbefinden sein. Der Vorschlag dazu geht auf einen Forschungsbericht von Joseph Stiglitz und A. Sen zurück. Vorher entstand ein solcher Index in Bhutan (Bhutan-Entwicklungs-Index, "Bruttonationalglück"). Auch in Deutschland beschäftigt sich eine Bundestagskommission mit der Frage. Die OECD arbeitet mit den Kriterien Wohnsituation, Einkommen, Arbeit, soziale Bindungen, Umwelt, Gesundheit, Verbindung von Privat- und Berufsleben. Jedes Jahr wird in Deutschland ein Glücksatlas ermittelt. Das Fach "Glück" gibt es auch als Schulfach. Zuerst in Heidelberg. Mittlerweile in 100 Schulen in Deutschland und Österreich. Glück wird als Selbst- und Kulturtechnik gelernt. Es ist auch Fach an den Universitäten Münster und München.

Coronakrise und Konjunkturforschung: In der Corona-Krise 2020 wird die traditionelle Konjunkturforschung zum Glücksspiel. Neue Daten müssen zum Zuge kommen mit neuen Methoden. Einige setzen als Prognosehelfer Satellitenbilder ein. Andere wollen mehr mit indirekten Daten arbeiten (Stromverbrauch, LKW-Verkehr). Noch intensiver soll Big Data eingesetzt werden. Vgl. Losse, Bert/ Fischer , Malte: Propheten im Ausnahmezustand, in: WiWo 20, 8.5.20, S. 40f. Bei der hohe Exportquote Deutschlands können Prognosen aber nur halbwegs genau sein, wenn gleichzeitig eine Prognose der EU und der Weltwirtschaft damit verbunden ist. Das können Konjunkturforschungsinstitute in Deutschland naturgemäß aber nur begrenzt, egal welche Rechnungsmethoden - Änderungen sie national vornehmen.

- Prognose: Das BIP wird jährlich und für Quartale prognostiziert. Kurzfristige Quartalsprognosen gibt es vom Statistischen Bundesamt (StBA, sechs Wochen nach Ende eines Quartals für das nächste) und von Barclays - Handelsblatt (sofort im laufenden Quartal vor dem StBA). Im Herbst 2009 wird eine Prognosebörse der Konjunktur eingerichtet (Handelsblatt, IW, TH Karlsruhe). Diese Prognosebörse EIX sagt Konjunkturdaten relativ gut voraus. Gut ist auch die Bloomberg-Umfrage unter Bankvolkswirten. Das ZEW in Mannheim ermittelt den ZEW-Konjunkturindex für mittelfristige Konjunkturerwartungen, der monatlich herausgegeben wird. Da er Finanzanalysten und institutionelle Anleger befragt (ca. 260), ist er eher ein Stimmungsbarometer für die Finanzmärkte (korreliert hoch mit der Entwicklung der wichtigsten Aktienindices; Trends bei Zinsen, Wechselkursen und Börsenindices).  Seit der Finanzkrise 2008 sinkt die Prognosekraft. Mitte 2014 steht der Index so tief wie seit Dezember 2012 nicht mehr. Achter Rückgang in Folge. Im Oktober 2017 legt der Index stark zu. Das Risiko der Überhitzung wird gering eingeschätzt. Im Januar 2018 steigt der Index so stark wie nie. Nach der Corona-Krise steigt der Index wieder an: im September 2020 um 5,9 Punkte auf +77,4.  Prognostiziert werden auch die Steuereinnahmen von einem Arbeitskreis "Steuerschätzungen" (seit 1955). Unter Federführung des Bundesfinanzministerium treten 35 Fachleute zusammen (Wirtschaftsforscher, Statistisches Bundesamt, Deutsche Bundesbank, SRW, Länderfinanzministerien, Kommunale Spitzenverbände). Grundlage der Schätzung sind die Eckdaten der Bundesregierung. Für jede Einzelsteuer errechnen die Arbeitskreismitglieder Prognosen. Als nächstes werden die auf Bund, Länder und Gemeinden sowie die EU entfallenden Steuern ermittelt. Nach der Prognose des Arbeitskreises "Steuerschätzungen Ende 2013 werden in den kommenden Jahren die Steuereinnahmen kontinuierlich ansteigen. Im Jahre 2018 wird das 2012 erzielte Aufkommen um 131,5 Mrd. € überschritten. Die Steuerquote wird merklich zunehmen (inflations- und progressionsbedingt). Die Steuerschätzung 2014 geht von einem Plus bei den Steuern von 19,1 Mrd. € bis 2018 aus. Die Steuerschätzung 2015 rechnet für 2016 mit einem Minus von etwa 3 Mrd. €. 2016 gibt es fünf Milliarden Euro mehr für den Staat. Die Steuerschätzung 2016 rechnet für die nächsten Jahre mit höheren Einnahmen: 2016 696 Mrd. €, 2021 836 Mrd. €. Der AK "Steuerschätzung revidiert im November 2017 seine Prognose für 2017 vom Mai: Es werden 734,2 Mrd. € erwartet, 1,8 Mrd. mehr. Für 2022 lautet die Prognose 889 Mrd. €. In der Steuerschätzung 2018 erhöhen die Steuerschätzer ihre Prognose für 2018 (775,3 Mrd. €). Die Steuerschätzung 2019 (Mai) sagt in den nächsten fünf Jahren zurückgehende Steuereinnahmen voraus. Für 2020 werden -100 Mrd. € erwartet wegen der Corona-Krise. Im September 2020 legt der AK "Steuerschätzungen" eine neue Prognose vor: Corona lässt die Steuereinnahmen 2020 drastisch einbrechen (81,5 Mrd. €; Bund 44, Länder 35, Kommunen 15,6, EU 4). Bis 2024 betragen die Rückgänge -315,9 Mrd. €.  Auch die Bundesregierung selbst erstellt jährlich eine Frühjahrsprognose. 2010 sieht die Regierung ein Ende der Krise und ein kleines Job-Wunder. Für 2011 wird mit 2,6% Wachstum (2012 1,8%) gerechnet. In der Schätzung im Herbst 2011 werden für den Gesamtstaat 16,2 Mrd. € mehr Steuern erwartet. Im April 2015 wird für 2015 und 2016 ein Wirtschaftswachstum von 1,8% erwartet. Trotz des ungelösten Handelskonflikts mit der USA rechnet die Bundesregierung 2018 mit dem kräftigsten Wirtschaftswachstum seit 2011. Es werden 2,3% erwartet (2019 2,1%). Das Plus kommt durch höhere Konsumausgaben, Exporte und den Bauboom. Konjunkturprognosenprognosen werden auch von der OECD erstellt. "Meide den, der behauptet, sowohl "was" als auch "wann" vorherzusagen", Michael Burda, Ökonom, Humboldt-Uni Berlin. Mittlerweile wird versucht, mithilfe von Internetsuchanfragen die Konjunkturprognosen zu verfeinern. Googlemetrics wird diese neue Disziplin genannt. Für Prognosen gilt: Je größer die Zielscheibe, desto besser die Schützen.

"Die Zukunft gehört denen, die die Möglichkeiten erkennen, bevor sie offensichtlich werden", Oscar Wilde.

Die Prognose ist eines der schwierigsten Gebiete der empirischen Wirtschaftsforschung. Im langfristigen Durchschnitt bewegen sich die Fehler bei Konjunkturprognosen in einer Größe von mehr als einem Prozentpunkt. Die "Wirtschaftsweisen" irrten sich im Schnitt um 1,22 Prozentpunkte. Für 2013 lieferte die Deutsche Bundesbank die treffsichere Prognose (Wachstum 0,4%, Inflation 0,5%). Die Wirtschaftsforschungsinstitute, die EU-Kommission und die Banken hatten das Nachsehen. Exakte Prognosen sind im Bereich der Bevölkerung und der Ernte möglich. In der Regel sind Prognosen bedingt, d. h. sie treffen nur zu, wenn bestimmte angenommene Rahmenbedingungen eintreten. In der Statistik wird normalerweise die Trendextrapolation mit Hilfe der linearen Regression gelehrt. Im 17. Jahrhundert schrieb der Wissenschaftler Robert Boyle eine so genannte Wunschliste der Zukunft. Die meisten Vorhersagen wurden war: Krankheiten durch Transplantation heilen, fliegen können, geographische Breiten finden (Navi) und ein Schiff, das mit allen Winden segelt (Motorschiff). Konjunkturprognosen scheitern oft an einschneidenden Ereignissen (Krisen, Kriegen, Naturkatastrophen). Konjunkturprognosen werden sinnvollerweise auf der Grundlage saisonbereinigter Daten erstellt. Extreme Wetterlagen werden aber nicht richtig berücksichtigt. Oft werden Prognosen als bedingte Prognosen ausgeführt (verschiedene Annahmen), was zu verschiedenen Szenarien führt. Eine immer größere Rolle spielen politische Krisen in Prognosen. Sie gehören zu den Bedingungen, die schwer einzuschätzen sind. "Vorhersagen sind schwierig, vor allem über die Zukunft", (wird Mark Twain, Niels Bohr oder Albert Einstein zugeschrieben). Eine Studie der Universität Oxford 2015 weist nach, dass aufwendige Konjunkturprognosen nicht treffsicherer sind als kundige Schätzungen (Simon Wren-Lewis).

In Prognosen sind die Wirtschaftswissenschaften immer recht ungenau ("dismal science", im angelsächsischen Bereich gegenüber den exakten Naturwissenschaften). Das liegt daran, dass in wirtschaftlichen Zusammenhängen Menschen im Mittelpunkt stehen. Menschliches Verhalten ist nur bedingt vorhersehbar (Menschen ändern ihr Verhalten). Häufig unterliegen Wissenschaftler auch der Versuchung, aufgrund der Vergangenheit die Zukunft vorauszusagen. Meist macht die Ökonomie nur "wenn - dann - Aussagen". Man spricht auch von Szenarien.

"Der Trend stellte sich stets schwächer dar, ich selbst wurde bald nichtlinear. Ich sah das Gedankengebäude stehn, von außen, als wär` ich exogen. Und niemals werde ich erfahren, was Ober- und Untergrenze waren. Mein Geist mir selbst der Unbekannte, vermengt ex post nun mit ex ante: Meine Gedanken sind unelastisch, mein Handeln unheilbar stochastisch". Aus "Klagelied des Nicht-Ökonometrikers" von D. H. Robertson (O. V. Trebeis: Nationalökonomologie, Tübingen 1994, S. 251f.

Das Zentrum für gesellschaftlichen Fortschritt (Stefan Bergheim) misst seit 1970 die gesellschaftliche, ökonomische und ökologische Entwicklungen in 22 reichen Ländern. In diesem Fortschrittsindex liegen die skandinavischen Länder Norwegen, Schweden und Finnland vor Japan. Deutschland liegt an 18. Stelle. Berücksichtigt werden vier Dimensionen: Bildung, Einkommen, Gesundheit, Umwelt. Die Wirtschaftswoche (zusammen mit GPRA und TNS Emnid) berechnet einen Vertrauensindex für unterschiedliche Sparten in Deutschland. Hier liegen Die Automobilbranche und Lebensmittelbranche an der Spitze. Bewertet werden Ehrlichkeit, gesellschaftliche Verantwortung, vertrauensvoller Umgang mit den Mitarbeitern, vertrauensvoller Umgang mit Kunden und Kompetenz bzw. Qualität.

Nirgendwo sind Prognosen schwieriger als an der Börse. Die alten Modelle der Banken waren nicht komplex genug. Den Berechnungen der Ökonomen fehlte die Aktualität. Nun versuchen Hedge - Fonds den chaotischen Anforderungen mit Künstlicher Intelligenz (KI) gerecht zu werden. Die ersten Versuche sind viel versprechend. Wenn die Erfolge sichtbar sind, wird sicher die Konjunkturprognose insgesamt auf KI zurückgreifen. Die Zahlen des Statistischen Bundesamtes müssten aber schneller zur Verfügung stehen und transparenter sein. Das Bundeswirtschaftministerium hat 2019 ein Projekt "Big Data und Makroökonomie" gestartet. Vgl. Losse, Bert: Die schwierige Kunst der Propheten, in: WiWo 27, 28.6.2019, S. 38f. Vielleicht lassen sich mithilfe von künstlicher Intelligenz Vorhersagen verfeinern. Vielleicht kann man dadurch sogar Förderprogramme zielgenau zuschneiden.

Empirische Wirtschaftsforschung mit Algorithmen (virtuelle Ökonomie, Data Science): Man spricht von Artifical Intelligence (AI) Economist. Mit Hilfe riesiger Datenmengen soll das Verhalten der Wirtschaftssubjekte unter verschiedenen Rahmenbedingungen simuliert werden. Nicht volkswirtschaftliche Theorien stehen im Mittelpunkt, sondern Algorithmen. Es geht weniger um die Überprüfung theoretischer Hypothesen, sondern  darum, Muster zu erkennen und Vorhersagen zu treffen. Ein Salesforce - Team arbeitet an einem Forschungsprojekt dazu (Richard Socher, David Parkes/ Harvard). Als erstes Untersuchungsprojekt wurde die Steuer- und Verteilungspolitik ausgewählt. Noch werden Faktoren wie Bildung, Religion, Status, Geschlecht nicht berücksichtigt. Das Modell ist noch relativ einfach. In Deutschland könnte der hohe Datenschutz eine Hürde sein. Beim Bundesforschungsministerium wurde ein rat für Sozial- und Wirtschaftsdaten eingerichtet. Vgl. Losse, Bert/ Hohensee, Matthias: Professor Algorithmus, in: WiWo 26, 196.2020, S. 38f.

Firmenmodelle für die Zukunft: Grundlage kann etwa die Formtheorie von Spencer-Brown sein. Das Zukunftsinstitut entwickelte daraus die Methode der Re-Gnose. Die Position eines Unternehmens wird in Markt und Gesellschaft ganzheitlich verortet. Damit wird die Grundlage für einen Wandlungsprozess gelegt. Produkt, Verfahren, Organisation, Markt, Wirtschaft, Gesellschaft, Mensch werden verbunden mit Arbeit, Management, Business Modell, Unternehmenskultur, Kommunikation, Grundbedürfnissen. Vgl. Horx, Matthias: Die Zukunft nach Corona, Berlin (Econ) 2020.

-Messung von Wohlstand: Immer mehr rückt man vom Bruttonationaleinkommen (oder BIP) ab. Das Bruttonationaleinkommen eignet sich nur bedingt als Indikator für Wohlstand (eine einzelne Zahl hat immer beschränkte Aussagekraft). Die Haushaltsproduktion, ökologische und soziale Aspekte, Ehrenamt, Arbeit für die Familie und Schwarzarbeit finden keine Berücksichtigung. Im Finanzsektor treiben Spekulationsblasen die Marktwerte nach oben. Das Leben ist immer mehr als Transaktionen. Der Gini-Koeffizient kann die Verteilung von Reichtum darstellen. Der ökologische Fußabdruck misst, wie viel Agrarland benötigt werden, um die Ressourcen zu beschaffen, die die Einwohner verbrauchen. Der Index der menschlichen Entwicklung (Human Development Index, HDI) wird jährlich vom UNDP der UN berechnet. Neben BIP pro Kopf gehen auch Lebenserwartung und Bildungssystem ein. 2012 liegt hier Norwegen vor Australien. 2018 gewinnt auch wieder Norwegen. Hinter der Schweiz und Irland liegt Deutschland auf Platzt vier. Der Glücks-Index (Happy Planet Index, HPI) kombiniert Lebenserwartung, Lebenszufriedenheit und ökologischen Fußabdruck. Beabsichtigt ist auch, dass Bruttonationaleinkommen breiter zu messen: Der Konsum ist in reichen Ländern nicht mehr so sehr Glücksbringer, weil die materiellen Grundbedürfnisse befriedigt sind. Andere Wünsche rücken ins Blickfeld, wie Umwelt, Arbeitsbedingungen und sozialer Zusammenhalt. Trotzdem hängt Zufriedenheit auch immer noch von Geld ab. Interpretiert man Wohlstand Richtung Lebensqualität kommen weitere Größen dazu: Nicht-Armutsrisiko, Soziale Kontakte und Beziehungen, Bildung, Gesundheit, persönliche Aktivitäten. Mittlerweile hat sich der Nationale Wohlfahrtsindex (NWI) etabliert. Er bezieht das natürlich, soziale und wirtschaftliche Kapital ein. Entwickelt wurde er an der FU Berlin und einer Heidelberger Forschungsstätte. Wichtige Informationen zum Wohlstand in Deutschland ermittelt auch das Sozioökonomische Panel (SOEP) des DIW in Berlin. Seit 25 Jahren läuft diese Umfrage bei rund 11.000 Haushalten. Das Gegenteil von Wohlstand misst die Armutsquote. Nach der amtlichen Grenze beginnt in Deutschland unterhalb eines Einkommens von 60 Prozent des Medians die Armut. Der Median ist das Einkommen, welches von 50 Prozent der Bevölkerung über- und von 50 Prozent unterschritten wird. Wenn sich das Einkommen sehr stark erhöht, erhöht sich natürlich auch der Median. Außerdem ist das steuerlich erfasst Einkommen zu unvollkommen (Schwarzarbeit, Haushaltsproduktion). Die Quote misst also weniger die Armut als die Ungleichheit. Ab 2019 soll die Messung der Situation bei Superreichen verbessert werden. In Deutschland fehlt es an validen Informationen über die Reichenhaushalte. Bisherige Quellen waren die EVS, die Vermögensanalysen der Deutschen Bundesbank und das SOEP. Neue Projekt sind geplant: "Oversampling" der Deutschen Bundesbank, eigenes Umfrage - Panel über die Hochvermögenden. Vgl. Lösse, Bert: Blackbox Superreiche, in: Wirtschaftswoche 10, 1.3.2019, S. 40f. Healthiest Country Index: Rangliste, die vom US-Medienkonzern Bloomberg auf gestellt wird. Als Indikatoren gehen ein Ernährung, ärztliche Versorgung, Lebensart, Lebenserwartung u. a. ein. 2019 liegt Spanien an der Spitze. Der OECD Better Life Index ist ein interaktives Tool, mit dem User verschiedene Länder im Bezug auf elf Faktoren des Wohlergehens vergleichen können, darunter Umwelt, Gesundheit, Zufriedenheit.  Der Social Progress Index (Porter/ Stern) misst anhand von 54 Indikatoren, inwieweit Länder die Bedürfnisse ihrer Bürger erfüllen. Dazu gehören auch menschliche Grundbedürfnisse sowie Bedürfnisse im Zusammenhang mit Chancen.

Wohlstand in der EU: Gerechtigkeitsindex der Bertelsmann-Stiftung. Nach der Finanzkrise droht der EU eine soziale Spaltung: Die Bertelsmann-Stiftung hat einen EU-Gerechtigkeitsindex konstruiert: Danach hat sich das Gefälle zwischen den Staaten Nordeuropas und Südeuropas vergrößert. Deutschland liegt auf Platz sieben. Dänemark und die Niederlande an der Spitze. Auf dem letzten Platz liegt Griechenland.

Jahreswohlstandsbericht der Grünen in Deutschland: Er enthält folgende Kernindikatoren: Umwelt - Ökologischer Fußabdruck, Artenvielfalt und Landschaftsqualität; Soziales - Einkommensverteilung, Bildungsabschlüsse. 3. Wirtschaft - Nationaler Wohlfahrtsindex, Anteil von Umweltschutzgütern an den Industriewarenexporten. 4. Gesellschaft - Subjektive Lebenszufriedenheit, Governance-Index.

Nationaler Wohlfahrtsindex (NWI): Einst vom Umweltbundesamt gefördert, heute vom gewerkschaftsnahen Institut für Makroökonomie und Konjunkturforschung und er evangelischen Kirche. . Forscher sind Hans Diefenbacher, Roland Zieschank. Der Index wird seit 1991 berechnet. Der alternative Index berücksichtigt Einflüsse, die sonst vernachlässigt werden: Einkommensverteilung, Privater Konsum, Wert der Hausarbeit, Wert ehrenamtlicher Arbeit, Ausgaben für Gesundheit und Bildung, Kosten der Treibhausgas-Emissionen, Chancenverteilung, Kriminalität, Verkehrsunfälle. Vgl. Heuser, Uwe Jean/ Pletter, Roman: Maßloser Wohlstand, in: Die Zeit Nr. 34, 13. August 2020, S. 21ff.

Die Stiglitz - Kommission (mit Sen) hat 2009 Empfehlungen gemacht, wie Wohlstand und Lebensqualität besser zu ermitteln sind. Diese Vorschläge greifen Ende 2010 die Wirtschaftsweisen in Deutschland und Frankreich auf. Sie schlagen keine weichen Faktoren wie "Happiness", aber die Aufnahme von "Lebensqualität" und "Nachhaltigkeit" vor. Im Januar 2011 nimmt eine Bundestagskommission zur Wohlstandsmessung ihre Arbeit auf. Sie ist mit 17 Abgeordneten und 17 Wissenschaftlern besetzt. Sie heißt Enquete-Kommission "Wachstum, Wohlstand, Lebensqualität" (Chefin Daniela Kolbe, SPD). Neben Lebensqualität sollen auch Verteilungsfragen, Verschuldung, Bildung, Gesundheit, Freiheit und Umwelt eine Rolle spielen. Wertschöpfung soll genauer erfasst werden (Schwerpunkt technischer Fortschritt). Schäden durch soziale Ungleichheit sind sehr umstritten. Für den Bereich "Ökologie" gibt es drei Leitindikatoren: Treibhausgase, Artenvielfalt und Stickstoffbelastung. Zusätzlich werden zehn Warnindikatoren definiert. In der dritten Gruppe von Hermann Ott einigt man sich auf "Möglichkeiten und Grenzen der Entkopplung". Dann aber ist es mit der Einigkeit vorbei. Vor der Bundestagswahl 2013 ist die Kommission erst einmal gescheitert. Die Mehrheit der Regierungskoalition ist für ein Armaturenbrett ("dashboard"), dass verschiedene Indikatoren nach Bedarf hinzunimmt als Beilage und bei der politischen Steuerung helfen soll. Im April 2013 wird der Abschlussbericht vorgelegt. Im Mai wird er im Bundestag diskutiert. Resultat könnte ein jährlicher Wohlstandsbericht sein. England und Frankreich haben ähnliche Kommissionen. Die Diskussion ist in China und Indien auch sehr stark (Industrieländer als Vorreiter!). Vgl. www.destatis.de (Startseite, "Unseren Wohlstand messen künftig zehn Indikatoren"). Neuerdings gibt es auch Ansätze, die Bevölkerungsstimmung als Indikator für das Wirtschaftswachstum heranzuziehen (vgl. Bruttel, O.: Bevölkerungsstimmung als Indikator für Wirtschaftswachstum, in: Wirtschaftsdienst 2013/ 6, S. 390-395).   "Wohlstand beginnt dort, wo der Mensch anfängt, mit dem Bauch zu denken", Norman Mailer, US-Schriftsteller.

Welthunger-Index: Nach dem Welthunger-Index 2015 hungern weltweit 795 Menschen (oder leiden an Unterernährung; Quelle: Welthungerhilfe). Eine der Hauptursache sind die bewaffneten Konflikte Der Welthunger-Index erfasst die Situation in 117 Ländern.

Index für die Vorsorgesysteme der Nationen (Melbourne Mercer Pensionsfonds Index): Am besten schneiden Dänemark und die Niederlande ab. Deutschland liegt auf dem 13. Rang. In den Indikator fließen ein Armut im Alter, Fairness, Rücklagen u. a.

-Messung von Verschuldung: Schlüsselgrößen der Staatsverschuldung: 1. Schuldensumme. 2. Zins. 3. Wachstum. 4. Etatsaldo.

Die aktuelle Entwicklung der Schulden wird mit folgender Formel berechnet: Aktuelle Schuldenquote=(1 + Z)/1 + W) x Schuldenstand/Bruttoinlandsprodukt des Vorjahres - E. Legende: Z für Zins, W für Wachstum, E für Etatsaldo.

-Messung der Verteilung: International vergleicht man normalerweise den Gini-Koeffizienten. Der Wert eins definiert totale Ungleichheit. Bei null besteht völlige Gleichheit. Graphisch kann dies an der Lorenz-Kurve dargestellt werden. Deutschland liegt beim Einkommen bei 0,3 (gleicher als USA, Japan, China, Großbritannien). Die USA liegen bei 0,38, Japan bei 0,33 .Dänemark hat einen Wert von 0,25 (OECD). National werden Einkommens- und Vermögensverteilung betrachtet. 2008 hatte in Deutschland das reichste Zehntel der Bevölkerung 52,9% des Nettovermögens. 1,2% des Vermögens sind im Besitz der ärmeren Hälfte der Haushalte (Quelle: EVS 2008; 4. Armuts- und Reichtumsbericht; Der Spiegel 7/2013, S. 40). 2010 gegenüber 2000 hatte das unterste Zehntel  der Haushalte bezogen auf das verfügbare Einkommen einen Rückgang von -10,3% zu verzeichnen. Das oberste Zehntel einen Zuwachs im gleichen Zeitraum von 15,5% (Quelle: SOEP, DIW Berlin). Es gibt große statistische Defizite. Das Statistische Bundesamt kann über Vermögen über 2 Millionen Euro kaum Angaben machen. Völlig unzureichend sind die Informationen über die Verteilung des Produktivvermögens. Immer wieder umstritten ist auch die Armutsgrenze (klar ist, dass sie relativ ist). Hier sind die Statistiken bei Auswertung immer schon einige Jahre alt (5 Jahre). Der Gini-Koeffizient wird auch in Deutschland beim Netto-Vermögen errechnet. 2008 war der Wert 0,75.

-Messung der Wettbewerbsfähigkeit von Staaten (und Städten): 1. Global Competitiveness Index, World Economic Forum. Hierbei führen 2013 Schweiz, Singapur und Finnland. Deutschland rückt auf den 4. Platz vor. 2016 fällt Deutschland auf Platz 5 hinter die Niederlande zurück. 2017 kann Deutschland diesen fünften Platz halten. 2018 rückt Deutschland auf Platz drei vor (hinter USA und Singapur). 2. World Competitiveness Yearbook, IMD. 2014 fällt Deutschland von Platz 6 auf Platz 9 zurück. 3. Global Innovation Index, Insead. 4. Sustainable Goverance Indicator, Bertelsmann-Stiftung. 5. Index of Economic Freedom, Heritage Foundation. 6. Doing Business Index, Weltbank. 7. Corruption Perception Index, Transparency International. 8. Lohnstückkosten (VWL): Indikator für die preisliche Wettbewerbsfähigkeit. Sie errechnen sich aus dem Verhältnis der Arbeitskosten zum realen Bruttoinlandsprodukt. Steigt die Produktivität (reale BIP je Stunde) stärker als die Arbeitskosten je Stunde, sinken die Lohnstückkosten. In gewisser Hinsicht ist auch die Exportquote ein Indikator für die Wettbewerbsfähigkeit (2012: 41,5%). Die Weltbank arbeitet mit dem "Doing-Business-Index". Er misst die Qualität der Rahmenbedingungen für Unternehmen. Es gibt 36 Indikatoren (u. a. Steuersystem, Effizienz der Gerichte) . 2012 führt Singapur vor Hongkong und Neuseeland. In letzter Zeit rücken die Energiestückkosten als Indikator für Wettbewerbsfähigkeit immer mehr in den Mittelpunkt. Umstritten sind die Berechnungsmethoden.

Im weitesten Sinne zur Wettbewerbsfähigkeit gehört auch die Innovation. Es gibt einen weltweiten Innovationsindex (Cornell University). Hierin werden ausgewählte Indikatoren zusammengefasst. Darunter spielen eine Rolle: Die Patentanmeldung in Relation zum BIP; Zugang zu Krediten; Know-how der Beschäftigten; IT - Nutzung; Bildungssystem; Cluster; Attraktivität für Investoren; Flexibilität und Stabilität.  Deutschland liegt 2014 auf dem 12. Platz. An der Spitze steht die Schweiz.

Ebenfalls Innovationen misst der Acatech-BDI-Innovationsindikator. Die innovativsten Länder sind die Schweiz, Singapur, Finnland, Belgien und Deutschland. Beim Subindikator Wirtschaft führt die Schweiz vor Süd-Korea, den USA, Taiwan und Israel (Quelle: Acatech-BDI-Innovationsindikator 2015).

Der Digital Readiness Index von Karl-Heinz Land und der Wirtschaftswoche versucht die Digitalisierung der Wirtschaft zu messen.

Der Standortindex DIGITAL des Bundeswirtschaftsministeriums: Er besteht aus 48 Indikatoren. 1. Markt (17 Indikatoren). 2. Infrastruktur (17 Indikatoren). 3. Nutzung (14 Indikatoren). Vgl. Gerpott, T. J.: Standortindex DIDITAL: Nützlich zum Erkennen von Handlungserfordernissen im IKT-Sektor?, in: Wirtschaftsdienst 2016/1, S. 26ff.

Nation Brands Index: Er misst das ansehen der Nationen in den sechs Bereichen Regierung, Exporte, Tourismus, Investment & Immigration, Kultur sowie Menschen. 2016 lag Deutschland an erster Stelle. Es folgen die USA und Japan.

Wirtschaftswoche-Zukunftsindex und Niveauranking: Bewertet werden Städte in Deutschland. Bei der Zukunft liegt 2017 Darmstadt an erster Stelle vor münchen. Beim Niveau führt München vor Ingolstadt.

Risikoatlas: Bewertungskriterien sind Politische Stabilität, Gefahr von Streiks, Unruhen, Sabotage, Terror, (Bürger-) Krieg, Aufstände.  es werden Gefahrenstufen unterschieden. Es gibt fünf. Quelle: AON.

-Messung der Digitalisierung: Digitalisierung bei KMU: Die Deutsche Telekom erstellt einen Digitalisierungsindex. Der wird auch speziell für KMU gemacht: Digitalisierungsindex Mittelstand.  Der Gesamtindex aller KMUs liegt bei 100. Daran gemessen ergeben sich für einzelne Sparten folgende Werte 2020: Digitalisierung der Dienstleister 51, 05. Beziehung zum kunden 48, -7. Digitale Angebote und Geschäftsmodelle 39, -9. IT - Informationssicherheit, Datenschutz 68, 0.

Der Standortindex DIGITAL des Bundeswirtschaftsministeriums: Er besteht aus 48 Indikatoren. 1. Markt (17 Indikatoren). 2. Infrastruktur (17 Indikatoren). 3. Nutzung (14 Indikatoren). Vgl. Gerpott, T. J.: Standortindex DIDITAL: Nützlich zum Erkennen von Handlungserfordernissen im IKT-Sektor?, in: Wirtschaftsdienst 2016/1, S. 26ff.

Der Digital Readiness Index von Karl-Heinz Land und der Wirtschaftswoche versucht die Digitalisierung der Wirtschaft zu messen.

-Messung der Liberalisierung einer Wirtschaftsordnung: Die Fraser Institute haben eine Messmethode entwickelt. Der Grad der ökonomischen Freiheit wird anhand ausgewählter Kategorien gemessen (10 Punkte= höchste Freiheitsstufe). Wichtigste Indikatoren sind der Umfang der Staatstätigkeit, die Arbeitsmarktregulierung und die Unternehmensregulierung. 2013 führt Hongkong vor Singapur und Neuseeland. Deutschland liegt auf dem 19. Rang.

Die Bertelsmann Stiftung lässt den Bertelsmann Transformationsindex (BTI) berechnen. 250 Experten erheben und analysieren Daten in 129 Umbruchsländern. Der BTI gibt Auskunft über Erfolge und Rückschritte auf dem Weg zur sozialen Marktwirtschaft und zur Demokratie. Indikatoren sind Versammlungsfreiheit, freie und faire Wahlen, Meinungsfreiheit, Gewaltenteilung, Schutz der Bürgerrechte.  2016 ist der Anteil der Länder, in denen religiöse Dogmen die Politik beeinflussen, auf 33% gestiegen.

Rangliste der Pressefreiheit: Sie wird von den Reportern ohne Grenzen aufgestellt. Auf dem ersten Platz liegt Norwegen. Die skandinavischen Länder liegen vorne. China liegt auf Platz 177 und damit weit hinten. Deutschland liegt 2020 auf Rangplatz 11 und ist leicht aufgestiegen.

Steuerattraktivitätsindex: Bewertet Länder anhand von 20 Faktoren. Je höher der Wert, desto attraktiver ist ein Land für Firmen (Indexbereich zwischen 0 und 1). Quelle: LMU. 2018 liegen die Vereinigten Arabischen Emirate mit 0,93 auf dem 1. Platz vor Bahrain (0,92), Bahamas (Bermuda, Cayman) 0,90, Malta (0,71), Niederlande (0,61), Luxemburg (0,59).

-Messung der Nachhaltigkeit (Ökologie): Ranking Nachhaltigkeitsbericht von Unternehmen. Institut für ökologische Wirtschaftsforschung (IÖW) GmbH, Berlin und Future, Berlin. Nach einem Benchmark - Prinzip werden deutsche Unternehmen jährlich in eine Rangfolge gebracht.

Intergovernmental Panel on Climate Change (IPCC): Es wurde von der Umweltorganisation der UN (UNEP) und der Weltorganisation für Meteorologie (WMO) 1988 gegründet, um einerseits den wissenschaftlichen Kenntnisstand in der Klimaforschung zu dokumentieren und andererseits die Weltpolitik zu beraten (der 1. Bericht 1990 sprach noch von natürlichen Klimaschwankungen; der 2.Bericht 1995 war Grundlage des Kioto-Protokolls). 2007 erhielt er den Friedensnobelpreis. Der IPCC forscht nicht selbst, sondern trägt vorhandene Daten zusammen, analysiert sie und gibt Empfehlungen, über die verhandelt und abgestimmt wird. Aktueller Weltklima-Bericht am 02.02., 02.03., 03.05., 17.11. 2007, 2500 Wissenschaftler beteiligt; Präsident Rajendra Pachauri (soll in seinem Forschungsinstitut Teri/ New Delhi Mitarbeiterinnen sexuell belästigt haben); jetzt nur noch Ex-Präsident: der Mensch steht als Ursache des Klimawandels fest; in den nächsten 30 Jahren steigen die Temperaturen um 0,7 Grad, bis 2100 um 4,0 Grad. Mehr Wirbelstürme, stärkere Niederschläge und weiter schmelzende Eispanzer mit steigendem Meeresspiegel wären die Folgen. Bis 2020 soll die Welternte um 50% zurückgehen. Der Klimawandel sei eine so große Gefahr wie ein Weltkrieg. Ca 8 Jahre bleibt Zeit, gegenzusteuern (würde etwa -0,12 Prozentpunkte jährlich beim Wachstum bedeuten). Die Prognosen sind im Klimahaus Bremerhaven zu sehen. 2010 stellt sich heraus, dass schlampig gearbeitet wurde: die Gletscher im Himalaja werden nicht bis 2035 verschwunden sein. Deshalb richtet die UN 2010 einen Aufpasser ein. Im September 2013 wurde ein weiterer Bericht vorgelegt. Die Meeresspiegel drohen stärker zu steigen. Bis zum Jahr 2100 können sie - je nach Szenario - um 26 bis 82 cm ansteigen. Damit gibt es große Gefahren für die Küstenregionen "The American way of life is not up for negotiation", George W. Bush auf dem Umweltgipfel in Rio 1992.Die USA zweifeln auch den Weltklimabericht an.

Umweltökonomische Gesamtrechnung (UGR, StBA): Veränderung im Naturvermögen, die durch wirtschaftliche Tätigkeiten ausgelöst werden. Durchführung Statistisches Bundesamt (StBA) als selbständige Rechnung. Drei Schritte: Umweltzustand, Entstehung der Umweltbelastungsströme und Flächennutzungen, Umweltschutzmaßnahmen. Indikatoren zur Umweltbelastung, Indikatoren des Umweltzustandes, Indikatoren des Umweltschutzes. Nicht-monetäre und monetäre Daten, Veränderungen des Umwelt-Kapitalstocks. Die Volkswirtschaftlichen Gesamtrechnungen verzerren aber weiterhin: In Ländern, die wirtschaftlich stark abhängig sind von Bergbau, Erdöl, Holz und anderen Ressourcen, geht ein Großteil des Konsums auf Kosten künftiger Generationen; vgl. J. Stiglitz, Im freien Fall, München 2010, S. 445.

-Kennzahlen im (Extra-) Ausland: Der Case-Shiller Index zeigt die Entwicklung des US-Immobilienmarktes. Er enthält auch Teilindices für die Immobilienentwicklung der wichtigsten US-Wirtschaftsregionen und wird monatlich veröffentlicht. Federal Fund Rate: Ist der Zinssatz, der in den USA für Tageskredite innerhalb des Bankensystems gilt. Sie wird von der US-Notenbank gesteuert, indem sie dem Markt Liquidität entzieht oder zuführt. Die Federal Fund Rate gilt als der Leitzins der US-Geldpolitik. Der US Einkaufsmanagerindex wird vom Institute for Supply Management (ISM) in Arizona angefertigt. 400 Einkaufsmanager (aus 20 verschiedene Branchen)  werden befragt. Er deckt auch den Euro-Raum ab. Seit 1931 wird die Befragung mit Unterbrechungen durchgeführt (Zeitkosten ca. 10 Minuten). Der Index hat eine Gewichtung (kleineren Unternehmen sind wegen ihrer Häufigkeit übergewichtet). Im Mai 2015 steigt der Index an und könnte einen Aufschwung indizieren.  Mittlerweile wird auch ein Einkaufsmanagerindex in China erstellt. Mitte 2012 sinken die Einkaufsmanagerindizes in China und Europa. Das Institut IHS Market mit Hauptsitz in London berechnet auch regelmäßig einen Einkaufsmanagerindex. Er wird für Großbritannien, Deutschland, Japan, China und die USA errechnet. Der Consumer Sentiment Index der University of Michigan misst die Konsumneigung der Verbraucher in den USA. Der Baltic Dry Index (BDI) wird von Baltic Exchange in London (Seefrachtbörse) veröffentlicht. Dabei handelt es sich um ein weltweites Maß für die Verschiffung wichtiger Frachtgüter. Es geht vor allem um Zement, Eisenerz, Kohle. Der Index ist ein wichtiges Frühwarnsystem für den Zustand der Weltwirtschaft. Zwischen Mitte Juni und Mitte Juli 2015 steigt der Index um 36 Prozent. Dabei sind die Frachtraten der  Rohstoffe Eisenerz, Kohle und Getreide auf den 26 wichtigsten Seerouten der Welt ausschlaggebend. Der Anstieg geht vor allen auf die chinesische Nachfrage zurück. Nach dem auftreten des Corona-Virus in China ist der Index im freien Fall. Die OECD arbeitet mit dem OECD-Frühindikator. Prognos ermittelt jährlich aus 34 Einzelindikatoren (z. B. Lohnkosten, Bildungsstand, Höhe der Zölle) für 100 Länder der Welt den Freihandels- und Investitionsindex. Die Rangliste wird von der EU, Singapur, den USA und Hongkong angeführt. Der US-Dollar-Index misst den Außenwert des Greenback gegenüber einem Korb aus sechs Währungen. Er zeigt an, dass die Leitwährungsfunktion des Dollar verblasst. Die Statistikabteilung der FAO in Rom berechnet den FAO-Lebensmittelindex. Er misst die Preisentwicklung der wichtigsten Grundnahrungsmittel weltweit. Darunter ist auch der Mais als eines der wichtigsten Nahrungsmittel. Der Good Country Index misst, wie viel Gutes die Staaten für die Welt tun. Er wurde vom Briten Simon Anholt erfunden. 2014 liegt an erster Stelle Irland vor Finnland. Deutschland liegt auf Platz 13. Vgl. www.goodcountry.org . Gender Gap Index: Auf Anregung des Weltwirtschaftsforums in Davos seit 2006 erhoben. Er misst die Ungleichheit von Geschlechtern in Gesellschaften und Kulturen. Deutschland steht 2014 auf Platz 11. Kuwait ist als erstes arabisches Land auf 117. Syrien hat mit Platz 143 den drittletzten Platz. In arabischen Kulturen gibt es das Phänomen des "Taharrush gamea". Es handelt sich um gemeinschaftliche Belästigung von Frauen in der Öffentlichkeit. Es tritt in Kulturen auf, die ein Dreieck von religiösem Druck, Sex als Tabuthema und eine patriarchalische Gesellschaftsform haben. 2016 wird ein neuer Index entwickelt (Unsicherheitsindex), der misst, wie sich politische Unsicherheit auf die Wirtschaft niederschlägt. Vgl. Scott R. Baker/ Nicholas Bloom/ Steven j. Davis: Measering Economic Policy Uncertainty, November 2016.

Global Link Model: Es wird vom IHS Market Institut in  London (auch Filiale in Frankfurt)  errechnet. Mitbegründer des Instituts war Lawrence R. Klein, der 1980 den Nobelpreis erhielt. Das Modell besteht aus drei Bausteinen. 1. Data. 2. Countries and Dependencies. 3. E-Views/ Economic Simulation Engine. Es gibt drei Versionen: Standard, Enhanced und Premium. Ab 2017 wird folgendes prognostiziert: Europas Aufschwung geht weiter. Der Anteil der faulen Kredite bleibt aber zu hoch. Trumps Politik wird zu höherem Wachstum in den USA führen: 2017 2,3%, 2018 2,6%.

Internationale Verflechtungen werden unter anderem durch die Exportquote, die Importquote, den Offenheitsgrad und den Außenhandelsanteil gemessen. Ein neuer Früh-Indikator für den Welthandel ist der RWI/ISL-Containerumschlag-Index. Es sind die größten 20 Containerhäfen weltweit enthalten. Die weltweiten Frachtraten misst auch der Baltic-Dry-Index (HRI, Bloomberg, Oxford Economics). Zu Beginn von 2016 fallen die Werte rapide.

Grad der Globalisierung in der Welt: Weltwirtschaft und Welthandel (Entwicklung): Der Vergleich wird als Indikator der Globalisierung interpretiert. Zwischen 1990 und 2007 wächst der Welthandel stärker  als die Weltwirtschaft. Ab 2012 wächst die Weltwirtschaft stärker als der Welthandel. Die Globalisierung verliert an Tempo. Quelle: Der Spiegel, Nr. 19/ 2.5.2020, S. 73 (nach Daten der WTO, IWF, IW).

2015 hat das IW (Institut der deutschen Wirtschaft) einen Indikator konstruiert, der die weltweit verfügbaren Wirtschaftsdaten bündelt und vereinfacht - die "Konjunkturampel". Sie besteht aus drei Sektoren, die in Variablen aufgeteilt sind: 1. Produktion (Industrieproduktion, Auftragseingang, Einkaufmanagerindex). 2. Beschäftigung (Erwerbstätige, Arbeitslose, Arbeitslosenquote). 3. Nachfrage (Privater Konsum, Konsumentenverhalten, Investitionen, Exporte). Dafür wird u. a. in folgenden Räumen gemessen: Deutschland, Euro-Raum, USA, China. Als Ausprägungen der Konjunktur gibt es Verbesserung (grün), Keine relevante Veränderung (gelb), Verschlechterung (Rot).

Die weltweite Konjunktur lässt sich auch mithilfe des Kupferpreises erklären. Kupferpreis, US-Einkaufmanagerindex und Weltindustrieproduktion korrelieren hoch (so das RWI-Essen). Der Rohstoffradar misst die Volatilität ausgewählter Preise. Er stellt die durchschnittliche Abweichung vom Mittelwert der vergangenen zwölf Monate grafisch dar. Hohe Schwankungsbreiten indizieren steigende Preis- und Planungsrisiken (Quelle: dreimal jährlich in der Wirtschaftswoche).

Exporter Dynamics Database, Version 2.0: Ein System von Indikatoren. Seit Oktober 2015 die neueste Version für Deutschland. Exporteure, Dauerexporteure, Eintrittsrate, Austrittsrate, Überlebensrate. Vgl. Joachim Wagner: Dynamik der deutschen Warenexporte nach Zielländern und Gütergruppen, in: Wirtschaftsdienst 12/2015, S. 868ff. . 

Best Country Report: Durchgeführt von Wharton, U.S. News, WPP. 16.000 Menschen werden weltweit befragt. Erstmals präsentiert auf dem Weltwirtschaftsforum in Davos im Januar 2016. Kriterien sind Nachhaltigkeit, Transparenz, Menschenrechte, Einkommen, Gleichberechtigung, Im Jahre 2015 liegt Deutschland an der Spitze vor Kanada und Großbritannien.

Ranking der ökonomischen und politischen Stabilität (Sal. Oppenheim): 2016 führte Norwegen vor der Schweiz, Neuseeland, Taiwan und den Niederlanden. Die letzten Plätze belegten Italien, Brasilien und Griechenland.

Qualität eines Standortes für Direktinvestitionen: Studie jährlich seit 1998; von A.T. Kearney. Seit  Im Jahre 2017 erreicht Deutschland erstmals Platz zwei als Investitionsstandort  Platz eins belegen zum fünften Mal in Folge die USA.

Offenheitsgrad: Exporte plus Importe durch Bruttoinlandsprodukt. Es ist ein guter Indikator für die Einbindung in die Globalisierung.

FDI Restrictiveness Index der OECD: Er misst die Offenheit einer Volkswirtschaft. China liegt ganz hinten beim FDI Restrictiveness Index der OECD (Stand 2017; 0=offen, 1=geschlossen).  China hat einen Wert von 0,317. Ganz vorne liegen Deutschland (0,023) und Großbritannien (0,040). Dahinter Frankreich, Japan, USA, Russland, Indien, China.

Abhängigkeit vom Welthandel: Exporte in Prozent des BIP. Viele kleine Länder hängen extrem an der Globalisierung (kleine Länder, große Exporteure). Große Länder sind eher kleine Exporteure. Beispiele: Luxemburg 214%, Singapur 176%, Irland 124%, Niederlande 82%. USA 13%, Brasilien 13%, Japan 18%, Indien 20%.

Grubel-Lloyd-Handelsindex: Kennziffer zur Berechnung des intra-industriellen Handels eines Wirtschaftszweigs, einer Volkswirtschaft oder einer Ländergruppe. Intra=1 - (Ex -Im)/Ex+Im.

Skyscraper-Index: 1999 vom Immobilienanalyst Wasserstein entwickelt. These: Visionäre Wolkenkratzerprojekte kündigen Wirtschaftskrisen an.

Weltweite Image-Rangliste: Anholt-GfK Nation-Brands-Index. 2017 liegt Deutschland weltweit an der Spitze vor Frankreich. Der bisherige Spitzenreiter USA ist auf den sechsten Platz zurückgefallen.

Energiewende-Index ETI: Die Abkürzung bedeutet Energy Transition Index. Den Index hat McKinsey zusammen mit dem Weltwirtschaftsforum in Davos entwickelt. Es wird der Stand der Energiewende in 114 Ländern untersucht. Der Sachstand wird mit 17 Einzelindikatoren gemessen, die Ausgangsbedingungen werden mit 23 Indikatoren berechnet.

Korruptionsindex von Transparency International (TI). Es wird anhand einer 100-Punkte-Skala gemessen. 180 Länder werden untersucht. 124 Länder erreichen 2018 weniger als 50 Punkte (Durchschnitt 43). Am besten schneidet Dänemark 2018 ab (88 Punkte). Schlusslicht ist Somalia. Deutschland liegt auf Platz 11 mit 80 Punkten.

Klimaschutz-Ranking: Es wird von German Watch erstellt. Es ist international nicht anerkannt. Deutschland liegt auf Platz 23 von 57 Ländern (warum so wenig Länder?).

- Spezielle Indikatoren für China und Japan:  Der Tankan-Index in Japan (Tanki Keizai Kansoku: kurzfristige Wirtschaftsbeobachtung) wird von der Bank of Japan (BoJ) in Tokio herausgegeben. Er wird vierteljährlich herausgegeben. Er gleicht dem ifo-Index. Er ist einer der wichtigsten Frühindikatoren Asiens. Er misst die Stimmung von Großunternehmen der japanischen Wirtschaft (10.000 private Firmen, Rücklaufquote 99%; seit 1974). Er beeinflusst auch den Aktienindex, den Wechselkurs und die Geldpolitik. Auch Ursachenforschung wird betrieben. Er ist kostenlos, auch in Englisch, erhältlich: www.boj.or.jp./en/statistics/tk/index.htm .

Für China entwickelt wurde der Keqiang-Index. Er wurde nach dem jetzigen Premierminister Chinas Li Keqiang benannt, der in einem Gespräch mit US-Diplomaten die offizielle Statistik des Nationalen Statistikbüros als "menschengemacht und unzuverlässig" abtat. In den Index gehen die wirtschaftliche Aktivität anhand der Variablen Energieverbrauch (Strom), Kreditvergabe und Eisenbahnfrachttonnen (Frachtvolumen) ein.

Große Bedeutung hat mittlerweile der Einkaufsmanager-Index (PMI) für die Beurteilung der chinesischen Industrieaktivitäten. Das Wirtschaftsmagazin "Caixin" veröffentlicht ihn regelmäßig. Zu Beginn 2016 führt ein Rückgang von 48,6 auf 48,2 zu Aktieneinbrüchen in Shanghai. Auch der NBS Industrial Production ist ein wichtiger Einkaufsmanagerindex.   Im August 2020 nach der Corona-Krise zeigen sich die wichtigsten chinesischen Einkaufsmanagerindizes erholt (NBS Industrial Production, China Caixin Manufact. PMI; Quelle: National Bureau of Statistics of China).

Sehr starke Aufmerksamkeit richtet man in China auf die Entwicklung der Erzeugerpreise (Index der Erzeugerpreise). ein deutlicher Rückgang zeigt in der Regel Konjunktureinbrüche an.

China Satellite Manufactoring Index: Er überwacht die Industrieproduktion. Per Satellit werden 6000 Industrieregionen beobachtet (Start up Space now).

Shanghai-Freight-Index: Er wird von der US-Großbank J. P. Morgan berechnet. Er gilt als Indiz für Konjunktursignale aus China. Er spiegelt die Preise für Schiffstransporte. Ende 2019 steigt der Index steil an.

Indikatoren der Wirtschaft in China und Aussagekraft der Statistik (Relativierung): Auch in der Sozialistischen Marktwirtschaft in China ist das BIP der wichtigste Indikator. Experten zweifeln aber diese Zahl an. Es stehen 5,5% Revidierung nach unten im Raum. Folgende Indikatoren sprechen für eine Korrektur nach unten: Energieverbrauch, Wachstumsraten in den Provinzen geschönt, Rückgang der Importe, Dienstleistungssektor schlecht erfasst. Es fehlt auch die Transparenz wie das Statistikbüro genau den Wert des Bruttonationaleinkommens ermittelt. Einen großen Anteil haben Schätzungen. Einige Analysehäuser sehen das Wachstum jeweils um bis zu 5% niedriger. Eine völlig unterschätzte Rolle spielen die Lokalregierungen, die gezielt falsche Zahlen liefern. Das Statistikbüro will die Vorgaben der Regierung erfüllen. "Zombie-Fabriken" (nicht ausgelastet, falsche Zahlen) tragen auch dazu bei. Chinas Wirtschaft wächst seit 1978 ohne Unterbrechung. Der Durchschnitt liegt bei fast 10 Prozent. Erst ab 2018 kommt der Einbruch mit wesentlich geringeren Wachstumsraten. Aus meiner eigenen statistischen Erfahrung und dem engen Kontakt zu chinesischen Kollegen gehe ich davon aus, dass die Statistik relativ genau ist, allerdings unter Berücksichtigung der obigen Rahmenbedingungen. Vgl. Fernald, J./ Hsu, E./ Spiegel, M. M.: Is China Fudging its Figures? Evidence from Trading Partner Data, Federal Reserve Bank of San Francisco, Working Paper, Nr. 2015-12, 2015. Auch: Chen, Z./ Liu, C./ Liu, J.: The Financing of Local Government in China: Stimulus Loans Wane and Shadow Banking Waxes, VoxChina, 9.7.2017.

 

Zur Methode der (konventionellen) Volkswirtschaftslehre und einer neuen, innovativen Ökonomie insgesamt:

"Eine Einführung in die Volkswirtschaft für Praktiker im Betrieb kann keine Anleitung dafür sein, wie man ein Geschäft oder eine Bank führt, wie man sein Geld gut anlegt oder wie man an der Börse schnell reich wird", Paul A. Samuelson nach Puhani, J.: Volkswirtschaftslehre für Betriebswirte, München 2009, Vorwort.

"Das schöne an den Wirtschaftswissenschaften ist, dass sie nur eine Denkweise darstellen, ein Faktenwissen gibt es nicht", Victor Norman, Ökonom, Norwegen.

Aufgabe der Volkswirtschaftslehre (VWL) ist die Beschreibung, Erklärung, Prognose und wirtschaftspolitische Beratung bei ökonomischen Tatbeständen und Problemen. Die Tatbestände können systemunabhängig (Knappheit, Arbeitsteilung) und systemabhängig (Wirtschaftsordnung) sein. Die Volkswirtschaftslehre widmet sich der Lösung der Probleme Ineffizienz (Marktversagen, keine gute Allokation), Instabilität (Inflation, Konjunktur, Arbeitslosigkeit) und Ungleichheit (Einkommens- und Vermögensverteilung). Die VWL orientiert sich an den Zielen "Vollbeschäftigung, Preisstabilität, Wirtschaftswachstum, Außenwirtschaftliches Gleichgewicht, Soziale Gerechtigkeit und Nachhaltigkeit" (Magisches Sechseck). Zwischen diesen Zielen können Konflikte, Komplementarität und Neutralität bestehen. Mit Modellen wird mathematisch, geometrisch, logisch (spieltheoretisch) oder verbal nach Lösungen gesucht. Um darüber hinaus bestimmte Grundausagen möglichst deutlich zum Ausdruck zu bringen, wird oft auf die so genannte Ceteris-paribus-Klausel zurückgegriffen (man dreht an bestimmten Stellschrauben und lässt alle anderen unverändert). Im Vordergrund stehen die Einflussfaktoren ökonomischer Sachverhalte (Hypothesen, Operationalisierungen und Messungen dazu). Berücksichtigt werden Interdependenzen genauso wie Gleichgewichtslösungen. Statistisch werden meist Zusammenhänge und Kausalitäten metrischer Merkmale untersucht. So wird die Korrelationsanalyse nach Bravais - Pearson oder die Regressionsanalyse eingesetzt. Zeitliche Folgen dürfen nicht mit Kausalbeziehungen verwechselt werden. Wenn die Wirtschaftspolitik (Ordnungspolitik, Prozesspolitik) durchgeführt wird, kann es zu Zeitverzögerungen (Lags) kommen. Die Geldpolitik kann schneller wirken als die Fiskalpolitik (beide gehören zur Prozesspolitik). Mit beiden Politiken werden Rezessionen bekämpft. Vorher muss die VWL erkennen, was die Rezession ausgelöst hat (Makroökonomik). Strukturelle Randbedingungen (Wettbewerb) sind zu berücksichtigen. "Die Kunst des Wirtschaftens besteht darin, nicht nur die unmittelbaren, sondern auch die langfristigen Auswirkungen jeder Maßnahme zu sehen,; sie besteht ferner darin, die Folgen jedes Vorgehens nicht nur für eine, sondern für alle Gruppen zu bedenken", Henry Hazlitt: Die 24 wichtigsten Regeln der Wirtschaft, München 2014, S. 21 (original USA, 1946).

Die Methode ist eine Verbindung von Mathematik, ökonomischer Theorie und empirischen Methoden/ Statistik. Häufig geht es um Entscheidungen darüber, ob man eine bestimmte Aktivität ein bisschen ausdehnt oder ein wenig einschränkt (Marginalentscheidungen). Die Analyse solcher Entscheidungen führt die VWL mit der Marginalanalyse durch. Insofern muss nicht immer alles 100-prozentig erfolgen, was getan werden muss. Marginale Analysen werden in der VWL mathematisch mit Hilfe der Differentialrechnung umgesetzt. Sie wurde von Gottfried Wilhelm Leibnitz (1646-1716) entdeckt. Er veröffentlichte seine Ergebnisse und auch die bessere Methode vor I. Newton. Will man das Verhalten von Menschen ändern (z. B. im Umweltbereich), so muss man Vorteile aufzeigen, die Menschen realisieren können (Anreize). Dies muss genau erfolgen:  sinkende Steuersätze sind z. B. mit den Einstellungen der Menschen, insbesondere zur Arbeit, abzugleichen. Sehr wichtig ist die Einbindung von Informationen. Die Effizienz von Finanzmärkten wird z. B. nach den benutzten Informationen beurteilt. Asymmetrische Informationen spielen in der Wirtschaftspolitik, z. B. der Umweltpolitik, eine große Rolle. Informationsgüter werden zunehmend zum Forschungsgegenstand (Eigentumsrechte, Preisbildung). Umweltschutzprobleme sind häufig die Folge unzureichend konstruierter Eigentumsrechte. Deshalb muss die Reformation dieser Rechte genau verfolgt werden. Die Einschätzung der Rationalität hat sich grundlegend verändert. Durch experimentelle Forschung rückt man vom "homo oeconomicus" ab und kommt zu realistischeren verhaltenswissenschaftlichen Folgerungen. Der Kern ist aber gleich geblieben, indem es darum geht, wie Menschen Entscheidungen treffen und wie diese Entscheidungen zusammenwirken (vgl. Großmeister Keynes unten, der es besser ausdrücken kann). Dabei müssen auch kulturelle Faktoren berücksichtigt werden (aber bitte nicht Vorurteile). Die mathematischen und statistischen Grundlagen sind im Bachelor -Studium oft  zu wenig vorhanden bzw. bekommen zu wenig Raum neben den Kernfächern (kann durch E-Learning nicht ausgeglichen werden). Die Methode sollte dann auf die problemorientierten Bereiche "Arbeitslosigkeit", demographischer Wandel", Finanzkrise" bezogen werden. Die Studenten sollten mit ihrem Wissen kommunizieren und agieren können im Zusammenhang mit praktischen Problemen im Betrieb. "Wir wollen uns lediglich erinnern, dass menschliche Entscheidungen, welche die Zukunft beeinflussen...sich nicht auf strenge mathematische Erwartungen stützen können, weil die Grundlage für solche Berechnungen nicht besteht; und dass es unser angeborener Drang zur Tätigkeit ist, der die Räder in Bewegung setzt, wobei unser vernünftiges Ich nach bestem Können seine Wahl trifft...aber oft für seine Beweggründe zurückfallend auf Laune, Gefühl oder Zufall", John Maynard Keynes.

Für die Volkswirtschaftslehre bzw. Ökonomie gilt die wissenschaftliche Methode, die schon der griechische Philosoph Aristoteles entwickelte, als Grundlinie:  Das System besteht aus drei Säulen: 1. Ethos - Die These bzw. Methode muss glaubwürdig und authentisch sein. Sie muss eine aktuelle Situation verändern können. 2. Logos - Die logische Struktur der Argumentation und Methode muss stringent sein. 3. Pathos - Empathiefähigkeit muss immer dabei sein. Eine gut gewählte Metapher verstärkt alle drei Elemente. Bedingungen sollten geklärt werden. Hypothesen sind zu überprüfen. Immer sollte auch das berücksichtigt werden, was im Rahmen des Möglichen passieren könnte. So können Denkmuster aufgebrochen werden. Ob Big Data jemals diese Denkstruktur ersetzen kann, ist doch sehr zu bezweifeln. So verringert Big Data strategische Optionen und verhindert Innovationen. Auch die Methode vom griechischen Philosophen  Sokrates gilt bis heute und kommt als 4. Punkt dazu, nämlich wissenschaftliche Autoritäten nicht einfach zu akzeptieren, sondern sie kritisch zu prüfen. Kritikfähigkeit ist nicht nur in der Ökonomie eine der wichtigsten Eigenschaften. Folgleich hat sich bis heute gegenüber der griechischen Philosophie nicht so viel geändert.

Die Ökonomie erscheint nach außen oft etwas überheblich gegenüber der realen Wirtschaft. Das hat wissenschaftshistorische Gründe, weil die Ökonomie ihre Ursprünge in der Theologie und Philosophie hat. Erst im 20. Jahrhundert und erst recht jetzt im 21. Jahrhundert weicht man von ehernen Gesetzen und Scheinwelten ab und geht mehr auf die Realität zu. Märkte werden nicht mehr als Stereotype gesehen, sondern in ihren komplexen Wandlungsprozessen und ihrer realen Funktionsfähigkeit und Effizienz. Man wird auch immer mehr aufgeschlossen für neue Narrative und Visionen (Vgl. die weiteren Abschnitte nach unten). Vgl. Hirschman, D./ Berman, E.: Do Economics Make Policies? On the Political Effects of Economics, in: Socio-Economic Review 12/ 2014, S. 779-811.

Ökonomen versuchen heute von dieser vermeintlichen Arroganz abzurücken. Sie sehen ein, dass sie besser kommunizieren und erklären müssen, aus welchen Gründen sie zu ihren Schlussfolgerungen kommen. Sie sollten auch immer offen legen, welche politischen und moralischen Einschätzungen sie haben und dies explizit machen. Sie müssen sich als Teil der Wirtschaft sehen und können nicht außerhalb stehen (die führenden Wirtschaftsforschungsinstitute in Deutschland werden zum großen Tel von Bund und Ländern bezahlt). Hier gibt es noch viel Nachholbedarf, gerade in Deutschland. Man ruht sich zu sehr auf seinem vermeintlichen Status aus. Sie sollten auch ihre Fehler einräumen und Verantwortung für ihre Empfehlungen übernehmen. Vieles von dem eben Gesagten sollte Bestandteil der ökonomischen Ausbildung werden. Vgl. Aldred, Jonathan: Der Korrumpierte Mensch. Die ethischen Folgen wirtschaftlichen Denkens, Stuttgart 2020, S. 388ff. Auch: Rodrik, D.: Economics Rules, New York/ Norton 2016.

Die ökonomische Wissenschaft muss offen über ihre Grundprobleme im gesellschaftlichen Zusammenhang diskutieren. 1. Volatilität (die Fakten ändern sich ständig, die Realität ist enorm beweglich). 2. Unsicherheit (Menschen und ihr Verhalten wird nie ganz vorhersehbar sein, auch Big Data ist keine Lösung). 3. Komplexität (einfache Erklärungen gibt es nicht; Menschen scheinen sie zu brauchen und glauben dann an Verschwörungen). 4. Mehrdeutigkeit (Fakten sind immer verschieden interpretierbar; kein Wissenschaftler kann sich von seinem sozialen Umfeld lösen). Vgl. Marcel Fratzscher: Die Neue Aufklärung, Berlin/ München 2020, S. 197ff.

Das Narrativ "Erst Wirtschaft, dann Umwelt" ist in der Ökonomie nicht länger zu halten. Die ökonomischen Risiken der fossilen Wirtschaft wurden zu lange ausgeklammert oder falsch berechnet. Zukünftige Forschung (auch Grundlagenforschung) sollte mehr anwendungsorientierte Lösungen liefern (verständlich und umsetzbar). Vgl. Kemfert, Claudia: Wirtschaft und Wirtschaftswissenschaften stehen am Wendepunkt, in: bdvb aktuell, Nr. 150, 2020, S. 10ff.

Die großen Krisen der Wirtschaft (2009 und 2020) haben auch Krisen der Ökonomie ausgelöst. Sicher muss mehr Nachhaltigkeit, mehr Pluralität, mehr Reflexivität berücksichtigt werden. Die ökologischen und sozialen Grundlagen der Wirtschaft und die demokratischen Gestaltungsspielräume sollten mehr Gewicht bekommen.

"Es ist noch viel zu tun, bis wir die Fragen der Fiskalpolitik beantworten können", US-Ökonomen auf dem Jahrestreffen mit der FED in Jackson Hole 2009.

Das Handelsblatt führt regelmäßig ein Ranking durch über die forschungsstärksten VWL - Fakultäten im deutschsprachigen Raum.  Es werden die Top 20 ermittelt. Im Jahre 2017 liegt die Uni Zürich an der Spitze vor Mannheim und der ETH Zürich.

Vgl. auch folgende Homepages: Netzwerk "Plurale Ökonomie e. V."

und  Was ist Ökonomie? (Berliner Studenteninitiative) .

Als einflussreiches Netzwerk: Mont Pelerin Society, Schweiz (1947 von Friedrich August von Hayek gegründet; Vereinigung von Akademikern, insbesondere Ökonomen; neoliberal ausgerichtet; berühmte Mitglieder waren: Gary Becker, James Buchanan, Ronald Coase, Milton Friedman, George Stigler. die Gesellschaft hat großen Einfluss auf Regierungen und deren Wirtschaftspolitik).

Auch: Netzwerk "Econ4Future". "Change by Design, not by Desaster"

Ebenso: Netzwerk "Ökonomenstimme".

 

Wissenschaftstheoretische Grundlagen der Volkswirtschaftslehre und Ökonomie insgesamt:

"Die Nationalökonomie entstand als eine natürliche Folge der Ausdehnung des Handels, und mit ihr trat an die Stelle des einfachen, unwissenschaftlichen Schacherns ein ausgebildetes System des erlaubten Betrugs, eine komplette Bereicherungswissenschaft", Friedrich Engels, MEW 1, S. 499 (Marx-Engels-Werke, Berlin, Dietz-Verlag, 1956 - 1990, 43 Bände).

"Die ganze Wissenschaft ist nichts anderes als eine Verfeinerung des Alltagsdenkens", Albert Einstein. Einstein wird auch das Bonmot nachgesagt, er sei Physiker geworden, weil ihm die Sozialwissenschaften als zu schwierig erschienen.

Das Vorgehen in der VWL ist oft deduktiv, d. h. der Schluss erfolgt vom Allgemeinen auf das Einzelne (es gibt auch induktive Methoden). Meist stammt das Wissen über existierende Dinge aber aus der Erfahrung (Empirismus). Dabei kann sich die Eigenschaft einer Aussage bei empirischer Überprüfung als falsch erweisen (Falsifizierbarkeit; nach Popper unterscheidet sich hier die Wissenschaft von der Nichtwissenschaft). Wird ein Theorem versuchsweise als wahr angenommen, spricht man von einer Hypothese. Axiome (nicht zu beweisende Annahmen) sollten vermieden werden (Gegenposition von M. Friedman). Häufig wird abstrahiert mit Modellen (vereinfachtes Bild einer sehr komplexen Realität, Komplexitätsreduktion), wobei mit Aggregation, Isolierung ("Ceteris paribus-Klausel") und  Mechanisierung (Verhaltensannahmen, "homo oeconomicus") gearbeitet wird. Dies sollte nicht zu Modellplatonismus (H. Albert) führen. Methodologischer Individualismus, rationales Verhalten und Knappheit sind zentrale Ausgangspunkte. Nach der Krise rücken "animal spirits" in den Vordergrund, die mehr psychologische Realitäten im Menschenbild berücksichtigen. Das Denken in Gleichgewichten (komparative Statik) verkürzt oft die Möglichkeiten. Eine ökonomische Situation ist im Gleichgewicht, wenn Menschen durch andere Handlungen nicht besser gestellt werden können. Zeitlich sind sowohl ex-post als auch ex-ante Betrachtungen (z. B. Prognosen) legitim. Die VWL geht nicht von einem Absoluten aus, d. h. sie kennt keine Wirklichkeit in höchster Vollkommenheit. Aber sie arbeitet mit Idealzuständen (z. B. vollständiger Wettbewerb). Kern ist die Analyse, bei der eine Sache verstanden werden soll, indem man sie zerlegt. Kausalitätszusammenhänge dominieren, Alternativen müssen geprüft werden (z. B. Chaostheorie für Finanzmärkte). Die VWL hat ihr eigenes Begriffssystem, in dem die Worte bestimmte Bedeutungen haben. Dialektik (These, Antithese, Synthese) und Dualismus (z. B. Kern- und Randbelegschaft) sind häufige Denkschemata. "Nimm es als Vergnügen, und es ist Vergnügen! Nimm es als Qual, und es ist Qual" aus Indien.

Ökonomen sollen die wirtschaftliche Zukunft voraussagen. Das wird von ihnen erwartet, ist aber eines der größten wissenschaftlichen Probleme überhaupt. In Prognosen sind die Wirtschaftswissenschaften immer recht ungenau ("dismal science", im angelsächsischen Bereich gegenüber den exakten Naturwissenschaften). Das liegt daran, dass in wirtschaftlichen Zusammenhängen Menschen im Mittelpunkt stehen. Menschliches Verhalten ist nur bedingt vorhersehbar (Menschen ändern ihr Verhalten des öfteren). Häufig unterliegen Wissenschaftler auch der Versuchung, aufgrund der Vergangenheit die Zukunft vorauszusagen. Meist macht die Ökonomie nur "wenn - dann - Aussagen". Man spricht auch von Szenarien.

Ohne Ethik (die philosophische Reflexion über die Frage, welches Leben wir führen sollen) kommt die VWL nicht aus. Es geht immer auch um Gerechtigkeit, so dass jeder seinen fairen Anteil erhält. Wir dürfen nicht Alles nur vom Ökonomischen her denken. Dies darf aber nicht zum Überwiegen der Werturteile führen in der Wissenschaft. Effizienz knüpft in der VWL an Gerechtigkeit an, wenn alle Möglichkeiten genutzt werden, Menschen besser zustellen, ohne das andere schlechter gestellt werden (Pareto - Optimum). Für ethische Fragen hat die VWL aber noch keine gute Sensorik. Geldgeber und Topjournals versuchen diese aber zunehmend einzufordern (Minimal-Norm: Nicht lügen). Gerade in der Finanzkrise zeigte sich, dass viele Wirtschaftswissenschaftler eigene finanzielle Interessen verheimlicht hatten. Deshalb fordern immer mehr wissenschaftliche Gremien und auch Zeitschriften, Interessenkonflikte offen zulegen. "Denn man weiß wohl, dass ein rohes Volk nicht zuerst von Verbesserung der Sitten auf nützliche Gewerbe, sondern umgekehrt, von diesen auf jene kommt", Johann Jacob Meyen, deutscher Ökonom, 1769.

Meinungsverschiedenheiten zwischen Ökonomen entstehen häufig durch durch die Frage nach den Vereinfachungen und über die Werturteile. Letzteres kann in einer normativen Wirtschaftswissenschaft münden. In der Wirtschaftspolitik, einem Teilgebiet der Volkswirtschaftslehre, ist es besonders wichtig, zwischen parteipolitischen Positionen und wissenschaftlicher Analyse zu unterscheiden. Auch in der Finanzwissenschaft, einem weiteren Teilgebiet der VWL, darf durch die Nähe zur Politik die wissenschaftliche Distanz nicht verloren gehen. In der positiven Wirtschaftswissenschaft wird das Funktionieren der Wirtschaft analysiert. Trotzdem kann es auch hier zu Irrtümern kommen: die unbeabsichtigten Folgen von Politik sind einzurechnen, Löhne sind auf Arbeitsproduktivität und Stücke zu beziehen. Verallgemeinerungen sollten ganz vorsichtig verwendet werden (z. B. Überbevölkerungsproblem in der Welt, Protektionismus bei ausländischer Konkurrenz). Es muss immer die Bereitschaft vorhanden sein, aus Irrtümern zu lernen (Markt als begrenzter Lösungsweg; zu starke Deregulierung auf den Finanzmärkten). ...der geneigte Leser möge sich entscheiden, ob er einfache oder nützliche Antworten auf seine Fragen wünscht - beides ist hier ebenso wie in anderen wirtschaftlichen Fragen nicht möglich", Joseph A. Schumpeter, 1932.

Im Zuge der Finanzkrise hat die Volkswirtschaftslehre an Ansehen weltweit verloren. Sie muss sich dringend reformieren. Sie muss ihre Frühwarn- und Prognosefähigkeit erhöhen, neue Theorien entwickeln (Ideen wichtiger als Mathematik) und das Verhältnis zur Politik verbessern. Die Realität ist mit Modell-Mathematik oft schön gerechnet worden oder man hat mit hohen Anleihen aus der Soziologie und Psychologie ("Alltagspsychologie") sich mit fremden Federn geschmückt. Die Mikroökonomik liefert daraus wichtige Erkenntnisse, aber damit lassen sich keine makroökonomischen Prinzipien ableiten. Makroökonomische Theorien können genauso wenig aus der Mikroökonomik aggregiert werden. Es ist aber auch ein Wandel in der Motivation im Wissenschaftsbetrieb festzustellen. Karrieredenken rückt immer mehr in den Vordergrund vor der Freude an wissenschaftlicher Arbeit und der intellektuellen Auseinandersetzung. Die Medien beschleunigen diese Entwicklung, in dem sie Volkswirte nach ihren Karriere-Positionen und nicht nach ihren Forschungsergebnissen konsultieren.  "Kein Gedanke ist so alt oder absurd, daß er nicht unser Wissen verbessern könnte. Anything goes...", Paul Feyerabend: Wider den Methodenzwang, Frankfurt 1986, S. 55.

Selbst folge ich seit über 45 Jahren einer Forschungsrichtung, die sich als Behavioural Economics bezeichnet. Im Deutschen bezeichnet man dies als verhaltenswissenschaftliche Ökonomie. Sie beschäftigt sich mit der Frage, wie rational Menschen wirklich handeln und welche ökonomischen Folgen daraus erwachsen. Dabei bedient sie sich der Erkenntnisse der Psychologie und Soziologie. In Deutschland wurde diese Richtung maßgeblich von Günter Schmölders an der Uni Köln in die Volkswirtschaftslehre eingeführt. Vgl. hierzu auch meine ausführlichere Darstellung bei Research. Zunächst werden über den Untersuchungsgegenstand Hypothesen entwickelt (Werturteile nicht, Selektionsproblem). Dies geschieht mit induktiven und deduktiven Schlussfolgerungen (siehe oben). Dann kommt die empirische Überprüfung, die die vorläufige Bewährung ergibt (keine Wahrheiten!) oder zur Falsifizierung führt. "Der Rationalist ist einfach ein Mensch, dem mehr daran liegt, zu lernen als recht zu behalten", Karl Popper. In dieser Forschungsrichtung verschwimmen die Grenzen zwischen Volks- und Betriebswirtschaftslehre wie im angelsächsischen "Economics". Man spricht auch von Managerial bzw. Entrepreneurial Economics. Unabhängig von dieser ökonomischen Richtung werden die Einzeldisziplinen sowieso an Bedeutung verlieren,  so dass in Zukunft die Unterscheidung von VWL und BWL keine Rolle mehr spielen wird. So kann die Ökonomie Stereotype aufgeben und sich auf die Gestaltung der Wirtschaft ausrichten. "Grau, teurer Freund, ist alle Theorie, und grün des Lebens goldner Baum", Goethe in Faust.

"Ich bin. Aber ich habe mich nicht. Darum werden wir erst", Ernst Bloch (1885-1977, geboren in Ludwigshafen).

 

Betriebswirtschaftslehre als Wissenschaft (wissenschaftstheoretische und -soziologische Betrachtung):

"Schlage mich, beschimpfe mich -

ich komme trotzdem.

Doch wenn du mich übers Ohr hauen willst,

komme ich nicht", aus China (Quelle: O. V. , Reiskörner fallen nicht vom Himmel, Leipzig/ Weimar 1990, S. 82)

Die strikte Trennung von Betriebswirtschaftslehre und Volkswirtschaftslehre ist eine Besonderheit im deutschsprachigen Raum. Im angelsächsischen Kulturraum spricht man von Economics und meint erstmal beides. Business Economics wendet die Theoreme und Methoden dann auf Unternehmen an. Business Administration ist die reine  Verwaltung bzw. das Management von Unternehmen in der Praxis. Man geht aber von einer gemeinsamen Grundlage aus. Im deutschsprachigen Raum wurde die gemeinsame Grundlage einst in der Mikroökonomik deutlich: Wenn man in das Standardlehrbuch der BWL von Wöhe reinguckt, erkennt man die Gemeinsamkeiten leicht, vor allem in der Produktionstheorie. Die Mikroökonomik hat aber heute in vielen Bereichen den wissenschaftlichen Anschluss verpasst, trotz neuerer Entwicklungen wie Industrieökonomik oder Markttheorie (Auktionen).

Durch die letzten Krisen der Weltwirtschaft (Finanzkrise, Klimakrise, Produktionskrise, Corona-Krise) ist eine paradoxe Situation entstanden: Die Volkswirtschaftslehre verliert an Boden in der Wissenschaft und an den Hochschulen, weil sie erklärungsleer geworden ist. Die BWL kann die Lücke nicht schließen. Die Betriebe brauchen aber dringend Studenten, die mehr über die Weltwirtschaft, die Umwelt, die Digitalisierung und die globalen Zusammenhänge wissen. Das übertriebene Effizienzdenken auf  Kosten der Resilienz und Nachhaltigkeit gerät in die Kritik.

2016 findet wieder eine intensivere Diskussion über den Inhalt und das Konzept der Allgemeinen Betriebswirtschaftslehre (ABWL) statt. Vgl. Köhler, Richard: Allgemeine Betriebswirtschaftslehre - ein tragfähiges Konzept? , in: DBW 6/16, S. 131ff. In der gleichen Ausgabe: Backhaus, Klaus/ Carlsen, C: Das Allgemeine in der Allgemeinen Betriebswirtschaftslehre, S. 424ff. Meine Inhalte auf der Seite "Economics/basic" stellen eine Mischung von Mittelstandsökonomik und ABWL dar und sind stark subjektiv geprägt von eigenen Erfahrungen. Das Hauptbetätigungsfeld von Betriebswirten sind nicht börsennotierte Konzerne, sondern Familienunternehmen, KMU und Start-ups. BWL und VWL werden und müssen in Zukunft noch stärker zusammenwachsen und auf Problem lösen ausgerichtet werden. Auf die Folgen von Digitalisierung muss stärker eingegangen werden, ebenso mehr auf den Klimawandel und den Machtkampf zwischen den USA und China (Globalisierung). All das versuche ich, auf der Seite "Economics/basic"  umzusetzen und das erklärt die starken Abweichungen von Standardlehrbüchern (die größtenteils veraltet sind bzw. das Lehrbuch hat als Medium ausgedient). Vgl. auch Jörg Rocholl, Aus zwei mach eins, in: Wirtschaftswoche 27/ 30.6.2017, S. 42. Die BWL sollte also mehr über den Tellerrand schauen: Auch medizinisches Wissen sollte mehr integriert werden, ebenso wie mehr Energiewissen. Hinzu kommt eine Beschäftigung mit Ethik, Informationswesen, Wertschöpfungsprozesse. Dies zeigt die Corona-Krise 2020. Die praxistaugliche Theorie des Unternehmens sollte weiter entwickelt werden.  Vgl. Friedl, Gunther (Dekan der TUM, München) und Hutszenreuther (TU München), Schaut über den Zaun, in: die Zeit Nr. 28, 2. Juli 2020, S. 35.

Die klassische BWL scheint auch in einer Sinnkrise zu sein. Sie ist zu wenig praxistauglich, vor allem im Hinblick auf Gründen und Digitales. IT - Kenntnisse müssen sehr verstärkt vermittelt werden. Routineaufgaben wie Controlling, Teile der Personalwirtschaft und des Marketings werden zukünftig von Maschinen übernommen werden. Folge könnte ein BWL - Prekariat sein. Auch dem versuche ich mit der innovativen Konzeption Rechnung zu tragen. Vgl. Guldner/ Losse/ Scmidt: Bedingt praxistauglich, in: Wirtschaftswoche 43/ 13.10.17, S. 18ff. Ganz negativ zur BWL vgl. Axel Gloger: Betriebswirtschaftsleere, 2016.

Die WiWo bringt im Januar 2019 eine Liste der forschungsstärksten Betriebswirtschaftsprofessoren im deutschsprachigen Raum: Es führen Helmut Krcmar, TU München und Nils Boysen, Uni Jena vor Martin Bichler, TU München. Vgl. WiWo 4 18.1.2019, S. 40. Grundlage waren die 860 Fachzeitschriften. Ich selbst habe in allen renommierten deutschsprachigen BWL-Zeitschriften publiziert (Vgl. Publikationsliste).

Die BWL in Deutschland müsste folglich dringend erneuert werden: 1. Das Bild des Betriebswirts in der Gesellschaft muss aufpoliert werden. Er gilt oft als skrupelloser Profit - Maximierer. 2. Die Struktur an Hochschulen mit Lehrstühlen ist hoffnungslos veraltert. 3. Das föderale deutsche Bildungssystem gleicht einem Flickenteppich. Es führt nicht mehr zu mehr Wettbewerb, sondern zur Ausbildung von Betriebswirten als Fachidioten, die nicht mehr "über den Tellerrand hinausschauen können". Im Wettbewerb mit den USA, Japan und China werden andere Ökonomen gebraucht. Vgl. Siegers, R.: Die BWL erneuern, in: HBM Juni 2019, S. 48ff. 4. An den deutschen Hochschulen wird in der BWL zu viel auswendig gelernt, wobei das eigenständige Nachdenken auf der Strecke bleibt.

Die Betriebswirtschaftslehre sollte systematisch ihr mangelndes Werteverständnis angehen. Es herrscht eher Verwirrung darüber, was Werte eigentlich sind. Die Ursachen liegen auch hier in falschen Studienordnungen, die keine philosophischen Grundlagen mehr enthalten. Dazu haben die angewandten Hochschulen (Fachhochschulen) einen großen Beitrag geleistet. Ein Werteversprechen ist Grundlage jeden Geschäftsmodells. So muss auch die BWL sagen, was eigentlich ihr Wert ist und welche Werte sie vermitteln will. Sie kann nicht einfach nur Pragmatismus betreiben mit Werten wie Geld und Effizienz  und sehen, ob ihre Absolventen einen Job bekommen. Hinter den rein ökonomischen Kriterien müssen Werte erkennbar sein wie z. B. Gemeinschaft, Nachhaltigkeit, Zufriedenheit. Apple zum Beispiel ist heute eines der wertvollsten Unternehmen der Welt (vom Börsen- also Marktwert her). Der Gründer Steve Jobs folgte drei Werten: Schönheit, Perfektion und Einfachheit. Er war inspiriert von der Kalligrafie, der japanischen Kultur und wollte etwas besonders machen. Diese Werte gingen direkt in die technische Entwicklung ein. Vgl. Spiekermann, Sarah: Digitale Ethik. ein Wertesystem für das 21. Jahrhundert, München (Droemer) 2019.

Die Leistungs- und Erfolgsmessung in der BWL sowie in der ganzen Wirtschaftswissenschaft ist nicht unproblematisch. Man setzt zu sehr auf bestimmte Fachzeitschriften. "Wissenschaftler werden heute an der Zahl ihrer Publikationen in fünf US-Fachzeitschriften gemessen - und nicht daran, was sie mit ihren Arbeiten erreicht haben. Das gilt nicht nur in den USA, sondern auch in Asien und Europa", James Heckman, Ökonomie-Nobelpreisträger.

Die betriebswirtschaftliche Denkweise wird immer wieder mit dem ökonomischen Prinzip verbunden. Maximum - Prinzip: Bei gegebenem Mitteleinsatz soll ein maximales Ergebnis erzielt werden. Minimum - Prinzip: Mit minimalem Mitteleinsatz soll ein bestimmtes Ergebnis erzielt werden.. Optimum - Prinzip: Es soll ein möglichst günstiges Verhältnis zwischen Mitteleinsatz und Ergebnis realisiert werden. Weiterhin ist eine betriebswirtschaftliche Denkweise dadurch gekennzeichnet, das bei allen Entscheidungen Kosten-Nutzen-Abgleiche eine wichtige Rolle spielen.

Produktionsfaktoren sind eine zentrale Grundlage der BWL (Gutenberg gliederte danach): Inputs in den Produktionsprozess. Mindestens sind Arbeit, Kapital und Boden (Rohstoffe, Umwelt) zu nennen. Manchmal wird noch das Humankapital (zwischen Arbeit und Kapital) und der dispositive Faktor (Management) erwähnt.  In der Economics in China wird der Produktionsfaktor "Boden" aufgeteilt in Material Force (Bodenschätze), Freight Force (Infrastruktur), Natural Force (Natur), Time Force (Zeit). Eine solche Präzisierung würde auch der BWL bei uns gut tun. Daneben stehen normal Labor Force und Capital Force. Durch Künstliche Intelligenz entsteht eine neue Produktionsfunktion. Der Output als abhängige Variable ist eine Funktion der unabhängigen Variablen Daten, Kapital, Arbeit. KI macht Daten zum dritten Produktionsfaktor. Die Daten sind rückgekoppelt mit Kapital und Arbeit. Der Output hat eine Interdependenz mit Daten, Arbeit und Kapital. KI kombiniert Kapital und Arbeit, KI definiert das Verhältnis zwischen Kapital und Arbeit neu. Die industrielle Ordnung (vertikale Wertschöpfungsketten) wird durch die digitale Ordnung ersetzt (hybride Unternehmen mit Kollaboration und Integration). Vgl. Vöpel, Henning: Wie künstliche Intelligenz die Ordnung der Wirtschaft revolutioniert, in: Wirtschaftsdienst 2018/11, S. 828ff.

"Es ist nicht genug, zu wissen, man muss auch anwenden; es ist nicht genug zu wollen, man muss auch tun", Johann Wolfgang von Goethe.

 

Wirtschaftsgeschichte und Geschichte der Ökonomie sowie Zusammenhang:

"Nichts macht konservativ-reaktionärer als entweder nur die Vergangenheit oder nur die Gegenwart zu kennen", das Zitat wird J. M. Keynes zugeschrieben, Quelle nicht bekannt. Ähnlich ein Zitat von ihm aus dem Jahre 1935: "Die Schwierigkeit liegt nicht in den neuen Ideen, sondern darin, den alten zu entkommen".

"Wer die Vergangenheit nicht ehrt, verliert die Zukunft. Wer seine Wurzeln vernichtet, kann nicht wachsen", Friedensreich Hundertwasser (Quelle: Plakat im Hundertwasser-Museum, Wien; der ehemalige israelische Ministerpräsident Perez soll das auch gesagt haben; das "Urheberrecht" ist also unklar).

"Was Erfahrung aber und die Geschichte lehren, ist dieses, dass Völker und Regierungen niemals etwas aus der Geschichte gelernt und nach Lehren, die daraus zu ziehen gewesen wären, gehandelt haben", Georg Wilhelm Friedrich Hegel (1770-1831), deutscher Philosoph, der mit seiner Dialektik stark auch Karl Marx beeinflusst hat. Diese pessimistische Einschätzung bezog sich auf die ganze bis dato bekannte Weltgeschichte. Wahrscheinlich gilt sie auch heute noch. Hegel liegt in Berlin Mitte auf dem Dorotheenstädtischen Friedhof begraben (dort ruht ebenso B. Brecht, der direkt daneben auch gewohnt hat).

Staatliche Seidenmanufaktur Nr. 1 in Suzhou, China ("Venedig Chinas", Ende des Kaiserkanals). Diese Stadt im Südosten Chinas gilt als Geburtsort der chinesischen Seidenkultur. Seide war viele Jahrhunderte eines der wichtigsten Exportgüter des Landes auf der Seidenstraße, der Verbindung nach Europa. Die Herstellung der Seide war geheim, bis das Verfahren später von Japanern geklaut wurde (einer der berühmtesten Fälle von Industriespionage; im 8. Jahrhundert wurde das Monopol von Japan gebrochen). Anfang des 6. Jahrhunderts wollte Mönche aus Europa schon das Geheimnis erkunden. In Frankreich (Ludwig IX.) bestand eine große Nachfrage nach Seide. Seide wurde in der Regel mit Gold aufgewogen.  Später wurden in Frankreich viele Maulbeerbäume für die Seifenzucht angepflanzt. In Deutschland erst seit Friedrich dem Großen. Synthetische Farben für Seide waren eine der Ursprünge der chemischen Industrie. Unternehmen wurden gegründet, um sie herzustellen, so die BASF. Suzhou war Ausgangspunkt des Kaiserkanals, auf dem die Seide in der ersten Etappe gut transportiert werden konnte.

Die Geschichte der Menschheit beginnt etwa vor 300.000 Jahren in Afrika, weil dort die ersten Exemplare des homo sapiens gefunden wurden. Vorher, vor 65 Millionen Jahren, gab es schon affenartige Tiere - auch in Afrika; vor 2,5 Millionen Jahren begann sie, Werkzeuge zu benutzen.  Es vergingen dann ungeheuer viele Jahre bis sich etwas Grundlegendes änderte: Der Mensch wurde sesshaft (Ackerbau, Viehzucht). Vgl. Frie, Ewald: Die Geschichte der Welt, München 2020, S. 47ff.

Vor etwa 70.000 Jahren verlässt Homo sapiens Afrika und breitet sich rasch aus. Wahrscheinlich beginnt Ökonomie als analytische Sichtweise mit der Sesshaftigkeit der Menschen. Das war zuerst in Mesopotamien (vor 12.000 Jahren; Klima beruhigte sich; Pleistozein ging zu Ende). Zwischen Euphrat und Tigris ist eines der Ursprungsgebiete menschlicher Kultur. Die Türkei baute Jahre in Südostanatolien den Ilisu-Staudamm für ein Wasserkraftwerk, der die Fluten des Tigris staut. 200 Siedlungen mussten dafür geräumt werden und uralte Städte gingen verloren, so etwa Hasankeyf. Damit entstanden Arbeit und Arbeitsteilung sowie Tausch. Das sind die Kernphänomene jeder Ökonomie. Die Sumerer brauchten für die Buchführung und Registrierung der landwirtschaftlichen Produkte  eine Schrift. Sie entstand aus einer  Notwendigkeit. Etwas später bildeten sich die Jiahu -Schrift am Gelben Fluss in China und die ägyptischen Hieroglyphen   Der Berliner Archäologe Friedrich von Delitzsch entdeckte bei seinen Ausgrabungen in Mesopotamien (babylonische Funde, Babel) Schrifttafeln, auf die denen die Paradiesgeschichte der Bibel ("Garten Eden", Genesisgeschichte) 800 Jahre vor der Bibel auftauchte. Die Paradiesidee ist in Bibel, Thora und Koran enthalten. Sie wurde wohl abgeschrieben und verfremdet. In der Bibel findet sich eine negativere Darstellung der Rolle der Frau: Sie ist Sünderin und Verführerin. Das dürfte das Frauenbild in den Religionen nachhaltig beeinflusst haben. Als Delitzsch seine Entdeckung publik machen wollte, wurde er von Kaiser Wilhelm II. auf Druck der Kirche zurückgepfiffen. Delitzsch hatte die Vermutung, dass die Paradiesfabel die Zeit verklärt, als die Menschen noch nicht sesshaft waren (Jäger und Sammler). In der Bronzezeit entstand auch in Europa eine Kultur der Sesshaftigkeit. Es gibt große Ähnlichkeit mit unserer heutigen Kultur (Hygiene, Essen, Handwerk). Sehr viel über diese Zeit zeigen die Ausgrabungen von Egtved in Dänemark. In der Fundstelle fand man auch das berühmte Mädchen von Egtved. Die neue archäologische Technik der Jonen-Strontium-Analyse beweist, dass das Mädchen mindestens zweimal vom Schwarzwald nach Egtved hin und her gewandert ist. Offenbar bestand eine hohe Mobilität von Frauen. Sie war wohl Hohe Priesterin oder Handelsagentin. Der Handel zwischen den Netzwerken regionaler Siedlungen war offenbar sehr ausgeprägt. Aus dem Norden exportierte man Bernstein, aus der Mitte Kupfer und von außen (GB, Asien) Zinn. Bronze bestand zu 90% aus Kupfer und zu 10% aus Zinn. Es gab auch Landwirtschaft (Schafe, Getreide: Emmer, Dinkel). Es gab auch schon das erste gebraute Bier. Es entstand ein ausgeprägtes Textilhandwerk, was die Lederbekleidung ablöste. Die Gesellschaft war schon hierarchisch und differenziert, aber ohne staatliche Ordnung. 

Viele Jahrtausende betrug die Lebenserwartung etwa 25 bis 30 Jahre, Hunger und Krankheiten bedrohten das Leben, über dreißig Prozent der Neugeborenen erlebten nicht ihren fünften Geburtstag. Als Schicksalsjahr gilt 536 n. Chr. Ein Vulkanausbruch auf Island stürzt die Welt in eine Katastrophe unvorstellbaren Ausmaßes. Ernten fallen aus, Hungersnöte fordern zahlreiche Opfer. Ratten tragen die Seuche "Pest" von Dorf zu Dorf. Die Pest befällt Nordafrika, Europa und Asien. Die Pest war die erste große Pandemie, die im 14. Jahrhundert wütete und ihren Herd ebenfalls in China hatte. Ökonomische Folgen waren: Arbeitskräfte knapp, Löhne stiegen, hohes Angebot an Nahrungsmitteln traf auf dezimierte Nachfrage (Preise sanken). Zwangsarbeit verschwand. Es entstanden kapitalistische Arbeitmarktstrukturen. In den letzten 250 Jahren hat sich dies alles geändert. Der Lebensstandard konnte enorm wachsen. Dies war u. a.  durch technischen Fortschritt, Bildung, Patentrechte, Demokratie, bessere Arbeitsteilung und neue Rechtsformen (z. B. beschränkte Haftung) möglich. Es ist sehr lehrreich, sich diese Ursprünge der Wirtschaftsgeschichte immer wieder vor Augen zu halten, um die Leistung moderner Wirtschaften zu würdigen. Natürlich leitet sich daraus eine hohe Legitimation für das Fach ab, was sich mit der Funktionsweise von Wirtschaften beschäftigt, nämlich die Volkswirtschaftslehre. Die historische Methode hat neben der Mathematik, Statistik, Logik, Experimenten u. a. eine gleichberechtigte Stellung in der Volkswirtschaftslehre.  "Die Geschichte hat keinen Sinn - aber der Mensch kann ihr einen Sinn geben", Karl Popper.

Ebenso viele Jahrtausende prägten Kaiserreiche die Geschichte. Eine der ersten Dynastien waren die Pharaonen in Ägypten. Sie wurden von Eliten getragen. Diese forderten den Nachweis der politischen und sakralen Legitimität. Monumentale Bauwerke, Inschriften und Reliefs demonstrierten auf symbolischer und realer Ebene die politische Macht der Herrscher. Die Pharaonen identifizierten sich mit Göttern des traditionellen Mythos vom Sonnenauge und begründeten so ihre geistliche Machtstellung. Die Natur war in der Antike durchdrungen von übernatürlichen Kräften. Gottheiten bildeten in der Weltsicht die oberste Ebene auf der ganzen Welt. Magische Praktiken sollten Leben schützen und im Alltag helfen (Fingergesten, Befragung der Götter durch Orakel). Mächtige und große Kaiserreiche hatten die Perser (Darius), die Makedonier (Alexander der Große, starb 323 v. Chr. erst 32-jährig am Guillain-Barre-Syndrom) und die Mongolen (Dschingis Khan, gestorben 1227 n. Chr.). Auch europäische Monarchen begründeten ihre weltliche Macht, indem sie sich als Stellvertreter Christi auf Erden inszenierten (Bewahrer der gottgewollten Ordnung). Sie fanden immer wieder Wege, sich neben den Papst zu stellen (notfalls war das Reich heilig wie bei Barbarossa). Noch im 19. Jahrhundert gab es zahlreiche große Herrschaftsgebiete, an deren Spitze Monarchen standen: Das Osmanische Reich. Das Österreich-Ungarische Reich. Das Russische Reich des Zaren Nikolaus II. Das Deutsche Reich Wilhelm II. Das Herrschaftsgebiet des englischen Königreichs mit Viktoria an der Spitze. Im Kaiserreich China regierte die Kaiserwitwe Cixi in einem Reich, das seit 2000 Jahren bestand. Der Kaiser von Japan, Meiji, galt immer noch als göttlich. Die Herrscher hatten für Stabilität, Sicherheit und Gerechtigkeit zu sorgen. Dafür bekamen sie die Loyalität der Menschen. Irgendwann hatten die Systeme eine Größe und Macht erreicht, dass Menschen sie nicht mehr absetzen konnten. Erst der 1. Weltkrieg, der die industrialisierte Kriegsführung mit sich brachte, zeigte, dass absolute Herrschaft viel zu gefährlich war. Nach und nach mussten die meisten der Herrscher abdanken und es bildeten sich Demokratien mit allgemeinem Wahlrecht. Vgl. John Higgs: Alles ist relativ und anything goes, Berlin 2016, S. 69ff.

Wirtschaftsgeschichte und Geschichte allgemein haben generell in Asien einen höheren Stellenwert. In Mesopotamien, im Zweistromland, entstand das erste Wirtschaftssystem der Geschichte. Zwei Sprünge waren dafür entscheidend: Sprache (mit Schrift) und Überschuss. Die schriftliche Verbuchung der Erntemengen steht am Beginn der Erschaffung von Schulden und Geld. Besitzrechte an Getreidevorräten wurden auf Muscheln oder ersten Metallmünzen notiert. Entscheidend war der Glaube an den Tauschwert dieser Einheiten (Glauben = Credere, heute das Wort "Kredit"). Eine kollektive Institution (Staat) wachte darüber. In Mesopotamien (das Land zwischen den Flüssen: Euphrat und Tigris). Drei der wichtigsten Zivilisationen sind dort entstanden: Sumerer, Babylonier, Assyrer. In vielerlei Weise waren die Mesopotamier ihrer Zeit voraus: Frauen galten aus Individuen mit eigenen Rechten, besaßen Land, konnten sich scheiden lassen und Geschäfte führen. Die erste Stadt Uruk bedeutet den Anfang von Schrift, Architektur und Städtewesen. In China wird immer wieder darauf verwiesen, dass das Land bis Mitte des 19. Jahrhunderts die größte Volkswirtschaft der Erde war und das viele technologische Errungenschaften aus China kommen. Das Land verfügt über eines der ersten Schriftsysteme der Welt (Jiahu - Schrift, 6600 v. Chr., am gelben Fluss). Schon 4000 vor Christus begannen die ersten Bauern in Südchina, Nutzpflanzen wie z. B. Reis zu kultivieren . In den Lehrbüchern der Wirtschaftsgeschichte oder überhaupt in der Geschichte werden in der Regel die Vorgänge in China ausgeblendet. Das ist verwunderlich, weil das Land von 800 n. Chr. bis ins 18. Jahrhundert die größte Volkswirtschaft der Erde hatte. Entsprechend einflussreich waren die Ereignisse in China für Asien und die ganze Welt. Frühe chinesische Münzen bestanden oft aus Bronze und Kupfer und hatten ein Loch in der Mitte. China war wie alle Reiche dieser Zeit eine Agrarwirtschaft, konzentrierte sich aber allein auf seine Binnenwirtschaft und verteidigte seine Außengrenzen (chinesische Mauer; geringer Handel über die Seidenstraße). Diese wirtschaftliche Ausrichtung änderte sich grundlegend in der Ming-Dynastie (Herrschaftsepoche von 1368-1644).  Die Ming perfektionierten das Steuersystem im Inneren und schufen ein Tributsystem mit den Nachbarstaaten. Sie setzten sehr stark auf den Außenhandel, zunächst in Asien und später mit dem maritimen Europa (Exporte: Porzellan, Seide, Tee). In diese Epoche fallen auch die Fahrten von Eunuch Zheng He über fast die ganze Welt. Sogar kulturell und technisch will man von Innovationen aus Europa profitieren (Aufnahme von Jesuiten, z. B. Matteo Ricci; Astronomie; als "Sohn des Himmels" musst der Kaiser die Zeit im Griff haben). Venedig war zu der Zeit eine Weltmacht im globalen Handel und hatte nahezu ein Monopol im Handel mit China. Aus China importiert wurde Seide und Porzellan. Nach China exportiert wurden Textilien, Schmuck, Gewürze, Lederwaren, edle Hölzer, Pelze. Die Polos hatten Kontore am Ural. Sie betrieben Handel über die Seidenstraße zur Zeit der "Goldenen Horden" der Familie Khan. Marco Polo soll Kublai Khan, den Enkel von Dschingis Khan in Dunhuang oder Shangdu getroffen haben. Der machte ihn zu seinem Präfekten. Marco Polos Lieblingsstadt in China soll Hangzhou gewesen sein. Auf dem Seeweg reiste Polo zurück (von Quanzhou aus, der Partnerstadt von Neustadt Weinstraße).  Marco Polo (1271-1295; in genuesischer Gefangenschaft schrieb er seine Erlebnisse auf; das Erfolgsbuch prägte vor den Jesuiten das Chinabild der Europäer) Er reiste, berichtete und brachte viele Produkte und  Erfindungen aus China, das zu der Zeit die technologische Führungsmacht der Welt war, nach Europa. An den Erzählungen Marco Polos zweifelten schon die Zeitgenossen. 17 Jahre will er das Land bereist haben. Beim Schreiben half ihm der Mitgefangene Rustichello da Pisa. Das Buch heißt "Il Milione". Es wurde in zahlreiche Sprachen übersetzt. Die Dogenrepublik hatte in ihrer Blüte die Kontrolle über Konstantinopel, große Teile der Türkei und Griechenlands einschließlich der Insel Kreta. Venedig war im vierzehnten Jahrhundert die wichtigste Handelsstadt Europas und wohl auch der Welt. Mit der Entdeckung Amerikas 1492 begann der Abstieg der Dogenrepublik. Venedig konzentrierte sich dann auf das "Terra ferma", das Hinterland. Sehr fortschrittlich war das Regierungssystem der streng oligarchisch strukturierten Republik. Adelsfamilien hatten ein perfektes System der zeitlichen Arbeitsteilung von Regierung und Gerichten entwickelt. Führend waren in der Zeit auch viele wichtige Künstlerpersönlichkeiten (Bellini, Canova, Giorgione, Palladio, Tizian, Tintoretto). Noch 1699 meinte der deutsche Philosoph Gottfried Wilhelm Leipnitz, die Chinesen seien in ihrem Rechtssystem und ihrer Ethik überlegen, in Mathematik und Kriegsführung jedoch unterlegen. 1721 hielt ein anderer deutscher Philosoph, Christian Wolff als Prorektor der Universität Halle, eine Festrede über die praktische Philosophie der Chinesen. Seine Ausführungen über Konfuzianismus und Christentum wurden als Ausdruck einer atheistischen Grundhaltung ausgelegt. Er musste die Universität und die Stadt augenblicklich verlassen, um nicht der Gotteslästerung angeklagt zu werden (Quelle: Nadav Eyal: Revolte, Berlin 2020, S. 73).

Damit läuft hier etwas ab, was sich ab Ende der Achtzigerjahre des vorigen Jahrhunderts wiederholt. Interessant ist die Frage, warum China im 18. Jahrhundert den Anschluss an die führenden Ökonomien im Westen verlor. Hierzu hat der deutsche Ökonom Werner Sombart wichtige Faktoren des Kapitalismus beschrieben: Wettbewerb der Länder durch Kriege und durch Prestigekonsum.  Metropolen sind immer Fixpunkte der Weltwirtschaft gewesen. Viele sind irgendwann grandios gescheitert: So etwa Brügge in Belgien, Lübeck in Deutschland, Venedig in Italien  oder Turku in Finnland. Sie scheiterten an verschiedenen Faktoren: Kein Zugang mehr zum Meer, Handelswege änderten sich, falsche Investitionen, politischer Wandel.

Die Menschheit machte den größten Fortschritt ihrer Geschichte durch landwirtschaftliche Revolutionen. Zuerst in Mesopotamien um 9000 v. Ch. (die Wiege unserer Zivilisation, die ab 2014 systematisch vom IS zerstört wurde, z. B. Nimrud), dann in China um 7000 v. Ch., später in Nordafrika, Mittel- und Südamerika und Europa. In Mesopotamien kommen sieben wichtige Erfindungen: die Schrift, die Monarchie, die Medizin, das Rechtswesen, das Geld, die Zeitmessung und das Rad. Einen weiteren großen Fortschritt brachte die Spezialisierung (z. B. nur Getreide, Produktivitätssteigerung, dann Tausch der Produkte mit anderen Menschen).  In Lydien wurden um 600 v. Chr. die ersten Münzen der Welt geprägt (in Sardis unter König Krösus; hier trafen sich die wichtigsten Handelsströme der damaligen Welt und der Tauschhandel musste vereinfacht werden; Kurantmünzen mit festen Regeln nach Gewicht und Reinheit; die Münzen waren aus einer Gold-, Silber-Legierung). Vorher waren in Indien Kaurimuscheln ein Zahlungsmittel. Der wissenschaftliche und technische Fortschritt aus Ägypten,  Persien und Arabien fasst zunächst in Europa auf der Insel Kreta Fuß.  Die ersten großen Reiche der Erde, angefangen von Mesopotamien über die Qin-Dynastie in China und das Römische Reich waren Kooperationsnetzwerke, die sich eine Ordnung mit Werten gegeben haben. 1776 v. Ch. war Babylon die größte Stadt der Welt (das Rechtssystem war der Kodex Hammurabi). Die Sumerer erfanden das erste Datenverarbeitungssystem der Geschichte, das ca. 5000 Jahre alt ist. Sie nannten es Schrift (hier wurde zum ersten Mal Information gespeichert und verbreitet; die Tontafeln waren auch Empfangsquittungen). Sie verfassten auch den ältesten Mythos der Menschheit, das Gilgamesch-Epos. Es geht im Kern um den Sieg des Menschen über den Tod. Der Feldzug Alexander des Großen über Persien und Indien nach Afghanistan im vierten Jahrhundert vor Christus brachte viele Hoch-Kulturen zusammen. Alexander ließ Münzen prägen aus Silber. Er brauchte die Münzen als Sold für seine Soldaten; die Münzen waren aber in der ganzen damaligen Welt gültig (das meiste Silber dafür eroberte er in Persien: 9 Mio. kg = heute 4 Mrd. €). Vor den Römern beherrschten die Kelten Europa (sie besiegten 387 v. Chr. die Römer an der Allia, Nebenfluss des Tiber; Anführer Brennus; Rom kauft sich mit 1000 Pfund Gold frei; "Vae victis"; Geschichtsschreiber Livius). Sie waren technologisch (Waffentechnik) überlegen, zerfielen aber in viele Stämme. Die Römer und später Karl der Große schafften  schon ein erstes Großeuropa (Vorläufer der EU). Von großem Einfluss auf die wirtschaftliche Entwicklung der Erde waren die Wikinger (von vrikingr - "Seekrieger auf langer Fahrt"). Sie erlebten ihre Blütezeit Ende des 8. Jahrhunderts an bis in die Mitte des 11. Jahrhunderts. Sie verwüsteten im 800 Jhrdt. einerseits das damalige "Silicon Valley" in Nordostengland (Kloster Lindisfarne, Jarrow; die Klöster lagerten Gold); andererseits verbreiteten sie die Kultur und prägten die Entwicklung der englischen Sprache, die heute Weltsprache und Wirtschaftssprache ist und stellten die Technik für Schiffbau und Weltreisen zur Verfügung (auch noch im 11 Jhrdt. als Normannen). Die Beutezüge waren wahrscheinlich Initiationsriten für junge Krieger, denn die Wikinger waren reich. Grundlage war eine Sklavengesellschaft (Sklaven als Geiseln der Raubzüge oder als Waren und Arbeitskräfte). Ihre technischen Errungenschaften sind heute noch sichtbar (Langboote, Langhäuser, Häuser aus Torf). Sie verehrten noch die Götter Odin, Thor und Freya. Sie reisten über Flüsse und Meere nach Istanbul, Bagdad und Russland. Von der Wikingerbezeichnung "Rus" kommt das Wort Russland. Eine wichtige Handelsstation war Nowgorod. Die Wikinger entdeckten auch Amerika (Neufundland: L´ance Au Medows, Point Rosee waren Siedlungen mit Eisenverarbeitung). Ihr Anführer dabei war Leif Erickson um 1000 n. Chr. Von ihren Reisen berichten die Sagas. Die Indianer vertrieben die Wikinger wieder, auch weiter aus dem Süden (New Brunswick). Um 900 n. Chr. verbreiteten die Wikinger den arabischen Dirham (Münze). Berühmt wurde auch König Blaubart (er ist Namensgeber heute für Bluetooth; 2018 wird ein Schatz von ihm auf Rügen gefunden; er musste vor seinem Sohn fliehen; er liegt im Dom von Roskilde begraben). Berühmte Wikinger Handelsplätze kann man noch heute besichtigen (Haitabu/ Weltkulturerbe; Ribe; Roskilde; Aarhus). Frauen hatten bei den Wikingern eine stärkere Rolle als im Christentum (Erbrecht, Scheidung, Haushaltsführung während der Reisen der Männer). Die Wikinger traten zum Christentum über, um ihre Handelspartner nicht zu verlieren. Man weiß nicht viel über die Wikinger, weil sie keine schriftlichen Überlieferungen hinterlassen haben (sie waren wohl nicht so grausam wie überliefert, das Wort Berserker steht für leicht bekleidete Kämpfer). Im Jahr 1500 n. Chr. lebten 500 Mio. Menschen auf der Erde, heute sind es fast 8 Mrd. Vor dem 16. Jahrhundert hatte noch nie ein Mensch die Erde umrundet, was sich 1522 mit Magellan änderte (1492 wurde Amerika durch Kolumbus angesteuert und für wirtschaftliche Zwecke genutzt: Edelmetallausbeutung und Handel mit Tabak, Baumwolle u. a.; vorher waren die Wikinger schon da, s. o.). Von 1500 bis 1800, also dreihundert Jahre, wurden Sklaven von Afrika nach Amerika und Asien transportiert, um die arbeitsintensive Landwirtschaft ausbauen zu können. Die meisten Sklaven kamen aus Ghana (Cape Coast). Die meisten waren junge Männer, die in den Heimatländern schmerzlich vermisst wurden. Bis zu 20 Mio. Sklaven wurden transportiert. Die Profite blieben in den europäischen Kolonialländern (Spanien, Portugal, Niederlande, Großbritannien, Deutschland). Es waren die ersten großen Wertschöpfungsketten (Rohstoffe aus Amerika, Sklaven nach Amerika, Waffen nach Afrika). So vermischten sich ganze Kulturen (erzwungene Migration in großem Ausmaß). In den vergangenen fünf Jahrhunderten schafften es die Europäer am besten, Wissenschaft, Kapital und Imperialismus zu verknüpfen und schufen sich ein Weltreich (Vgl. Yuval Noah Harari: Eine kurze Geschichte der Menschheit, München 2013, S. 134ff.). In der industriellen Revolution wurden die fossilen Energiequellen optimal genutzt und verarbeitet. Industrieproduktion schaffte Wirtschaftswachstum, wälzte das Alltagsleben um und änderte die Menschen (Verstädterung, Jugendkultur, Niedergang des Patriarchats, Schwinden der Familie, weniger Gemeinschaft). 1857 bricht die erste Weltmarktkrise aus, eine Krise der Überproduktion. Karl Marx, der in London zu der Zeit lebte, sieht sich in seinen Vorhersagen bestätigt, Friedrich Engels verliert die Hälfte seines Vermögens.  Seit Beginn des 21. Jahrhunderts verliert der Nationalstaat an Boden. Kein Nationalstaat ist mehr vollständig souverän in dem Sinne, dass er eine eigenständige Wirtschaftspolitik machen kann. Weltmärkte, Multis und NGO zeigen Grenzen auf und beeinflussen. "Iß nun das Brot, O Enkidu, denn das gehört zum Leben. Trink auch vom Bier, wie es des Landes Brauch", Gilgamesch-Epos. Vgl. Tomas Sedlacek: Die Ökonomie von Gut und Böse, München 2013, S. 33ff.

Der Kapitalismus als Wirtschaftssystem, das auf der Idee basiert, aus Geld Geld zu machen (Zugewinn im Mittelpunkt), entsteht um 1300 in Italien (um 600 v. Chr. wird im kleinasiatischen Lydien erstmals Geld verwendet). Der Markt ist das Herzstück. In Florenz und anderen Städten Mittel- und Norditaliens entstehen Banken (Bankwesen) und das System der doppelten Buchführung (der Mönch Luca Pacioli beschreibt dies erstmals in einem Lehrbuch 1494). Die Zisterzienser, ein Orden, waren im Mittelalter wirtschaftlich über vier Jahrhunderte außerordentlich erfolgreich. Sie entwickelten ein System der Betriebswirtschaftslehre. Sie scheiterten an Gegensätzen zwischen Laienmönchen und Hauptmönchen, die sehr privilegiert waren. Je komplexer der Handel und je ausgeprägter die Arbeitsteilung, desto wichtiger wird das Geld (um Güter nicht direkt gegeneinander zu tauschen, auch der Kredit). Um 1250 gibt es die ersten Banken, die Kaufleuten Darlehen für die Geschäfte ermöglichen. Später entstehen bargeldlose Zahlungsmittel, Aktien, Schuldscheine. 1324 n Chr. kommt es zu einer der ersten und berühmtesten Inflationen der Geschichte: Mansa Musa, König von Mali und damals reichster Mann der Welt, macht seine Reise nach Mekka und gibt dabei soviel Gold aus, dass der Goldpreis weltweit verfällt und 20 Jahre braucht, um sich wieder zu erholen. Von Mitte des 12. bis Ende des 17. Jahrhunderts bildete sich das bedeutendste wirtschaftliche Netzwerk im nördlichen Europa, die Hanse. Sie steht für die Blüte des Fernhandels.  In Lübeck zeigt das Europäische Hansemuseum Aufstieg und Niedergang der Kaufmannsvereinigung. 1531 entsteht in Antwerpen die erste feste Börse, um das Kapital zu kontrollieren. Um 1750 erfasst der Kapitalismus verstärkt die Produktion von Gütern. Immer mehr Anleger beteiligen sich auch an Unternehmen. Dann kommt die industrielle Produktion ab 1800, die alle Lebensbereiche verändert. Die industrielle Revolution ist die größte ökonomische Umwälzung der Geschichte nach der Sesshaftwerdung. Zu Beginn des 17. Jahrhunderts tragen niederländische Kaufleute den Kapitalismus in die Welt. Sie gründen die Vereinigte Ostindien-Kompanie (VOC) für das profitable Gewürzgeschäft (um das Monopol der Portugiesen zu brechen). Die Fahrten zu den Gewürzinseln in Südostasien dauerten Monate (mindestens acht) und waren teuer, so dass Investoren Anteile zeichneten. Vgl. Geo Epoche: Der Kapitalismus, Nr. 69, 2014. Der Kolonialismus wurde auch rassistisch begründet (Überlegenheit der Europäer). Eine zentrale Frage des Kapitalismus ist, woher ursprünglich das Kapital kommt, was sich so famos vermehrt (Sündenfall). Marx führt die ursprüngliche Akkumulation auf Verbrechen zurück. Als Beispiele nennt er im "Kapital" den Raub der Kirchengüter oder den Raub von Gemeindeland in GB (Schottland), der den Bauern die Lebensgrundlage entzieht. Eine wichtige Frage ist, ob Privateigentum notwendigerweise zum Kapitalismus gehört (in China nur Volkseigentum mit Nutzungsrechten).   "Jeder Manager, der erfolgreich sein will, muss den Kapitalismus als dauernden Umbruch und Neubeginn begreifen", Dieter Schnaas, Immer mit der Ruhe, in: Wirtschaftswoche 1/23.12.2015, S. 77.

Geld bzw. Kapital als gesammeltes Geld ist die größte Antriebskraft und eine wichtige Quelle allen Fortschritts in der Wirtschaft und auch des Kapitalismus, gleichzeitig ist Geld ein Schmiermittel, das Milliarden wirtschaftlicher Transaktionen begleitet. Der direkte Handel (Barter Trade, Tauschhandel; 10.000 v. Chr. - 3000 v. Chr.) war zu ineffizient, Münzen und Tontafeln (vor 4000 Jahren Babylon) waren zu unbequem. Also entstanden Banknoten (in China, von Quittungen hergeleitet) und der Zahlungsverkehr in den Banken. Geldsysteme entstanden mit der Finanzierung von Kriegszügen, z. B. bei den Römern oder im Mittelalter für die christlichen Kreuzzüge. In Oberitalien entstanden im 12. Jahrhundert die ersten Seehandelskredite, die indisch-arabische Zählweise wurde übernommen und es wurden in Florenz die ersten modernen Banken gegründet. Im 15. Jahrhundert wird dort die doppelte Buchführung eingeführt (siehe oben).  Mit der Entdeckung Amerikas und dem Seeweg nach Indien beginnt ein Aufschwung des Fernhandels und der Kapitalgesellschaften. Edelmetalle, an die das Geld lange Zeit gebunden ist, gelangen in großen Mengen nach Europa. 1531 wird in Antwerpen im heutigen Belgien der erste öffentliche Finanzplatz der Welt eröffnet (Van der Beurze). 1618 stürzt der Dreißigjährige Krieg Deutschland ins Chaos. Der Konfessionskrieg wird zum Kampf um die Vormachtstellung in Europa. Er entwickelt sich zu einer Art Urkatastrophe. Zahlreiche Dokumente belegen Folter, Mord und Vergewaltigung an der Zivilbevölkerung. Hungersnöte und harte Winter verschlimmern die Lage. Für Traumatisierungen gibt es keine Belege. Wahrscheinlich bot die Religion Erklärungsmodelle und auch Möglichkeiten, mit der Krise umzugehen. Im 18. Jahrhundert lösen Aktien von John Law die erste Spekulationsblase aus (Law verkaufte Aktien für die Mississippi Compagnie, aber es gab kein Gold in Louisiana; manche gehen auch vom holländischen Tulpenwahn 1637 aus). Damit gilt John Law auch als einer der "Erfinder" des modernen Kapitalismus. 1716 erhält er per königlichem Dekret die Erlaubnis, in Paris die Banque Generale zu gründen. Um sich Gold zu beschaffen, beteiligt Law das Volk (er verkauft Aktien). Die erste große Gelddynastie waren die Medici in Florenz. Es folgten die Fugger in Deutschland und die Rothschilds in Frankfurt, Paris, London und New York. Vgl. Sonderheft Nr. 4 des Spiegel: Geld, 2009. Die erste große Krise der Weltwirtschaft in der Neuzeit war 1857. Sie wurde von der Ohio Life Insurance Company ausgelöst. Sie hatte zu viel Geld in spekulative Anleihen für Eisenbahngesellschaften investiert. Diese Krise war allerdings rasch überwunden. Geld beruht auf zwei universellen Prinzipien: Es ist universell tauschbar. Mit Geld lässt sich fast alles umwandeln bzw. kaufen (Loyalität, Gesundheit, Wissen, Gerechtigkeit). Geld schafft Vertrauen. Geld kann Menschen immer dazu bringen, zusammen zu arbeiten. In der heutigen Welt ist die physische Präsens des Geldes nicht mehr notwendig, es könnte auch ausschließlich in digitaler Form existieren.

Ganz wichtig sind auch die technologischen Errungenschaften der Menschheit für die Ökonomie. "Technikos" bedeutete im Griechischen Handwerk, Kunstfertigkeit. Schon seit 2,5 Mio. Jahren vor Christus gab es einfache Steinwerkzeuge. 1,5 Mio. Jahre vor Chr. kam das Feuer. Erste Speere werden auf 400.000 v. Chr. datiert. Pfeil und Bogen kamen um 20.000 v. Chr. 9000 v. Chr. konnte man die ersten Metalle verarbeiten. 7000 v. Chr. lernte man das Fertigen von Keramiken. 5.500 v. Chr. wurde der erste Pflug erfunden. 5000 v. Chr. hatten die Ägypter schon Bewässerungssysteme am Nil. 3.500 v. Chr. wurde das Wagenrad erfunden. 1.800 v. Chr. gab es Windmühlen in Babylon. 400 v. Chr. nutzten die Chinesen den ersten Kompass. 150 v. Chr. wird in Rom der erste Beton verbaut. Um 650 n. Chr. wird Schwarzpulver in China oder Byzanz entdeckt. 868 n. Chr. machen die Chinesen den ersten Buchdruck (Holztafeldruck). 1712 gab es die erste Dampfmaschine. 1993 beginnt die Zeit des für alle zugänglichen Internets. Vgl. Lesch, h./ Kamphausen, K.: Die Menschheit schafft sich ab, München 2018, S. 136ff. "Keine Universalgeschichte führt vom Wilden zur Humanität, sehr wohl eine von der Steinschleuder zur Megabombe", Theodor W. Adorno, deutscher Philosoph und Soziologe (2019 wird seine Abhandlung über den Rechtsradikalismus wieder neu aufgelegt. Sie erscheint aktueller denn je).

Die Gedanken und Ideen der einflussreichsten Ökonomen waren auch durch die Zeit, in der sie lebten, geprägt. Der Ökonom Atonio Serra in Venedig abstrahierte 1613 eine Wirtschaftspolitik zur Theorie, die Jahrhunderte lang praktiziert worden war (vgl. Erik S. Reinert: Warum manche Länder reich und andere arm sind, Stuttgart 2014, S. 3). Adam Smith (1723 bis 1790, gilt als "Urvater" der Volkswirtschaftslehre) entwickelte das Wettbewerbskonzept der "unsichtbaren Hand". Er bricht mit der bis dahin herrschenden dirigistischen Wirtschaftsform des Merkantilismus (Zölle, Exportsubventionen). Als Zollbeamter liegt sein Focus auf Kauf und Verkauf grenzüberschreitend. James Watt, der Erfinder der Dampfmaschine (und damit Begründer der ersten industriellen Revolution), war zwar ein guter Bekannter.  Aber die Industrialisierung spielt in der Theorie von Smith noch kaum eine Rolle. Ein Freund war der Philosoph David Hume (Watt, Hume und Smith kannten sich vom Studium an der Uni Glasgow). Werte stehen auch im Zentrum der Theorie von Smith. David Ricardo (1772-1823) plädierte mit seinem Konzept der komparativen Kosten für internationalen Handel (die Unterscheidung zu den absoluten Kosten war revolutionär; auch Arbeitswertlehre). Als weitere Klassiker gelten Thomas Robert Malthus (1766 - 1834, Bevölkerungsmodell) und Jean Baptiste Say (1767 1832, Angebotshypothese). Karl Marx (1818 bis 1883) analysierte den Kapitalismus und knüpfte an die Arbeitswertlehre von Ricardo an. Die ersten 30 Jahre seines Lebens verbrachte er in Trier, Bonn, Köln, Berlin, Jena, Paris, Brüssel), die nächsten Jahre als Staatenloser im Exil in London, wo er auch in Highgate begraben ist. Alfred Marshall (1842 bis 1924) führte das Angebots-Nachfrage-Modell (Marshall-Diagramm) ein und begründete die Wohlfahrtsökonomie.  Leon Walras (1834 - 1910), Hermann Heinrich Gossen (1810 - 1858) und William Stanley Jevons vervollständigen, was die Ökonomen heute neoklassische Mikroökonomik nennen. John Maynard Keynes, ein Schüler von Marshall und wohl größter Ökonom des 20. Jahrhunderts (1883 bis 1946), baute ein neues makroökonomisches Modell, um Weltwirtschaftskrisen zu bekämpfen (Dominanz und Unterstützung der Nachfrage, staatliche Programme, zweites umfassendes makroökonomisches Modell nach Karl Marx). Milton Friedman (1912 bis 2006) wies auf die einmalige Rolle des Geldes hin (Monetarismus). Walter Eucken, Ludwig Erhard und Alfred Müller-Armack bauten die Wirtschaftsordnung der Sozialen Marktwirtschaft in Deutschland nach dem 2. Weltkrieg theoretisch und praktisch auf. Reinhard Selten bekam als einziger deutscher Ökonom für seinen Beitrag in der Spieltheorie den Nobelpreis (lehrte lange in den USA, zuletzt wieder in Deutschland an der Uni Bonn). Berühmte deutschsprachige Ökonomen (Österreicher), die auch in den USA lehrten und in Englisch veröffentlichen, waren J. Schumpeter (1883-1950, "dynamischer Unternehmer"). Er erfand die Vierphasentheorie des Konjunkturzyklus. Kapitalismus ist für ihn "ein Prozess der schöpferischen Zerstörung". Es ist für ihn auch weniger ein Wirtschaftssystem als eine "Kulturform". Gedanklich hat er so Disruption vorweggenommen. F. A. von Hayek (1899-1992, liberales Denken, Nobelpreis) ist ein weiterer international wirkender bekannter deutschsprachiger Ökonom. Als Gründervater der modernen Volkswirtschaftslehre gilt Paul Anthony Samuelson (1915-2009), der das erste weltweite Lehrbuch verfasste und einer der letzten Generalisten war. Mit seinem Faktorpreisausgleichstheorem prägte er eine Denkweise, an die Globalisierung heranzugehen (weltweit für Alle ist Außenhandel von Vorteil) . Die andere Denkrichtung verweist darauf, dass freier Handel die Einkommensschere zwischen reichen und armen Ländern vergrößern kann (z. B. so der schwedische Ökonom Gunnar Myrdal).  Zur Zeit ist für die Allgemeine Volkswirtschaftslehre das Lehrbuch von N. G. Mankiw (Economics) wegweisend (wenn auch zu wenig formal). Inzwischen gibt es eine Kurzfassung das Buches (auch in Deutsch, 2015), die besser ist. "Ökonomieexperten arbeiten für den Applaus ihrer eignen Kollegen", Paul Samuelson an die New York Times, 1974.

Aber auch vor den großen Ökonomen und ihren Theorien gab es ökonomische Analysen im Rahmen der Philosophie. Wichtige Elemente finden sich bei den klassischen griechischen Philosophen Sokrates (Ethik), Platon (Aufbau der Gesellschaft, idealer Staat) und Aristoteles (z. B. Allmendeproblem; Eigentum Privatbesitz; Logik; Wohlergehen). Xenophon kann als der größte ökonomische Denker der antiken Philosophie bezeichnet werden. 400 Jahre vor Christus schildert er wichtige Grundlagen (Gespräch über die Haushaltsführung; Mittel und Wege, dem Staat Geld zu verschaffen; Gewinnmaximierung; auf ihn soll auch die Verbindung von Oikos und Nomos zurückgehen als Kunst der Haushaltsführung). Hesiod kann als erster bekannter Ökonom überhaupt benannt werden. Er lieferte Grundideen für die moderne Chaostheorie und definierte Arbeit als Quelle allen Guten für die Menschen. 100 Jahre später liefern Thales (Olivengeschäft), Archimedes und Pythagoras (Geometrie) wichtige mathematische Grundlagen. Das mittelalterliche Denken, vor allem Augustinus (Der Gottesstaat), haben einen Beitrag geleistet (z. B. kanonisches Zinsverbot, "gerechter Preis", Asketismus). Thomas von Aquin (Scholastik) bereitet mit seiner Weltzugewandtheit, seinen Gedanken über die Natur des Menschen, seine Auseinandersetzung mit der Vernunft den Boden für ökonomisches Denken. Zusammen mit seinem Lehrer Albertus Magnus in Köln  bereitete er auch die Ideenwelt des Aristoteles für den lateinischen Westen auf. Er war im Mittelalter der erste Denker, der sich mit wirtschaftswissenschaftlichen Fragestellungen befasste (Summa contra gentiles; Gerechtigkeit; ethische Grundlagen der Ökonomie; wirtschaftliche Aspekte menschlichen Zusammenlebens). Mitte des 12. Jahrhunderts beginnt die Geschichte der Hanse. Es war eine Schwurgemeinschaft von Fernhandelskaufleuten, um die langen  und gefahrvollen Handelsreisen nach England, Skandinavien und Russland bestehen zu können. "Eng wohnen, weit denken" war der Wahlspruch der Hansekaufleute (in der Altmark gab es die größte Dichte von Hansestädten). Die Vorstufe der EU brauchte, um erfolgreich zu sein, kein von Wissenschaftlern gemachtes Fundament (wie so oft im Geschäftsleben und in der Geschichte). "Es ist das gemeinsame Wohl, das die Städte reich macht", Niccolo Machiavelli, 1469-1527. 1485 betreibt Heinrich VII. eine strategische Wirtschaftspolitik in England (Ausfuhrzoll). Heinrich VIII führte von 1542-1551 eine Abwertung durch, indem er den Silberpenny nur noch zu einem Viertel aus Silber prägte (drei Viertel Kupfer). Als die Spanier jährlich 350 Tonnen Silber aus Potosi (Bolivien) nach Europa importierten war eine Jahrhundert-Inflation die Folge (1540-1640).    Fugger finanziert ab 1505 eine portugiesische Indien-Expedition. Die wachsende Nachfrage nach Gewürzen und die Hoffnung auf Gold und andere Edelmetalle trieb damals Seefahrer auf die Weltmeere.  Große süddeutsche Kaufmannsfamilien wie die Fugger und die Welser profitierten von der ersten Welle der Globalisierung. Martin Luther wetterte gegen die "Ökonomisierung aller Lebensverhältnisse". Er hatte Vorbehalte gegen Geld und unternehmerische Freiheit. Als Beispiel hatte er besonders die Familien Fugger, Tucher und Welser vor Augen, die ihr Geld in Übersee scheffelten (Venezuela, Indien). Sogar die Kaiser waren von ihnen finanziell abhängig. Es gab Staatsschulden, Spekulanten, Globalisierung, Konzentration von Finanzkapital - genau wie heute. Luther stand in seiner Einstellung zur Wirtschaft in der Tradition von Aristoteles und Thomas von Aquin. Konkret störte Luther besonders die kirchliche Sündenverwaltung über Ablass. Er sprach von Mammonismus. "Höchst geschäftig soll ein Christ nicht im Umgang mit Geld, sondern allein gegen den nächsten sein", Martin Luther. Insofern ist die Max Weber-These kurios. Er behauptet ja, dass die protestantische Ethik zur Wirtschaftsgesinnung und damit Entwicklung des Kapitalismus geführt habe. Um 1630 befürwortet Thomas Mun eine merkantilistische Politik. Josiah Child beschreibt 1668 den Freihandel.  William Petty zeigt 1682, wie die Wirtschaftsleistung gemessen werden kann. Der Ire Richard Cantillon (1680 - 1734) analysiert Wohlstand, Handel und internationalen Zahlungsverkehr. Der Franzose Francois Quesnay und die Physiokraten erstellen 1758 Das "Tableau economique" (geht auf William Harvey von 1628 zurück). Die großen Rationalisten (Descartes), die großen Empiristen (Hume) und die revolutionären Denker und Aufklärer in Frankreich (Voltaire, J. J. Rousseau) liefern Beiträge und haben Einfluss. Descartes liefert mit seinem Denken die Wurzeln zum Homo oeconomicus. Der Mensch als Maschine ("Cogito, ergo sum") handelt rational (Reduzierung des Menschen). Bernard Mandeville (The Fable of the Bees; or Privat Vices, Public Benefits, Oxford 1924) erweitert diese Konzeption und schafft den Gedanken, dass wir Gier als Antriebskraft in der Ökonomie brauchen. In Cambridge entsteht ab 1900 die Analytische Philosophie, die zur einflussreichsten Philosophenschule des 20. Jahrhunderts wird. Hier wirken G. E. Moore und Bertrand Russell, die Ludwig Wittgenstein und J. M. Keynes und später Popper in ihrem Denken prägen. 

Die großen deutschen Ökonomen (gemessen an der praktischen Relevanz und Bekanntheit im Ausland) finden in Deutschland eher weniger Beachtung (lieber beruft man sich auf US-Wurzeln ohne die notwendige wissenschaftliche Distanz; man muss ja in US-Zeitschriften rein, um Karriere zu machen). Die Tradition der deutschen Ökonomie geht bis ins 17. Jahrhundert zurück: Veit Ludwig von Seckendorff (1626-1692), Philipp Wilhelm von Hörnigk (1640-1714; beide kameralistische Wirtschaftspolitik),  Simon Peter Gasser (1646-1716) und Jacob Bielfeld (1717-1770; am Hofe Friedrich des Großen, Hauptwerk: Institutions Politiques) sind hier als kleine Auswahl zu nennen. Hinzufügen kann man noch Gottfried Wilhelm Leibnitz (1646-1716) und Christian Wolff (!679-1754), die auf der Naturrechtstradition beruhen und die moderne Staatstheorie prägten. Johann Heinrich von Thünen (1783-1850; Der isolierte Staat, 1826; vier konzentrische Kreise; Begründer der Wirtschaftsgeographie) hat stark die amerikanische Volkswirtschaftslehre beeinflusst, von wo die Erkenntnisse wieder nach Deutschland kamen (z. B. Neue Ökonomische Geographie, P. Krugman). Karl Marx (von der Ausbildung her Jurist und Philosoph) ist heute noch in China ein Held. Sein Buch "Das Kapital" ( aber auch das Kommunistische Manifest) gehört zu den meistgelesenen der Welt. Viele Ökonomen und vor allem Chinesen verehren auch Friedrich Engels, der Marx ideell und materiell unterstützte. Seine Umrisse zu einer Kritik der Nationalökonomie sind auch heute noch lesenswert. Die Chinesen pilgern zu seinem Geburtshaus in Wuppertal. Engels unterstützte Marx auch indirekt, indem er Artikel schrieb, die Marx unter seinem Namen in der New York Tribune viele Jahre veröffentlichte. Dadurch schieb Marx zu allen aktuellen Ereignissen der Zeit (z. B. Opiumkrieg), was zu den vielen Praxisbeispielen im "Kapital" beitrug. "Welche Elastizität, welche historische Initiative, welche Aufopferungsfähigkeit in diesen Parisern! Nach sechsmonatlicher Aushungerung ... erheben sie sich, unter preußischen Bajonetten ... Die Geschichte hat kein ähnliches Beispiel ähnlicher Größe", Karl Marx. Im gleichen Jahr wie Marx, nämlich 1818, wurde Friedrich Wilhelm Raiffeisen geboren. Von seiner Wirkung auf die Ökonomie her ist er nach Marx der größte deutsche Ökonom (eigentlich Sozialrevolutionär und Verwaltungsbeamter). Seine Idee prägt heute die Sharing Economy und ist stark auf dem Vormarsch im Zeitalter der Digitalisierung.  Zwei Kerngedanken waren revolutionär: Kredite und Geschäftsanteile sind soziale Bindemittel; auch bei knappen Gütern können Menschen partnerschaftlich zusammenarbeiten. Seine Konzeption ist außer in Deutschland sehr erfolgreich in Japan, Indien,  Brasilien und mittlerweile auch in den USA. Sehr bekannt in Asien ist noch Friedrich List, einer der führenden Theoretiker des Protektionismus.  Er lebte von 1789 bis 1846 (erschoss sich). Geboren wurde er in Augsburg, wo man mehr über ihn erfahren kann. Promoviert hatte List wie Marx in Jena. Er war der weltweit wichtigste Zolltheoretiker (Erziehungszoll!). Er war auch Entwicklungstheoretiker (Kritiker von Malthus, Innovation bewältige jedes Bevölkerungswachstum; er kritisiert auch überzeugend die Arbeitswertlehre; lebt auch eine Zeitlang in den USA). Während er heute in Deutschland relativ unbekannt ist, gilt er in Entwicklungs- und Schwellenländern als einer der größten deutschen Ökonomen (auch in Japan). Einen wesentlichen Einfluss auf die ökonomische Entwicklung hatte in Deutschland die Reformation. Sie löste einen Bildungsschub der Bevölkerung aus. Auch wesentlich später noch im 19. Jahrhundert lagen Schulbesuch und Bildungsniveau in protestantischen Gegenden höher als in katholischen. Das prägte die ökonomische Entwicklung positiv. Eine herausragende Bedeutung hat in Deutschland der "Verein für Socialpolitik". Durch die Industrialisierung entstand im 19. Jahrhundert in Deutschland ein Millionenheer von Arbeitern, die für Hungerlöhne in den neuen Fabriken schufteten und in Slums hausten. Der Verein beschäftigte sich als erster damit und schuf die Grundlagen der modernen Wirtschafts- und Sozialstatistik und machte die Probleme der Gesellschaft sichtbar. Die ersten Vertreter wurden als "Kathedersozialisten" (Begriff stammt vom Ökonomen Heinrich Oppenheim) beschimpft, obwohl der Verein gutbürgerlich war. Er schuf auch das Know-how für die Sozialversicherung von Bismarck. Einer der bekanntesten Vertreter war Gustav von Schmoller (wurde 1908 für seine Verdienst geadelt; Hauptvertreter der Historischen Schule). Er vertrat eine normative Sozialwissenschaft und eine staatliche Sozialpolitik zum Abbau von Klassengegensätzen. Zeitlose ökonomische Gesetze lehnte er ab. Carl Menger, der von 1840 bis 1921 lebte und in der österreichisch-ungarischen Monarchie geboren wurde, schrieb grundlegende Werke (Grundsätze der Volkswirtschaftslehre, Untersuchungen über die Methode der Sozialwissenschaften und der Politischen Ökonomie). Bekannt ist auch Hermann H. Gossen, 1810-1858: Entwicklung der Gesetze des menschlichen Handelns, und der daraus fließenden Regeln für menschliches Handeln, Braunschweig 1854. Gossensche Gesetze: 1. Der Grenznutzen eines Gutes nimmt mit zunehmender konsumierter Menge ab, kann aber nicht negativ werden. 2. Grenznutzen muss in allen Verwendungsrichtungen gleich sein. Gossen entwickelte eine subjektive Wertlehre, indem er den individuellen Nutzen eine Gutes einbezog. Mithilfe Gossens konnte das so genannte Wertparadoxon der klassischen Ökonomie aufgelöst werden. Der größte Wissenschaftler dieser Zeit war wohl Werner Sombart. Er begründet eine Typologie diverser Formen des Kapitalismus und verweist auf wichtige Elemente in der Entwicklung des Kapitalismus (Der moderne Kapitalismus, endgültige Ausgabe 1928 in sechs Bänden). Berühmt wurde auch Ernst Engel (1821-1896), der einen Zusammenhang zwischen Konsum und Einkommen analysierte ("Je ärmer eine Familie ist, ein desto größerer Anteil von der Gesamtausgabe muss zur Beschaffung der Nahung aufgewendet werden", 1857; Engelsches Gesetz). Er baute das erste deutsche Statistische Büro in Berlin auf. Der Belgier Adolphe Qetelet hatte schon 1830 damit begonnen, die Gesellschaft mathematisch und statistisch zu erfassen ("Gesetz der großen Zahl"). Nach dem Zweiten Weltkrieg entwarfen deutsche Ökonomen die Soziale Marktwirtschaft für Deutschland. Der Begriff Neoliberalismus geht auf den deutschen Ökonomen Alexander Rüstow (1885-1963; studierte Ökonomie, Philosophie, Jura und Physik) zurück. Er propagierte eine ordnungspolitisch eingebundene Form des freien Wirtschaftens. Im Mittelpunkt standen die Verhinderung von Konzentration und Macht. Im Dritten Reich war er in der Türkei im Exil. Heute wird auch oft der Begriff "ordoliberal" als synonym zu "neoliberal" gebraucht. Walter Eucken und Ludwig Ehrhard konstruierten dann die konkrete praktische Ausführung mit dem GWB. Wahrscheinlich starb ein anderer wichtiger deutscher Ökonom zu früh: Heinrich Freiherr von Stackelberg (1905-1946) war ein sehr bekannter deutscher Ökonom. Er habilitierte an der Uni Köln. Er starb an Kriegsverletzungen. Buch: The Theory of Market Economy. Darin entwickelt er eine Marketingtheorie und eine neue Kostentheorie. Er beschäftigt sich auch mit Verbundeffekten. Ende des letzten Jahrhunderts hatte der Deutsche Schumacher weltweit einen enormen Einfluss. Er war seiner Zeit weit voraus. Der deutsche Ökonom lebte in England. Ernst F. Schumacher: Small is beautiful: A Study of Economics as if People Mattered, Vancouver 1973. Gilt als eines der ersten grundlegenden Bücher über kleinere Unternehmen und als Klassiker für eine alternative wirtschaftliche Denkweise (deutsch 1977: Rückkehr zum menschlichen Maß, München: Oekom Verlag 2019). Das Buch ist ein Klassiker der Nachhaltigkeit. Denn die Frage nach dem rechten Maß in Wirtschaft und Technologie ist heute aktueller denn je. Größe ist kein Wert an sich. Sie kann vorteilhaft sein, muss es aber nicht. Er plädiert für eine "Miniaturisierung der Technik" sowie dafür, ein "Maximum an Glück mit einem Minimum an Konsum zu erreichen". Er war seiner Zeit weit voraus.  Um aus Überzeugung zu lernen, braucht der Mensch ein gutes Weltbild. Schumacher war Anhänger einer buddhistischen Wirtschaftslehre, in der Arbeit den Menschen darin unterstützt, seine Fähigkeiten zu entwickeln. Im Deutschen trägt das Buch, das eines der einflussreichsten über nachhaltiges Wirtschaften ist, den passenden Titel "Rückkehr zum menschlichen Maß". "Das Gros der Ökonomen verschanzt sich hinter einer Trutzburg aus mathematischen Formeln und Universaltheorien", Ferdinand Knauß: Wie konnten Ökonomen nur die Geschichte vergessen", in: Wirtschaftswoche 36, 2.9.2016, S. 32f.

Die Wirtschaftsgeschichte als Fach und Teilgebiet der Volkswirtschaftslehre ist in Deutschland auf dem "absteigenden Ast". Immer mehr Lehrstühle stehen vor der Schließung. Ganz anders ist die Entwicklung in den USA. Carmen Reinhardt, Ken Rogoff, Harold James, Niall Ferguson, Daron Acemoglu, Michael Bordo  u. a. haben auch großen Einfluss auf die aktuelle Wirtschaftspolitik und ihre Bücher waren oder sind Bestseller. Die Universitäten Göttingen, Jena und Marburg bieten das Studienfach "Wirtschafts- und Sozialgeschichte" in Deutschland an. Die Anfänge des Faches reichen bis ins 19. Jahrhundert zurück. Mit der Gründung des "Vereins für Socialpolitik" 1872 und der Gründung der Zeitschrift "Vierteljahresschrift für Sozial- und Wirtschaftsgeschichte" 1903 begann der Aufschwung. Die erste Dozentur wurde 1909 an der Kölner Handelshochschule eingerichtet. Mittlerweile gibt es in Deutschland ein Max Planck-Institut für Wirtschaftsgeschichte in Berlin.

"Wer die Vergangenheit kontrolliert, kontrolliert die Zukunft. Wer die Gegenwart kontrolliert, kontrolliert die Vergangenheit", George Orwell, "1984".

 

 

  Warschau, Hauptstadt von Polen. Denkmal für die Opfer des 2. Weltkrieges. Hier legte Brandt den Kranz als erster deutscher Kanzler nieder. Polen ist ein Land, dass die zentrale Frage "Markt oder Staat" sehr gut widerspiegelt. Lange war Polen im Warschauer Pakt nach dem 2. Weltkrieg eine Zentralverwaltungswirtschaft mit Zugehörigkeit zur östlichen Wirtschaftsgemeinschaft "Comecon". Mit dem Ende dieser Bündnisse 1990 vollzog das Land die Wende zur Marktwirtschaft. Heute gibt es wieder Bewegungen Polen, die eine stärkere Planung wollen. Insofern symbolisiert Polen mit seiner Wirtschaft die immer aktuelle Bedeutung dieser Frage. Wie kaum ein anderes Land profitiert Polen von der EU, die die erfolgreiche Modernisierung ermöglicht hat. Trotzdem hat das Land eine kritische Haltung zur EU und stellt sich gegen einige Beschlüsse (Flüchtlinge., Rechtsreform u. a.)  2004 reiste ich mit dem Fahrrad durch Polen, um mir einen eigenen, hautnahen Eindruck zu verschaffen. Schon lange vor dem Beitritt Polens zur EU waren Projekte an der Hochschule im Rahmen von Erasmus möglich. Ich habe mich intensiver mit dem Arbeitsmarkt in Polen beschäftigt. Polen profitiert - wie schon gesagt - sehr stark von der EU. Das beeinflusst Entwicklungen in Belarus und der Ukraine, weil die Menschen in unmittelbarer Nähe den Wohlstand mitbekommen.

Markt oder Staat? Staatlicher Einfluss und Eingriffe (Notwendigkeit einer neuen Ökonomie nach den beiden letzten großen Krisen, wissenschaftliche Revolution?):

"Der Prozess der schöpferischen Zerstörung ist für den Kapitalismus wesentliches Faktum..., der unaufhörlich die Wirtschaftsstruktur von innen heraus revolutioniert, unaufhörlich die alte Struktur zerstört und unaufhörlich eine neue schafft", J. A. Schumpeter: Kapitalismus, Sozialismus, Demokratie, New York 1942; S. 137f. (nach der deutschen Ausgabe, München 1980).

Die beiden letzten großen Wirtschaftskrisen 2008/09 und 2020 haben massive staatliche Eingriffe in die Wirtschaft hervorgerufen. Innerhalb kürzester Zeit tat der Staat in aller Welt alles, um die Wirtschaft zu erhalten und ihr wieder auf die Beine zu helfen. Die Konzepte folgten im wesentlichen den Rezepten von John Maynard Keynes (1883-1946), die er in der Weltwirtschaftskrise 1929 entwickelte. Vgl. Skidelsky, Robert: Keynes: die erneute Rückkehr des Meisters. in: Wirtschaftsdienst 10/2020, S. 763-766. Sie gingen allerdings auch darüber hinaus, insofern als staatliche  Beteiligungen und umfassende Rettungsmaßnahmen systemrelevanter Bereiche (Angebotsseite) dazu kamen. Das hängt damit zusammen, dass die letzte Krise ein Doppelschock war (sie traf Angebot und Nachfrage gleichzeitig). Diese Instrumente setzten sowohl Marktwirtschaften (USA) als auch Mischwirtschaften (China) ein. Nach Keynes neigt der Kapitalismus zu Instabilität und Krisen und müsse durch staatliche Programme gerettet werden. In der heutigen Volkswirtschaftslehre  vertritt vehement  Paul Krugman in den USA diese Position (Nobelpreis 2008, Kolumne in der New York Times). Ebenso Marianna Mazzucato, wenn sie auch mehr für staatlich gelenkte Technologiepolitik eintritt. Ihre Botschaft ist: Durch ein gezieltes Verhindern der unverdienten Wertschöpfung und ein Bereinigen der Bilanzierung nach objektiveren Wertvorstellungen wäre eine viel nachhaltigere Form von Wirtschaft möglich. Das sind nur zwei Beispiele relativ weltweit bekannter heutiger Ökonomen. Damit scheint eine Grundfrage der Ökonomie entschieden zu sein: Der Staat muss in die Wirtschaft entscheidend eingreifen, um das System zu erhalten (dem folgen heute auch die Leiter der führenden Wirtschaftsforschungsinstitute in Deutschland und die Mehrzahl der Ökonomen: z. B. Fuest, Felbermayr, Fratzscher). Auch ich muss heute als Ökonom selbstkritisch  eingestehen, dass ein Großteil dessen, was ich an der Uni gelernt habe, und was ich später Studenten vermittelt habe, Ideologie war. Mit dem Abstieg der Leitwirtschaft USA und dem Aufstieg Chinas, verliert die Ausschließlichkeit des Marktes als Legitimationsgrundlage an Boden (man sollte heute sehr vorsichtig sein mit dem Einsatz von VWL - Lehrbüchern aus den USA, die in der Lehre der Hochschulen dominieren: Ein gutes Beispiel ist das weltweit dominierende Lehrbuch von Mankiw, das die Umwelt fast ausblendet). Vgl. Clemens Fuest: Wie wir unsere Wirtschaft retten - Der Weg aus der Corona-Krise, Aufbau 2020. Er warnt darin vor einer staatlich gelenkten Wirtschaft ("Unser Wohlstand wird nicht vom Staat erzeugt, sondern von Unternehmern und Beschäftigten", ebenda). Noch schärfere Kritik von Stefan Kooths, dem Vorsitzenden der Hayek-Gesellschaft 2020: "Mazzucato bietet nur sauren Wein in ausgeleierten Schläuchen - eine Mixtur aus zentral- planerischer Selbstüberschätzung und makroökonomischem Brachialkeynesianismus", in: WiWo 34, 14.8.2020, S. 40f.

Der Staat baut seine Rolle aus zum universellen Retter (nicht nur der Wirtschaft). Er alleine kann die Seuche bekämpfen. Er kann die Virologie, Medikamentenforschung, Impfforschung unterstützen. Er organisiert die Krankenhäuser und das Gesundheitssystem. Er sorgt dafür, dass Altenheime und Altenpfleger funktionieren. In der Wirtschaft verteilt er Zuschüsse (ohne Rückzahlung), verteilt Kredite, Soforthilfen, er stimuliert die Konjunktur. Es ist im Grunde genommen eine neue Welt mit einem neuen Staat (sicherheitsbewusster, staatsabhängiger, unsicherer, dynamischer, solidarischer). Die Ökonomie als Wissenschaft war darauf nicht vorbereitet. Schon die Finanzkrise hatte sie auf dem falschen Fuß erwischt. Beide Krisen wurden auch nicht vorausgesagt. 

In der Geschichte der Wissenschaft wurden allerdings immer viele Gegenpositionen vertreten. Adam Smith, einer der Begründer der Wissenschaft "Volkswirtschaftslehre" wollte den Nachtwächterstaat. Er sprach von der "Unsichtbaren Hand" des Marktes. Karl Marx und Friedrich Engels sahen im Staat die Macht der herrschenden Klasse. Deshalb müsse zuerst die Gesellschaftsstruktur geändert werden, damit das Proletariat die Wirtschaft beherrschen könne. Nach dem 2. Weltkrieg gewannen wieder die Anhänger des Marktes die Oberhand. Walter Eucken (1891-1950), Milton Friedman (1912-2006), Ludwig von Mises (1881-1973) sowie Friedrich August von Hayek (1899 - 1992; um nur einige zu nennen) plädierten für den Vorrang des Marktes. Der Staat solle nur Eigentum, Freiheit und Frieden schützen. Der Markt sei immer effizienter. Natürlich setzte die Siegermacht USA nach dem 2. Weltkrieg auch ihr System durch. Mit dem Zusammenbruch der führenden zentralistischen Planwirtschaften (China, Russland, DDR) schien die Frage Ende der 1980er Jahre des letzten Jahrhunderts zugunsten des Marktes entschieden zu sein. Die westliche Ökonomie hatte immer an den Grundgedanken ihrer Väter Smith und Ricardo festgehalten: Der Mensch handelt als Egoist und häuft Vermögen an. Am Ende entsteht auf wundersame Weise Wohlstand für alle (allerdings vergrößerte sich der Abstand zwischen Arm und Reich immer mehr, vor allem in den USA). Trotzdem hatte sich der Kapitalismus als effizienter erwiesen und größeren Wohlstand für die Masse der Bevölkerung generiert.

Doch dann kam die globale Finanzkrise und danach der exogene Schock durch die Corona-Krise im 21. Jahrhundert und das Pendel schlug Richtung Staat um. Beide Krisen machten klar, dass Märkte solche Krisen nicht in den Griff bekommen. Andere Ökonomen setzten ihre Hoffnung auf den Staat, weil er für eine Einkommensumverteilung sorgen soll (Thomas Piketty in Frankreich). Es ist gegenwärtig so gut wie überhaupt nicht umstritten "ob" und "wie" sowie "wem" der Staat helfen soll.  Lobbygruppen versuchen, den Kreis der Anspruchsberechtigten allerdings immer mehr zu vergrößern. Bei der staatlichen Beteiligung und bei vielen anderen Maßnahmen ist umstritten, welche Bedingungen der Staat mit seiner Hilfe verknüpfen kann. Das wird am Beispiel der Lufthansa besonders deutlich: Wenn es so gut wie keine Flüge mehr gibt, kann eine Fluggesellschaft nicht überleben. Also muss der Staat sich beteiligen (was er an der Lufthansa sowieso schon ist). Dafür will er auch Einfluss auf die Geschäftspolitik nehmen. Die Staaten Schweiz und Österreich haben schon Hilfe in Milliardenhöhe zugesagt mit der Bedingung, dass das Geld nur ihren Landesgesellschaften (Töchter der Lufthansa) zur Verfügung steht. Deutschland will Hilfe bereitstellen (9 Mrd. €). Es soll eine Mischung zwischen Krediten und Beteiligung sein (dafür will der Bund auch Einfluss nehmen, wie der französische Staat auf die Air France). Die Beteiligung des Staats soll etwa 25% betragen (auch Sitz im Aufsichtsrat; Auflagen: keine Dividendenzahlungen). Die Lufthansa muss im Mai 2020 noch 1,8 Mrd. € für stornierte Tickets zurückzahlen. Sie hat insgesamt noch 4 Mrd. € Barmittel. Am 25.05.20 einigt man sich, allerdings müssen EU und Aktionäre noch zustimmen: Kredite über die KfW in Höhe von 3 Mrd. €. Beteiligung von 20% in Höhe von 6 Mrd. € (WSF). Das Engagement ist auf Zeit gedacht mit Ausstieg (es geht um ca. 100.000 Arbeitsplätze). Die EU-Kommission stimmt Ende Mai 2020 zu, auch der Vorstand und Aufsichtsrat der Firma. Die Lufthansa muss auf Flugrechte in Frankfurt und München verzichten. Diese werden an Konkurrenten versteigert, die nicht staatlich subventioniert werden. Das Projekt wird zur Blaupause für Dutzende andere Rettungsaktionen des Bundes mit Beteiligung. Großaktionär Thiele blockiert kurz vor der Hauptversammlung den staatliche Eingriff. So ist eine Insolvenz in Eigenverantwortung nicht mehr ausgeschlossen. Staatsbeihilfen (Beteiligungen, Hilfskredite) erhielten 2020 unter andere, folgende Firmen: Curevac, Tui, Sixr, Puma, Media Markt, Leoni, Kion Group, Tom Taylor, adidas, ThyssenKrupp.

Grundsätzlich ist staatlicher Einfluss berechtigt. Über die Kriterien muss diskutiert werden. Es war ein grundsätzlicher Fehler der Treuhand-Institution in der Phase der deutschen Vereinigung, dass ein Bedingungskatalog unter dem Zeitdruck nicht entwickelt werden konnte. Das sollte sich nicht wiederholen. Die Wirkungen von staatlichen Hilfen in Unternehmen muss viel mehr erforscht werden (Evaluation). Nur so kann man auch erfahren, welche Maßnahme zu welchem Unternehmen wie passt. Außerdem sollte der Staat klarer vorgeben, wo es langgehen soll. Er muss die Klimadebatte jetzt endlich in die Praxis umsetzen und Ernst machen mit der grünen Wirtschaft. Er sollte also Kriterien vorgeben, die der Energiewende und dem Umweltschutz förderlich sind. Eine Abwrackprämie wäre sicher ein völlig falscher Anreiz. Besser sollte der Staat in eine neue Infrastruktur der Mobilität investieren. "Die Welt ist mit drei großen Krisen konfrontiert: die Klimakrise, die Ungleichheitskrise und eine Krise der Demokratie. Und dennoch geben uns die etablierten Wege, wie wir ökonomischen Fortschritt messen, nicht den leisesten Hinweis darauf, dass wir ein Problem haben könnten", Joseph Stiglitz, US-Ökonom (The Guardian, 24.11.2019).

Damit sind wir bisher nur auf der nationalen Ebene. Die Pandemie hat aber globale Wurzeln und auch globale Folgen: Mobilität, Urbanität, Vernetzung, weltweite Arbeitsteilung, Umweltzerstörung haben sie begünstigt. Die Auswirkungen werden weltweit sehr unterschiedlich sein: In der EU hat Deutschland die weitaus größten finanziellen Reserven. Die Schieflage zum Süden wird sich verstärken. Die Billionenschulden werden die Leitwirtschaft USA und auch Japan behindern, sie werden China zum schnelleren Aufstieg verhelfen. China kann seinen Einfluss ausdehnen. Schon allein der direkte Vergleich in der Pandemie ist nur noch blamabel für die USA (auch, wenn man falsche Statistiken in China voraussetzt). Wahrscheinlich werden auch die ökonomischen Folgen in den USA dramatischer sein: BIP-Rückgang, Export-Rückgang, Direktinvestitionen im Ausland mit den USA als Herkunftsland. Alle bisherigen Daten deuten darauf hin, dass in absehbarer Zeit eine Wachablösung in der Welt stattfinden wird. Vielleicht lassen sich aber - gerade wenn es keine Leitwirtschaft mehr gibt - Kooperation und Multilateralismus erhalten. Diese Werte werden dringend für die Erhaltung der Umwelt gebraucht. Vielleicht ist es sogar von Vorteil, weil Outsourcing zurückgefahren wird, insofern wäre Globalisierung zukünftig nur noch eine Produktionsmethode. "Wenn Güter knapp werden, kann der Markt eben doch nicht jedes Problem lösen. Und der Staat ist nicht immer der, der Freiheiten beschneidet, sehr oft ermöglicht er sie erst. Um die Probleme der neuen Realität zu lösen, müssen wir uns von halbierten Denkschablonen lösen. für knappe Güter, die den gesamten Planeten umfassen, müssen globale Ansätze gefunden werden, selbst wenn uns das schwierig erscheint", Maja Göpel, in: Dies.: Unsere Welt neu denken, Berlin (Ullstein) 2020, S. 155.

Die digitale Technologie bekommt weltweit einen Schub in Arbeit, Bildung und Alltag. Sie wird die Arbeitswelt jetzt schneller verändern. Die Kostenvorteile bei der Arbeit von Asien werden international geringer. In Asien steigen sie durch den Wohlstand und den Aufbau von Sozialversicherungssystemen und Gewerkschaften, in Europa sinken sie durch die Automatisierung. Der internationale Handel wird auch stark durch den steigenden Protektionismus behindert, der besonders von den USA vorangetrieben wird. So könnte eine Phase der De - Globalisierung bevorstehen. Die Bevorratung gewinnt wieder an Anhängern gegenüber der Just-in-time-Produktion mit Outsourcing  (zu der Einsicht war schon Japan in der Fukushima - Katastrophe gekommen). Zur Automatisierung trägt auch die 3-D-Technik bei. Die Digitalisierung kann so die De - Globalisierung begünstigen, allerdings sind die digitale Infrastruktur und der Cyberspace auch sehr anfällig.  "In der Welt lernt der Mensch nur aus Not und Überzeugung", Johann Pestalozzi, Schweizer Pädagoge. Um aus Überzeugung zu lernen, braucht der Mensch ein gutes Weltbild. Das hat sehr überzeugend der in England lebende deutsche Ökonom Ernst Friedrich Schumacher in seinem Buch "Small is Beautiful" beschrieben. Schumacher war Anhänger einer buddhistischen Wirtschaftslehre, in der Arbeit den Menschen darin unterstützt, seine Fähigkeiten zu entwickeln. Im Deutschen trägt das Buch, das eines der einflussreichsten über nachhaltiges Wirtschaften ist, den Titel "Rückkehr zum menschlichen Maß". Wie so oft, wird auch Schumacher als einer der größten deutschen Ökonomen im eigenen Land wenig geschätzt (wie Thünen, Marx, List; Raiffeisen; alle sind im Ausland sehr bekannt und geschätzt). Natürlich hat er auch keinen Nobelpreis der Ökonomie bekommen (die schwedische Akademie fährt im Schlepptau der USA!). 

Die letzten Krisen, die Folgen und wirtschaftspolitischen Eingriffe legen gnadenlos offen, wie veraltet die Ökonomie als Wissenschaft ist. Mit den oben skizzierten Konzeptionen kommen wir nicht mehr sehr weit. Keynes hatte zumindest die offene Wunde des Kapitalismus klar erkannt: "In the long run we are all dead", Keynes. Der Staat muss immer kurzfristig unter Zeitdruck handeln. Die Theorien über den uneingeschränkten Vorteil von Freihandel in der Globalisierung und über den Markt als besten Lenkungsmechanismus zu jeder Zeit waren auch viel zu einseitig und Kinder ihrer Zeit. Bei lebensnotwendigen Gütern ist eine Abhängigkeit sogar gefährlich, wenn Grundstoffe alle aus China oder Indien kommen (Medikamente, Schutzausrüstung). Außerdem dürfen Wertschöpfungs- und Lieferketten nicht zu anfällig sein. Das sind wichtige Erkenntnisse der letzten Krise. Der Kapitalismus und die Ökonomie als Wissenschaft dazu muss sich also jetzt neue Alternativen erschaffen. Das kapitalistische Wirtschaften muss sich erneuern und durch größere Innovationen sein Überleben sichern. Es muss auch berücksichtigen, dass zukünftig mit China ein kapitalistisches Mischsystem in der Welt dominieren wird, das die staatliche Kernkompetenz als Kennzeichen hat. Vgl. auch: Reiermann, Christian: Nicht kaputt zu kriegen, in: Der Spiegel Nr. 24/6.6.20, S. 78f. Schon Krugman hatte in seiner strategischen Handelstheorie nachgewiesen, dass unter bestimmten Bedingungen (Hochtechnologie, Oligopolmärkte) staatliche Subventionen notwenig und nützlich sind. Auch die USA werden werden bei einem Wahlsieg von Biden ihre Strategie "America first" und Buy America" nicht radikal ändern. Sie werden Zölle als nützliches Instrument gegen lästige Konkurrenten (China, EU) beibehalten.

Es wird befürchtet, dass die Pandemie die Konzentration der Konzerne begünstigt (mehr Fusionen) und den Staatseinfluss auf die Wirtschaft spürbar erhöht. Die Gründung von Start-ups könnte verhindert werden. Die Monopolkommission will sich in ihrem Hauptgutachten im Juli 2020 mit den Corona-Folgen für die Wettbewerbspolitik beschäftigen. Es könnte künftig weniger KMU in Deutschland geben (höhere Insolvenzrate bei den kleinen Unternehmen). Eine Machtverlagerung zu größeren Unternehmen könnte eintreten. Es wird auch nachhaltige Struktur - Veränderungen geben: Das wird vor allem den Dienstleistungsbereich und den Handel betreffen. Folge könnte auch eine Interventionsspirale sein, in der Staaten finanzielle Risiken von Unternehmen übernehmen. Notwendige Anpassungen des Ordnungsrahmens könnten unterbleiben. Die kurzfristige finanzielle Handlungsfähigkeit unterstützt die Dominanz der Finanzmärkte. Der langfristige effiziente Einsatz von Ressourcen wird vernachlässigt. Vgl. Schellenbach, Jan: Waldbrände im Wirtschaftssystem, in: WiWo 25, 12.6.20, S. 42f. Außerdem werden eher bestehende Unternehmen und Geschäftsmodelle erhalten. Man setzt zu sehr auf Bewahren und weniger auf Erneuern. Vgl. Horn, Alexander: Die Zombiewirtschaft. Warum die Politik Innovation behindert und die Unternehmen in Deutschland zu Wohlstandsbremsen geworden sind, Novo Argumente Verlag 2020. In absehbarer Zeit muss der Staat zu einer Konsolidierung der Staatsausgaben zurück kommen. So brauchen wir in Deutschland  auch die Schuldenbremse zurück. Es gibt auch den Begriff "Woke Capitalism" ("wacher" Kapitalismus). Damit ist ein System gemeint, das sofort auf politische Forderungen reagiert. Wer am lautesten und besten sich bemerkbar macht, kann sich mit seinen Bedürfnissen durchsetzen. Vgl. Jan Fleischauer: Woke Capitalism, in: Der Focus 34/2020, S. 6f. 2020 gibt es auch eine Diskussion in der Ökonomie über die Grenzen der Staatsmacht. Wo liegen sie bei Beteiligungen, Wandelanleihen, Krediten. Wie muss das nach der Corona-Krise zurückgefahren werden? Vgl. z. B. Feld, Lars/ Südekum, Jens: "Das lasse ich mir nicht vorwerfen", in: WiWo 37, 4.9.20, S. 36ff.

Drei Trends werden nach den zwei großen Krisen die Weltwirtschaft in der Zukunft beherrschen: Stärkerer Einfluss des Staats (mit Machtgewinnung der Nationalstaaten, wo sind die Grenzen des Staates? Wo ist er überfordert und versagt?), der Rückgang der Globalisierung (Grenzen der internationalen Zusammenarbeit) und niedrigere Wachstumsraten (weil die Krisen kosten und bezahlt werden müssen). Am härtesten trifft es bei den Wachstumsraten die Entwicklungsländer (Ende von Investitionen, Einbrüche der Exporte, weniger Auslandsüberweisungen). Die neuen Wachstumsraten könnten neue Wachstumsmodelle hervorrufen. Vgl. auch: Dani Rodrik: Straight Talk on Trade. Ideas for a Sane World Economy. Princeton University Press 2017. Gibt man das Wachstumsziel auf, wie es viele alternative Ökonomen befürworten, muss man sagen, wie mehr Steuereinnahmen sonst generiert werden können. Unser ganzes Umverteilungssystem basiert noch auf Wachstum. Auch die steigende Staatsverschuldung beruht auf dem Vertrauen, dass irgendwann der Staat die Gelder zurückzahlen kann und wird (das Wort Kredit kommt aus den lateinischen Begriff credere - glauben). "Sämtliche Versuche im 20 Jahrhundert, eine Alternative zum Kapitalismus aufzubauen, endeten in einer Katastrophe für Mensch und Umwelt", Andrew McAffee, MIT (Quelle: WiWo 36/ 28.8.2020, S. 39).

Exkurs: Kriterien für Markt oder Staat durch die ökonomische Wissenschaft: Die Ökonomie als Wissenschaft kann sich nicht von ihrem gesellschaftlichen und staatlichen Hintergrund lösen. Die westliche Ökonomie lieferte theoretisch den Beleg dafür, dass die Marktwirtschaft effizienter sei  (Maßstab ist meist die Leitwirtschaft, in diesem Falle die USA). In der Folge trug die Ökonomie Züge einer Rechtfertigungslehre für die Wirtschaft der USA. Das flog erst mit der radikalen Umstellung auf Handelskrieg unter Trump auf. Die Ökonomie der kommunistischen Planwirtschaft kam zu einer höheren Effizienz für den Staat (vgl. auch meinen Artikel dazu: Wirtschaftsordnungen). Politisch siegt das System, das ökonomisch den höchsten Erfolg aufweist, gemessen in Wohlstand (Verteilung?). Die Parteien in Deutschland neigen entweder mehr zum Staat (SPD, Die Linke) oder mehr zum Markt /CDU, FDP). Bei den Grünen gibt es beide Lager etwa gleich stark. Wichtig ist der Zeitpunkt der Problembeurteilung (in Corona waren alle für den Staat und es gab keine sinnvolle Alternative). Die Frage ist, ob und wann der Markt wieder dominieren soll? Die benötigten Steuereinnahmen für die nächsten Jahre kann der Markt am effizientesten erwirtschaften helfen. Wahrscheinlich wird dieses Thema den Bundestagswahlkampf in Deutschland 2021 beherrschen. Hoffentlich kommt ein sachlicher Diskurs zustande und man erniedrigt sich nicht auf das Niveau des Wahlkampfs in den USA. In der Praxis bzw. empirisch fällt die Beurteilung auch schwierig. Hier scheint Wettbewerb im Markt zumindest für die bessere Personalqualität zu sorgen. Beim Führungspersonal für den Staat gibt es zu viele abgehalftere Politiker, die versorgt werden müssen, zu viel Parteien-Proporz, zu viel Personal, das anderswo nichts werden kann (negative Selektion). Da immer das Verhalten von Menschen in der Wirtschaft entscheidend ist, hat der Markt hier klare Vorteile. Man sieht auch in Zentralverwaltungswirtschaften bzw. Mischwirtschaften (China) die Herausbildung elitärer Kader, die ihr Vermögen im Ausland anlegen und ihre Privilegien vererben. Immer wieder wollen diese Systeme Korruption in den Griff bekommen, schaffen es scheinbar aber nie. Offensichtlich werden aber auch Marktwirtschaften von Eliten beherrscht oder zumindest maßgeblich beeinflusst (besonders deutlich in Frankreich und Japan). Wenn die Wissenschaft Kriterien für die Reform von Märkten bereitstellen kann (wie nach der Finanzkrise für die Finanzmärkte), wird die praktische Umsetzung von Lobby-Gruppen verhindert (Wallstreet/ N. Y., Londoner Bankenkreise). Demokratien im ursprünglichen Sinne von "Herrschaft vom Volk" funktionieren in vielen Ländern nicht mehr richtig. Aber auch im Ursprungsland Athen war es schon eher  eine Herrschaft von Eliten. So steht dieser Punkt immer wieder im Mittelpunkt von Wahlkämpfen (z. B. 2020 in den USA im Präsidentschaftswahlkampf: als Teil der Elite definiert sich Trump aber als Outsider). Das Thema "Staat versus Markt" wird uns in Zukunft intensiv beschäftigen.

Wir brauchen deshalb dringend neue Ansätze, die auch in die Struktur von Unternehmen hineingehen. Die Ansätze müssen makroökonomische Plattformen (die von der Realität ausgehen und nicht bloß Ideologien darstellen) mit Unternehmen verknüpfen und dieses Zusammenwirken besser durchleuchten (und das ganz anders als es früher die Mikroökonomie gemacht hat, die relativ stereotyp war). Wahrscheinlich werden eher verhaltensökonomische Ansätze zum Zuge kommen (die vom egoistischen Denken weggehen zum kooperativen). Gerade mittelständische Strukturen mit ihren komparativen Vorteilen sind zu beachten. Die Vormachtstellung der USA in der Ökonomie als Wissenschaft geht dem Ende entgegen. Wir müssen mehr auf Asien schauen und gleichzeitig in Europa einen eigenen Weg gehen. Buddhismus, Konfuzianismus und Daoismus machen neue Konzepte möglich (man sollte sich zumindest mit diesen Strömungen auch beschäftigen; Kollektivismus statt Individualismus ist in der Diskussion; auch die Integration des Marxismus in diese Strömungen  in China ist sehr interessant). Ich plädiere für einen Ausbau und Test meiner eigenen Konzeption: Ausgehend von den Produktionsfaktoren "Umwelt" (mit Energie/ Rohstoffe), "Arbeit" (mit Digital) und "Kapital" (mit Global) immer die Verknüpfungen zu den Unternehmen herstellen und analysieren (Entrepreneurial Economics bzw. Managerial Economics genannt). Hier liegt meiner Ansicht nach die Zukunft der Ökonomie als Wissenschaft (vgl. den Aufbau und die Struktur dieser Plattform). Eine solche Ökonomie ist pluraler, realitätsnäher und zukunftsorientierter. Uns bleibt als Ökonomen nichts anderes übrig, als uns der neuen Realität zu stellen, blinde Flecken zu schließen und die Wirtschaft mit zu gestalten. Natürlich müssen auch die entscheidenden Grundfrage der heutigen Ökonomie geklärt werden: Ist heute wirklich die zentrale Aufgabe der Notenbank, die Zahlungsfähigkeit des Staates sicherzustellen und ist die Grenze (zentrale These der Modern Monetary Theory, vgl. weiter unten)? Brauchen wir immer noch Wachstum oder geht es auch anders? Wie kann man die Strukturprobleme in wichtigen Ländern lösen (Italien, Frankreich)?  Wie stark muss der Staat sich in die Industrie einmissen (Industriepolitik)? Wie können Deutschland und die EU im Wettbewerb mit den Großen (China, USA) mithalten und welche Rolle übernehmen sie? Wie kann der Nationalismus (mit steigendem Populismus) aufgehalten und ein Mindestmaß an Multilateralismus (Klimawandel!) gewährleistet werden? Wie kann in einer digitalen Welt die Spaltung der Gesellschaft verhindert werden? Vgl. auch: Fratzscher, Marcel: Die Neue Aufklärung, Berlin/ München 2020, S. 81ff.

Es gibt eine innovative neue Theorie, die aber nur die Realität rechtfertigt und sich ihr anpasst und die langfristigen Folgen offen lässt (und auch nicht auf die spezifischen strukturellen Probleme eingeht, wie z. B. Anstieg der Vermögenspreise). Es ist die Modern Monetary Theory (MMT): Eine Regierung, die in der eigenen Währung Kredite aufnimmt, kann nicht zahlungsunfähig werden. Sie kann so viele Banknoten drucken lassen, wie sie für die Bezahlung ihrer Verbindlichkeiten benötigt. Einige Befürworter der Theorie rechtfertigen auf Basis des Konzeptes exzessive Staatsausgaben. Sie ignorieren die Probleme hoher Staatsverschuldung. Substanziell neu sind die Erkenntnisse nicht. Sie werden auch eher von Politikern zur Rechtfertigung genutzt.  In den USA wollen die Vertreter dem Weißen Haus Zugang zur Notenpresse verschaffen. Das könnte nach der nächsten Wahl zügig eingeleitet werden. In den USA ist Stephanie Kelton eine der Protagonistinnen der Theorie ("The Deficit Myth"). Sie spricht von einer "kopernikanischen Wende". Der Staat könne so viel Geld drucken wie er wolle. Der Staat sei der "monetäre Souverän". Mit Steuern könne er nur ein Teil seines Geldes wieder einziehen. Man darf diese Theorie gar nicht zu Ende denken. Sie könnte die obigen Erwägungen des Absatzes ad absurdum führen. Dann hätte der Staat gar nicht mehr selbst die Wahl zwischen Markt und Staat. Kommt eine Inflation, würde er auf die geldpolitische Bremse treten (Zinsen steigen, Aktienmärkte stürzen ab, Staaten, Unternehmen, Haushalte  werden insolvent, die nächste große Finanzkrise wäre da). Oder die Zentralbanken lassen die Inflation laufen, drücken die Zinsen weiter, kaufen noch mehr Staats- und Unternehmensanleihen oder übernehmen letztlich das ganze Finanzsystem (Verstaatlichung). Dann wäre alles staatlich. Vgl. Becker, B./ Fischer, M./ Goffart, D./ Schnaas, D.: Haste mal `ne Milliarde oder zwei? in: WiWo 42, 9.10.20, S. 16ff.

Andere innovative Konzeptionen werden im Folgenden vorgestellt, wovon viele allerdings die Schwäche der konkreten, praktischen Umsetzbarkeit haben. Vgl. auch https://www.entrepreneurs4future.de .

"...Kernthese lautet, dass unsere Wirtschaftsexperten die Krisenerscheinungen der Gegenwart deshalb nur unzureichend erfassen und deuten, weil sie zu einer besseren Analyse schlicht und einfach nicht in der Lage sind. ... Die Ursache ihres Nichtkönnens liegt vielmehr in einer gewohnheitsmäßig tradierten, unhinterfragt angenommenen und insofern überaus starren, viel zu engen Forschungsperspektive", Frank Niessen: Entmachtet die Ökonomen! Marburg 2016, S. 14.

 

Wie im letzten Abschnitt beschrieben, halte ich persönlich den Ansatz "Managerial bzw. Entrepreneurial Economics" für den viel versprechendsten. Er muss verhaltensökonomisch fundiert sein und VWL und BWL integrieren. Dieser Ansatz ist auch eher in der Lage, die Kritik der Freihandelsthese und des Nutzens von Globalisierung aufzunehmen. Bei Umwelt und Klimaschutz kann er besser den Eigennutz berücksichtigen. Digitalisierung wird auf die Unternehmensebene herunter gebrochen. Die Gestaltung der Wirtschaft sollte im Vordergrund stehen (dann muss sie automatisch ideologiefrei realitätsnah, zukunftsorientiert und plural sein).

Neuere Konzeptionen und Ansätze in der Ökonomie (welcher Ansatz wird sich durchsetzen?):

"It`s the Economy, stupid", Friedrich Engels.

Vorbemerkung: Ein theoretisches Fundament ist für die empirische Forschung und die Politikberatung unabdingbar. Wichtige Fragen müssen entschieden werden, bevor eine Datenbasis vorhanden ist. Überprüfungen zeigen, dass beim Nachrechnen empirischer Studien oft etwas anderes herauskommt. Nichts ersetzt eine gute Theorie am Anfang. Vgl. Hanno Beck/ Alois Prinz: Nichts ersetzt eine gute Theorie, in: FAZ 8. Februar 2016, S. 18. Theorien verhindern auch Scheinkorrelationen (z. B. Zusammenhang zwischen Zahl der Störche und Zahl der Geburten kann nur durch Theorie als Scheinkorrelation entlarvt werden).

Es gibt noch einen anderen Grund für die Suche nach einem guten und fruchtbaren Ansatz: Die Ökonomie ist als akademische Disziplin hoch ideologieanfällig. Das kann den Blick auf die ökonomische Realität verzerren. Die Ökonomie sollte so objektiv wie möglich agieren, eine klare Sprache wählen (so dass möglichst viele Menschen die Erkenntnisse verstehen) und auch den relevanten Forschungsfragen folgen. Wirtschaftspolitische Empfehlungen beruhen selten auf einer Eins-zu-eins-Umsetzung wissenschaftlich erzielter Erkenntnisse. Meist gibt es eine Mischung von Theorie, Empirie und auch Ideologie. Das ist nichts Schlimmes, muss aber immer transparent gemacht werden. Dazu muss man erstmal einen Überblick über die Ansätze haben.

Wenn man nach innovativen Konzeptionen sucht, sollte zunächst der "Mainstream" charakterisiert werden: Das Menschenbild des Homo Oeconomicus steht im Mittelpunkt. Der methodologische Individualismus herrscht vor. Das Denken zeigt sich in theoretischen Modellen. Der formal-mathematische Ansatz überwiegt. Grundannahme ist Markteffizienz und Marktgleichgewicht. Dazu gehören auch rationale Präferenzentscheidungen, Geld als neutrales Tauschmittel, BIP-Wachstum als wichtigster Indikator des Fortschritts. "Universitäten sind Misthaufen, auf denen manch schöne Blume blüht", Albert Einstein (dieser Spruch erklärt sich aus seiner Biographie; er trifft aber voll auf die Mainstream-Ökonomie an den Unis zu).

Einige solcher neuer Ansätze, die in die Zukunft weisen können, sollen vorgestellt und behandelt werden. Dabei ist Theorievielfalt angesagt (auch bei mir im Unterricht). Man sollte heute in der VWL auf Pluralität bauen und die Studenten in die Lage versetzen, nach Kriterien selbst eine Auswahl zu treffen. Ganz sicher muss der Ansatz der Zukunft ein ganzheitlicheres Verständnis von Ökonomie mit sich bringen.

Meine eigene Position kann ich nicht einem der Ansätze allein zuordnen, sondern ich verorte mich vorwiegend in der Verhaltensökonomik, der Entrepreneurial Economics und der Pluralen Ökonomik. Faktoren wie Nachhaltigkeit, Emotionen, Kontext, Innovationen und Gemeinwohl sind sowieso dabei, so dass man dafür keine eigenen Ansätze braucht. Vgl. auch die Diskussion dazu im Wirtschaftsdienst 2017/12, S. 835ff.

Trotzdem sollte auch der Ökonom immer die Grenzen seines Ansatzes und Denkens kennen und benennen. Die großen Philosophen Sokrates und Laotze wussten schon beide, dass das Bewusstsein des Nichtwissens am wichtigsten ist. Am besten hat dies Kohelet um 300 v. Chr. (besser unter Prediger bekannt) ausgedrückt: "Den Wissenden und den Unwissenden trifft dasselbe Schicksal". Die Erkenntnis des Nicht-Wissens ist die Zierde des Wissenschaftlers. Der Mensch ist im Kosmos bedingt. Insoweit hatte auch Marx mit dem Denken als Überbau recht. Kohelet drückt es so aus: "Alles ist Windhauch und Luftgespinst". Insofern ist jeder Ansatz der Ökonomie auch nur Windhauch im Lauf der Geschichte. Man sollte es als Ökonom nur zugeben.

Seit der Welt-Finanzkrise 2008 ist die Ökonomie in einem großen Umbruch. Die Ökonomie ist von der Dogmatik abgerückt (in Deutschland vor allem an den Fakultäten in Freiburg und Köln). Marktversagen ist mehr ins Blickfeld gelangt, wenn auch Marktlösungen weiterhin staatlichen Vorgaben meist überlegen sind. In der Welt haben die USA unter Trump sich von der alten Weltordnung verabschiedet. China strebt nach der ökonomischen Dominanz und wird die USA ab 2030 irgendwann überholen. Der dynamische Wechsel kennzeichnet heute die Entwicklung in allen drei Bereichen der Ökonomie: in Umwelt, Arbeit und Globalökonomik. Die entscheidende Frage für den Menschen dabei ist: Kann in dieser Entwicklung die Freiheit gewahrt bleiben? Diese aktuellen Trends müssen in einem ökonomischen Ansatz der Zukunft berücksichtigt werden. Die Corona-Krise 2020 legt die Schwächen der herrschenden Ökonomie schonungslos offen. Vgl. auch: Graupe, Silja: Die Blindheit der Ökonomen, in: WiWo 33, 7.8.20, S. 42f.

Ökonomische Phrasendrescherei: "Geldhähne aufdrehen, Märkte fluten, Rettungspakete schnüren, an der Zinsschraube drehen, Konjunkturmotor ankurbeln".

Verhaltensökonomik (Behavioral Economics): Diesen Forschungsbereich gibt es schon sehr lange in der Volkswirtschaftslehre, vor allem wenn man die Klassiker einschließt. In Deutschland wurde diese verhaltensökonomische Forschung nach dem 2. Weltkrieg von Günther Schmölders in Köln aufgebaut. In den Neunzigerjahren wird die Forschungsrichtung in den USA wieder populärer, insbesondere nach der Finanzkrise (bekannter Vertreter Robert Shiller). Emotionen (Gefühle allgemein) und das soziale Umfeld spielen eine größere Rolle als die Rationalität. Gerade an den Finanzmärkten haben irrationale und ineffiziente Elemente (Herdentrieb, Überschätzung) eine große Bedeutung. Kritik an der Verhaltensökonomie kommt auf, weil sie sich zu sehr auf Experimente konzentriert und dabei Testpersonen bewusst "aufs Glatteis führt". Es fehlt sicher eine aussagefähige und konsistente Theorie (vgl. Hanno Beck: Der Mensch ist kein kognitiver Versager, in: FAZ Mo. 11.02.13, Nr. 35, S. 18; auch Ders.: Behavioral Economics, N. Y., Heidelberg, Wiesbaden 2014). Nudge (Nudging) als zentrales Element: Zentraler Fachbegriff aus der Verhaltensökonomik. Er wurde von R. H. Thaler (Nobelpreis 2017) and C. R. Sunstein eingeführt (vgl. Dieselben: Wie man kluge Entscheidungen anstößt, 2009/ USA 2008; ebenso D. Kahnemann: Schnelles Denken, langsames Denken, München 2012, USA 2011). Kahneman führt folgende Bausteine ein: Zwei Selbste, Econs und Humans, Zwei Systeme. "Nudge" ist das Gegenteil eines Verbots oder eines Befehls. Es geht um kluge, durchdachte Entscheidungshilfen und -anstöße.  Damit ist die Kraft, Menschen zu beeinflussen, größer. Beispiele bei Thaler sind eine Fliege im Urinal oder Obst in Griffnähe. Bei total freien Märkten kann Nudge zum Desaster führen, weil die Menschen keine guten Entscheider sind (Argument für die Regulierung von Gesundheitsmärkten). Der Begriff spielt heute auch in der Marketing-Kommunikation eine große Rolle. Die bekannteste Art von Nudges sind Standardvorgaben, die Defaults. Diese sollen Menschen in eine bestimmte Richtung "stupsen". Nudges können die Entscheidungen von Menschen verbessern, wie sie in Form gut aufbereiteter Informationen angeboten werden. Sie können auch die Selbstbindung verstärken (Selbstkontrollprobleme reduzieren; z. B. durch Wetten). In der Praxis kann Nudging in der Wirtschaftspolitik (Gefahr: Verwaltungsfreude, Obrigkeitsdenken), bei Konsumente (Gefahr: Manipulation), in der Alterssicherung und beim Verbraucherschutz bewusst eingesetzt werden. So gesehen ist es sanfter Paternalismus und verhaltensökonomisch fundierte Ordnungspolitik. Die Frage ist, ob unvollständige Rationalität eine hinreichende Begründung ist. Zur Kritik an Nudge werden meist die folgen Argumente angeführt: 1. Der Eigenwert irrationalen Verhaltens wird negiert. 2. Bestimmtes Menschenbild liegt zugrunde (Kahnemann: Menschen sind nicht imstande, kurzfristiges Tun mit langfristigen Interessen abzugleichen). 3. Framing ist an konkretes Ziel gebunden (auch ideologisch). 4. Sozialer Druck wird erhöht. 5. Nudging als Illusion ("optische Täuschung"). Vgl. Schnaas, Dieter: Gütiger Himmel, in: Wirtschaftswoche, Nr. 13, 23.03.15, S. 38f.  "Die Mehrheit in den Wirtschaftswissenschaften denkt den Menschen immer noch als eine egoistische Kreatur, der es nur um den eigenen Vorteil geht und die dadurch auf wundersame Weise für alle Wohlstand schafft. Dieses Menschenbild ist falsch und muss dringend einem Update unterzogen werden. Ein System, das Egoismus belohnt, erzieht zum Egoismus. wir brauchen eine Neubetrachtung der Werte, die Menschen in ihrer kooperativen Lebendigkeit zeigen", in: Maja Göpel: Unsere Welt neu denken, Berlin 2020, S. 72f.

Digitale Ökonomie (Internetökonomie): Machtkonzentration und Totalitarismus durch die Digitalisierung: In der Internetökonomie liegt eine große Gefahr, das Private abzuschaffen und Menschen effektiv zu kontrollieren. Am Anfang steht oft Freiwilligkeit (wie in der Share Economy), dann kommt Profit in der Regel durch Werbung und am Ende Machtakkumulation (alle Informationen über das soziale Leben). Teilweise erhöhen Unternehmen mit diesen Informationen den Druck auf die Menschen (z. B. wenn Versicherungen einen Bonus zahlen, wenn man sein Verhalten kontrollieren lässt). Die Internetunternehmen versuchen auch, an immer jüngere Nutzer heranzukommen. Ein Beispiel ist die Streaming-Plattform "YouNow". Danach muss sich auch die Wettbewerbspolitik neu ausrichten. Sicher gilt in der digitalen Ökonomie zwei Gesetzmäßigkeiten: 1. Information entwickelt sich zum wichtigsten Rohstoff zur Welterschließung ("Informationskapitalismus" löst den "Finanzkapitalismus" ab). 2. Der Mensch selbst wird zur Information und zum Rohstoff. Die Rolle de Menschen verändert sich: Er ist gleichzeitig Datenkonsument und Datenproduzent (große Gefahr der modernen Sklaverei). Er lässt sich aber auch zurichten (Empfehlungen von Streaming - Diensten, Follower). Monopole, insbesondere die aus dem Silicon Valley, gewinnen an Bedeutung (sie werden als Garant des Fortschritts beworben). In der Preisbildung wird das Image immer wichtiger (Beispiel Apple: macht den Preis nicht der Markt). Informationsdienste - etwa Google - streben eigentlich die Integration aller Marktzugänge an. Digital-industrielle Komplexe ersetzen die Gesetze von Angebot und Nachfrage. Vgl. Douglas Rushkoff, Present Shock, Orange Press, 2015; Yvonne Hofstetter, Sie wissen alles, 2015. Deutschland und Europa haben fast kein Internetunternehmen unter den Top 20 der Welt (SAP Ausnahme). Damit fehlt die Schnittstelle in der Wertschöpfung. Die digitale Ökonomie besteht aus mindestens folgenden Bausteinen: Produktion 4.0, Internet der Dinge (kommunizierende Geräte), digitale Transformation (vor allem Dienstleister mit Plattformen), Breitbandausbau. Sie beeinflusst insbesondere folgende Branchen (Rangfolge): Technologie, Medien/ Unterhaltung, Handel, Finanzen, Telekom, Bildung, Gastgewerbe, Fertigung, Gesundheit.  Im internationalen Vergleich ist die deutsche Digital-Wirtschaft nur Mittelmaß. Sie hat großen Nachholbedarf (Studie von TNS Infratest und ZEW 2015). "Wir wissen, wo du bist. Wir wissen, wo du warst. Wir wissen, was du denkst", Alphabet-Chairman Eric Schmidt (Google). "Wir erfüllen eine soziale Mission, indem wir die Welt offener, vernetzter und transparenter machen", Facebook-Chef Mark Zuckerberg 2015.

Entrepreneurial Ökonomie (Managerial Economics): Die Rolle der Unternehmer in der Volkswirtschaft steht im Mittelpunkt. Die "unternehmerische Ökonomik" gilt als Gegenentwurf zu unrealistischen, klassischen Gleichgewichtsmodellen. Die ideengeschichtliche Schule von Joseph Schumpeter steht dabei in der Regel im Vordergrund. Es sollen aber alle ideengeschichtlichen Schulen behandelt werden (zusammen mit Kulturgeschichte, Philosophie und Soziologie). Ich selbst folge diesem Ansatz ganzheitlich und gebe die Trennung von Volks- und Betriebswirtschaftslehre auf. Die Wirtschaft muss immer als Teil der Gesellschaft gesehen werden (Vgl. zu meiner Konzeption die Seite "Dozentenprofil").  Dafür tritt auch eine große Studentengruppe an der Uni Köln ein. Sie nennt sich "Oikos". An der Hochschule für Wirtschaft und Recht in Berlin findet ab 26.11.15 eine dreitägige Konferenz mit dem Titel "Ökonomische Lehre im 21. Jahrhundert" statt. Entrepreneurial Design ist ein künstlerischer Prozess, der ökonomisch, ökologisch und sozial denken voraussetzt. Hinzu kommen die Aspekte "Sympathie, Aufmerksamkeit und Authentizität". Mit den Rahmenbedingungen Fantasie, Mehrfachnutzungen, in Komponenten denken, Ernstbedingungen testen und stimmig zum Markt schließt das Konzept. Am Ende könnte eine Citizen Entrepreneurship stehen. Die wachsenden Probleme unserer Zeit sind nur noch durch tragfähige Unternehmenskonzepte zu lösen. Vgl. Günter Faltin: Wir sind das Kapital. Erkenne den Entrepreneur in Dir. Aufbruch in eine intelligentere Ökonomie, Hamburg 2015. "Wir haben eine Chance, eine bessere Welt zu bauen. Liebevoller, witziger, feinfühliger und künstlerischer, als es jemals zuvor möglich gewesen ist. Aber wir müssen selbst in den Ring steigen, es selbst in Gang bringen, es selbst unternehmen. Es nicht der bloßen Gewinnmaximierung überlassen", Günter Faltin (Text auf dem Umschlag). Vgl. auch: Purpose Stiftung: https://www.purpose-economy.org und https://www.entrepreneurs4future.de .

Plurale Ökonomie (Heterodoxe): Netzwerk von Ökonomen. An vielen Universitäten vertreten. Gegen den Dogmatismus der VWL. Beschäftigung mit Hunger, Umweltzerstörung, Klimawandel, soziale Ungleichheit und Arbeitslosigkeit. Berücksichtigung von historischem und kulturellem Kontext. Mehr Analysen mit qualitativen Methoden. Mehr praktischen Bezug auf die Gesellschaft. Vgl. zu mehr die Homepage: https://www-plurale-oekomik.de . (auch Berliner Studenteninitiative "Was ist Ökonomie?" www.wasistoekonomie.de ). 2015 ist Lisa Großmann Vorsitzende des Netzwerks. Parallel zum Treffen des Vereins für Sozialpolitik in Münster 2015 findet in der Nachbarschaft ein eigener Kongress statt. Die pluralen Ökonomen nennen sich auch Heterodoxe. Wahrscheinlich lässt auch folgendes Buch dieser Richtung zuordnen: Frank Niessen: Entmachtet die Ökonomen! Marburg 2016. Die Plurale Ökonomik steht auf fünf Säulen: Theorienpluralismus, Methodenpluralismus, Historische Fundierung, Wissenschaftstheoretische und ethische Reflexion, Inter- und Transdisziplinarität. Vgl. Ehnts, Dirk/ Zeddies, Lino: Die Krise der VWL und die Vision einer Pluralen Ökonomik, in: Wirtschaftsdienst 2016/10, S. 769ff. Vgl. auch Till van Treeck, Sozialökonomie Universität Duisburg. 2017 erscheint das erste Lehrbuch der Pluralen Ökonomie: Core (Curriculum Open Access Resources Economics, kostenlos nutzbares Online-Lehrbuch der Volkswirtschaftslehre; University College London, Wendy Carlin, unterstützt von George Soros). Vgl. auch Gesellschaft für Sozioökonomische Bildung & Wissenschaft (2016 gegründet in Tutzing, 80 Wissenschaftler aus dem deutschsprachigen Raum).

Marxistische Ökonomie: 1. Die Niederlage des Kapitalismus ist historisch vorbestimmt. 2. Gier und Egoismus determinieren die Kulturen. 3. Von Einkünften aus Kapital profitieren nur die Reichen. 4. Kapital entsteht durch Ausbeuten der Arbeitskraft. 5. Die relative Verelendung der Arbeiter führt zu einer Revolution. 6. Die Diktatur des Proletariats schafft die Grundlagen des Kommunismus, in dem alle Menschen gleich sind. 7. Eigentumsrechte sind abgeschafft und müssen nicht mehr auf Märkten gehandelt werden (Volkseigentum). Marx sah viele Probleme des Kapitalismus voraus, die noch heute eine Rolle spielen (und von Rechtspopulisten behandelt werden). Er sah sich auch sehr genau die Arbeiterklasse und die Kapitalisten an. Managergehälter (einschließlich Pensionsfonds und Lebensversicherungen) kosten die Eigentümer von Unternehmen Abermillionen. Er beschrieb die Folgen der Ausbeutung der Arbeiter. In seiner Krisentheorie spielt das Gesetz von der tendenziell fallenden Profitrate eine große Rolle. Das Kapital vermehre sich schneller als die Arbeit. Irgendwann werde die Rendite der Unternehmen zu gering. Sie würden keine Investitionen mehr wagen. Diese These ist wieder hoch aktuell. Mit zwei Dingen hat Marx richtig gelegen: Mit der Prognose der Globalisierung und der Fragilität der Finanzmärkte (deshalb wurde er auch 2008 wieder aktuell). Im Kern ist auch die Analyse des Kapitalismus richtig: Märkte werden von Unternehmen und Geld dominiert. Unternehmen koordinieren die Produktion und schöpfen den Mehrwert ab. Dafür bieten sie der Gesellschaft Arbeitsplätze an. Preise sind zuverlässige Indikatoren für verdichtete Informationen. Big Data, Künstliche Intelligenz verändern die Spielregeln heute, sie können Angebot und Nachfrage besser zusammenbringen. So stellt sich wieder einmal die Frage, was bleibt von Marx heute (verstärkt im Marx-Jahr 2018!).  Durch die Zusammenbrüche bzw. die Transformation der großen Planwirtschaften in China und Russland, die sich theoretisch mit dem Marxismus legitimierten, haben sich Berührungsängste in der Wissenschaft herausgebildet. Vgl. als aktuelle Literatur auch: Katja Kipping: Wer flüchtet schon freiwillig, Frankfurt/Main 2015. In der Vergangenheit habe ich immer wieder Vorträge zu Karl Marx gehalten (Bedeutung in China, "Keynes meets Marx" bei der Keynes-Gesellschaft u. a). Vgl. auch folgende Biographie: Jürgen Neffe: Marx. Der Unvollendete, München 2017 (Bertelsmann). Neffe erklärt auch die ökonomischen Theorien in verständlicher Form und konfrontiert sie mit der Realität. Er teilt die Gedankenwelt von Marx in folgende Abschnitte ein: Arbeit und Entfremdung, Herrschaft und Eigentum, Kollektiv und Plan, Welt und Gott, Kopie und Original, Kapitel 8.  "Sein Fazit: Marx ist nicht tot, er ist aktueller denn je" (Quelle: Ebenda, Umschlagtext).

Innovative und lernende Ökonomie: Der Anstieg des Lebensstandards beruht in erster Linie auf Produktivitätserhöhungen. Wir müssen lernen, wie wir die Dinge besser machen können. Politische Eingriffe sollten darauf gerichtet sein, das Lernen in der Volkswirtschaft anzuregen. "Es kann nicht angenommen werden, dass Märkte Wissen und Lernprozesse effizient erzeugen und verbreiten. Im Gegenteil: Es ist anzunehmen, dass Märkte nicht effizient sind" (Joseph E. Stiglitz/ Bruce C. Greenwald: Die innovative Gesellschaft, Berlin 2015, S. 47). Die Theorie des komparativen Vorteils muss heute neu definiert werden: Heute sind Wissen und Lernfähigkeit entscheidend. So muss gelernt werden, Organisationen und Gesellschaften zu führen. Ebenso müssen die Fähigkeiten und Lernen erlernt werden. Der Prozess des Lernens umfasst "Learning by Doing", Lernen durch Lernen, Lernen von anderen, Lernen durch Handel, Technologie verbessern. Lernen hängt ab von Lernfähigkeit, Zugang zu Wissen, Katalysatoren, Kontakten, kognitivem Rahmen und Kontext. Lernen hat Spillover-Effekte. Vgl. ebenda S. 92ff.

Barfuß-Ökonomie: Sie wurde von dem chilenischen Ökonom Manfred Max-Neef entwickelt. Sie stellt ein System von Thesen dar. Kern ist die Kooperation und das Motto "Small is beautifull" . Der deutschstämmige Wissenschaftler lebte lange in Slums bei Kleinbauern. Er übernahm auch die Genossenschaftsidee von Raiffeisen. Diese soll 2016 von der UNESCO als Kulturstandard zum deutschen Weltkulturerbe ernannt werden.

Zivilkapitalismus: "Zivilkapitalismus bedeutet, dass der verantwortungsvolle Bürger sich die Ökonomie aneignet, als Ganzes, als Gestaltungsmittel, als Instrument zur Weltverbesserung", s. Wolf Lotter, Zivilkapitalismus, Wir können auch anders, München 2013, Umschlagtext. Kapitalismus ist ein Kind der Aufklärung. Nichts hat die Lage der Welt so verbessert wie er. Es ist die einzig bekannte Methode zum Erzielen von Wachstum und Gerechtigkeit. Er hat sich in allen Kulturen durchgesetzt. Aber der Kapitalismus befindet sich in einer Krise. Deshalb sollte sich der Bürger Ökonomie als ein Mittel der Befreiung, zur Selbständigkeit und zur Wahrung der Menschenwürde aneignen. "1. Wir sind erwachsen, 2. Wir sind selbst bestimmt, 3. Wir ermöglichen Zugänge, 4. Zivilkapitalisten gehören sich selbst, 5. Zivilkapitalismus ist eine Graswurzelbewegung, 6. Zivilkapitalismus ist Realwirtschaft, 7. Zivilkapitalismus ist Interesse am anderen, 8. Zivilkapitalismus stärkt die Übersichtlichkeit, 9. Zivilkapitalisten sind fortschrittlich, 10. Was zu tun  ist; ebenda, S. 209ff.

Gemeinwohl-Ökonomie: Das Konzept wurde vom österreichischen Attac-Mitbegründer Christian Felber entwickelt. Im deutschsprachigen Raum gibt es etwa 1400 Unternehmen, überwiegend kleinere, die sich dem Konzept verpflichtet fühlen. Ein Drittel legt jährlich eine entsprechende Bilanz vor. Langfristig wird angestrebt, eine solche Bilanz gesetzlich verpflichtend zu machen. Unternehmen mit einer guten Gemeinwohlbilanz sollen von niedrigeren Steuern, günstigeren Krediten und Bevorzugung bei der Auftragsvergabe profitieren. Manche zählen auch die Sozialunternehmen dazu. So etwa "morethanshelters" (2012 von Daniel Kerber gegründet). Das Unternehmen betreut soziale Projekte, wie etwa das Flüchtlingscamp Saatari in Jordanien., das modulare Zeltsystem Domo und eine Innovations- und Planungsagentur. Hier gehen auch Crowdfunding - Gelder und Fördergelder ein. Am besten haben die Genossenschaften diese Idee berücksichtigt. Sie ist also schon viel älter. Das Credo der Genossenschaftsidee ist: Eigenverantwortung durch Selbsthilfe, Selbstverantwortung und Selbstverwaltung.  Das Revolutionäre seiner Idee liegt darin, Kredite und Geschäftsanteile als soziales Bindemittel zu sehen. Kreditgeber und Kreditnehmer sind Mitglieder. Es herrscht Symmetrie der Macht. Die Mitglieder helfen sich selbst, es fließen keine Mittel an Investoren. Das Motto lautet "Hilfe zur Selbsthilfe", Mildtätigkeit reicht nicht aus. Menschen verfolgen nicht nur egoistisch wirtschaftliche Ziele, sondern können partnerschaftlich zusammenarbeiten und kooperieren bei Geschäftsprojekten. Das schont ganz erheblich Ressourcen. Die Genossenschaftsidee ist damit auch nachhaltig. Versucht man die Genossenschaftsidee auf den Punkt zu bringen, besteht sie aus drei Prinzipien: Selbstversorgung (Menschen nehmen ihre eigenen Interessen in die Hand), Selbstverwaltung (jedes Mitglied hat das gleiche Stimmrecht), Selbstverantwortung (alle Mitglieder haften für die Genossenschaft). Die Genossenschaft ist von der Finanzierung her ein Beteiligungsmodell. Jedes Mitglied zahlt in das Genossenschaftsvermögen ein und erhält Anteile. Sie bilden das Eigenkapital des Unternehmens. Jedes Mitglied hat eine Stimme unabhängig von der Höhe der Einlage (anders als bei der AG). Entscheidungen dauern länger, haben aber eine breitere Basis.

Solidarische Ökonomie: Sie wurde 2008 ins Leben gerufen als Arbeitsgemeinschaft in der Stiftung Ökumene. Es geht um Alternativen zur kapitalistischen Wirtschaftsweise. Entwickelt werden Modelle einer lebensdienlichen, solidarischen und zukunftsfähigen Ökonomie. Vgl. www.akademie-solidarische-oekonomie.de . Vgl. auch: Simon, Klaus: Zwickmühle Kapitalismus. Auswüchse und Auswege, Marburg (Tectum-Verlag) 2014. Solidarische Ökonomie stellt nicht den eigenen Vorteil und das Profitstreben in den Mittelpunkt (Bedürfnisse der Mitarbeiter und Gemeinschaft; nicht konkurrieren, sondern kooperieren; eigene Initiative und Selbstorganisation). Im Brennpunkt stehen Commons (Gemeinschaft entsteht durch Gemeingüter). Entscheidenden Einfluss auf diese Richtung dürfte das Standardwerk von Elmar Altvater von 2005 gehabt haben: "Das Ende des Kapitalismus, wie wir ihn kennen". Hier plädiert Altvater ("der profilierteste undogmatischer Marxist der Bundesrepublik", Der Spiegel, 19/2018, S. 133) schon für eine solare und solidarische Gesellschaft. Altvater ist 2018 gestorben.

Konzept des Zivilen Ungehorsames (Revolution ohne Gewalt):  Maßnahmen von NRO, Ökoräten und Institutionen der direkten Demokratie: 1) Steuerboykott: Möglichst auf Massenbasis. In Deutschland keine Straftat. Der Staat kann aber die Steuerschuld zwangsweise eintreiben. 2) Wahlboykott: Als Mittel zivilen Ungehorsams, weil heutige Parteien, Parlamente und Regierungen die Probleme der Umweltzerstörung, Klimawandels und geplanten Obsoleszenz sowie des Zockerkapitalismus nicht lösen. 3) Konsumverweigerung, Produktstreik und Produktumstellung: Wirkt nur organisiert als Massenphänomen. 4) Generalstreik: Wirksamstes Mittel. Vgl. Jürgen Bruhn: Die Bestie zähmen. Wege aus dem Raubtierkapitalismus in eine Neue Ökonomie, Marburg 2015.

Kontextuale Ökonomie: Sie betrachtet wirtschaftliche Prozesse im Zusammenhang mit gesellschaftlichen, kulturellen und historischen Entwicklungen. Es ist also eine sozialwissenschaftliche Ökonomie. Sie steht in einem ständigen Dialog mit Historikern, Psychologen und Soziologen.

Emotional Economics: Dynamische, zeitabhängige Prozesse bei den Auswirkungen von Arbeitsbelastung. Insbesondere Folgen von psychischem Stress. Auch Zusammenhänge zwischen Emotionen und ökonomischem Verhalten, insbesondere auch im finanziellen Bereich. Vgl. www.emotional.economics.uni-mainz.de; (auch Vertreterin an der Uni Heidelberg).

Postwachstumsökonomie (ökologische Ökonomik): Alternative zum Denken in Wachstumskategorien und zur neoklassischen Volkswirtschaftslehre, die die Finanzkrise 2008 nicht vorhergesehen hat.  Wachstumskritik. Vertreter: Niko Paech. Vgl. Felix Rohrbeck, Der Verstoßene, in: Die Zeit, Nr. 11, 09. März 2017, S. 28. Der Nachhaltigkeitsaspekt sollte eigentlich Bestandteil jeder Volkswirtschaftslehre sein, insofern ist der Begriff tautologisch. Eine ökologische Priorität ist sowieso unerlässlich für das Überleben der Menschheit. Paech will die gesamte Wirtschaft schrumpfen. Er will das sogar im Alltag vorleben. Der britisch Ökonom Tim Jackson rechnet sich auch der Bewegung zu (im Englischen "Degrowth"). Gegner dieser Bewegung verweisen immer wieder darauf, dass man Wachstum braucht, um einen Sozialstaat zu finanzieren (Umverteilung). Vgl. Katharina Matheis: Es reicht jetzt, in: Wirtschaftswoche 1/2 2018, 05.01.18, S. 62f. Paech entwirft eine Konzeption, um institutionelle Innovationen politisch zu flankieren: Bausteine sind 1. Suffizienz. 2. Subsidenz. 3. Regionale Ökonomie. 4. Globale Arbeitsteilung. Zur Postwachstumsökonomie hinzu kommen müssen eine Reduzierung der Arbeitszeit auf 20 Stunden und ein entkommerzialisierter Bereich. Vgl. Paech, Niko: Befreiung vom Überfluss. Auf dem Weg in die Postwachstumsökonomie, München 2012. Vgl. auch: Wellbeing Economy Alliance (Globales Netzwerk von Organisationen und Individuen, die zu einer Ökonomie im dienst von Natur und Menschen forschen, experimentieren, publizieren, sich organisieren und zunehmend vernetzen): https://www.wellbeingeconomy.org . "Souverän ist nicht, wer viel hat, sondern wenig braucht", Niko Paech (Umschlagsrückseite).

Freakonomics: ökonomische Auswertung von originellen natürlichen Experimenten am Rande der Ökonomie (Fernseh-Spielshows, Sumo-Ringen). Zuerst kommt die "sexy" Datenlage und dann wird "clever" mit einer interessanten Fragestellung das Beste daraus gemacht. Vgl. Steven Levitt/ Stephen Dubner: Freakonomics, 2005; mehr: Freakonomics Blog . Die Grundidee dieser Richtung geht auf den US-Nobelpreisträger Gary Becker zurück. Ausgangspunkt ist seine Definition des ökonomischen Ansatzes: "Wenn die beiden Annahmen, dass Menschen Maximierer sind und Märkte weitgehend frei und wettbewerbsorientiert , machen sie zusammen den Kern des ökonomischen Ansatzes aus", Gay Becker (The Economic Approach to Human Behavior). Gary Becker war dafür bekannt, die gesamte Ökonomie durch die Brille des eigennützigen homo oeconomicus zu sehen ("Ökonomik von Allem"). Er schrieb eine sehr interessante Doktorarbeit mit dem Titel "The Ecomonics of Discrimination". Er konzentriert sich darin auf die Idee, dass Heuchelei für den Heuchler kostspielig ist. Das Buch ist sehr lesenswert, weil es an das Grundproblem der USA geht. Becker ignoriert die Motivation der Arbeitgeber. Besser können die Grenzen der Ökonomie bei einer Analyse nicht deutlich werden.

Faironomics: Die Welt sollte fairer und ökologischer sein. Wie kann man sie dazu machen? Dazu sollten konkrete Wege aufgezeigt werden. Da ist der Inhalt dieser ökonomischen Richtung. Eine bessere Welt sit machbar, wenn wir unsere Unternehmen, Organisationen und Initiativen so gestalten, dass eine ökosoziale Welt entsteht. Vgl. Koglin, Ilona/ Rohde, Marek: Faironomics, München (dtv) 2019

Kate Raworth: Die Donut-Ökonomie, München (Hanser) 2018. Die englischsprachige Originalausgabe ist 2017 in London erschienen: Doughnut Ecomomics. Seven Ways to think Like a 21sr-Century Economist. "Das Wesen des Donuts: ein gesellschaftliches Fundament des Wohlergehens, unter das niemand abstürzen sollte, und eine ökologische Decke des planetarischen Drucks, über die wir nicht hinausgehen sollten. Zwischen beiden Bereichen liegt ein sicherer und gerechter Raum für alle", S. 20. Wenn das Ziel der Menschheit im 21. Jahrhundert darin besteht, in das Innere des Donuts zu gelangen, welche ökonomische Denkhaltung eröffnet uns dann die besten Chancen, dies zu erreichen?", S. 20.  "Das machtvollste Werkzeug in der Ökonomie ist nicht das Geld, auch nicht die Mathematik. Es ist der Bleistift. Denn mit einem Bleistift kann man die Welt neu zeichnen", S. III. Vgl. www.kateraworth.com . Ihr Konzept besteht aus sieben Denkansätzen: 1. Das Ziel ändern. Der Donut. 2. Das Gesamtbild erfassen. Eingebettete Ökonomie. 3. Die menschliche Natur pflegen und fördern. Sozial anpassungsfähiger Mensch. 4. Den Umgang mit Systemen lernen. Dynamische Komplexität. 5. Auf Verteilungsgerechtigkeit zielen. Von vornherein Verteilungsgerechtigkeit anstreben. 6. Eine regenerative Ausrichtung fördern. Von vornherein regenerativ ausrichten. 7. Eine agnostische Haltung zum Wachstum einnehmen. Agnostisch gegenüber  Wachstum.

Feministische Ökonomik : Feministische Ökonomik scheitert oft schon bei der Definition. Geht es um die Interessen der Frauen oder um weiblichere Techniken und Strategien bzw. um Ökonominnen. Der Begriff ist oft ideologisch besetzt. Besser wäre der Begriff "Gender Economics". Das ist auch das Leitthema 2020 bei der Jahrestagung des Vereins für Sozialpolitik. "Im VWL -Studium liegt der Frauenanteil bei 30 Prozent. In der Professorenschaft ist er noch niedriger, da zählt der Frauenanteil in Deutschland europaweit zu den niedrigsten," Nicola Fuchs-Schündeln, Professorin für VWL an der Uni Frankfurt und Vorsitzende des Vereins für Sozialpolitik, in: WiWo 39/ 20.9.2019, S. 40f.

Volkswirtschaftslehre 4.0: Volkswirtschaftslehre steigt in ihrer Bedeutung mit der Digitalisierung und Globalisierung stark an. Das zeigt sich auch konkret darin, dass die großen Tech - Firmen, insbesondere im Silicon Valley, ihre volkswirtschaftlichen Abteilungen massiv ausbauen. Sie sollen bei der Suche nach neuen Geschäftsmodellen helfen. Auf der anderen Seite bieten die Datenflut und die Plattformen Ökonomen neue Möglichkeiten, Theorien und Hypothesen zu testen. Die vorrangigsten Aufgabe der Volkswirte ist aber, Muster zu erkennen (Algorithmen), Szenarien durchzuspielen und neue Start - ups in ihren Strategien auszurichten. Die angewandten Hochschulen in Deutschland (frühere Fachhochschulen, oder die dualen Hochschulen) haben auf diesen Trend noch nicht reagiert. Sie handeln anti-zyklisch. Die Mechanismen der Selbstverwaltung sind zu stark politisch (durch Finanzen) gegängelt und zu stark an den eigenen Berufszielen (oft Lebensqualität) ausgerichtet. Vgl. Buhse, Malte: VWL 4.0: Wie Wissenschaft und Techunternehmen voneinander lernen, in: Wirtschaftswoche, 50/ 2.12.16, S. 40f.

Narrative Economics: 2019 wird das gleichnamige Buch von Robert Shiller (Yale; emeritiert; Wirtschaftsnobelpreis 2013) erscheinen. Er meint damit eine neue Erklärung für Krisen und wirtschaftlichen Erfolg gefunden zu haben. Es ginge bei der Wirtschaft um Geschichten. Narrative seien nicht nur bloße Erzählungen, sondern sie interpretieren Ereignisse und geben ihnen so eine Bedeutung. Narrative seien ansteckend und prägten so das Denken und Handeln der Menschen. Erzählungen können die Wirtschaft maßgeblich beeinflussen. Besonders einflussreich seien Geschichten mit Moral. Als Beispiele nennt er Trump und die Geschichte um Blockchain. Im Januar 2017 stellt Shiller seine Konzeption auf dem Treffen der Ökonomen in Chicago vor. Geschichten müssen nicht unbedingt wahr sein, um Wirkung zu entfalten (Beispiel: Laffer - Kurve). Vgl. Buchter, Heike: Erzähl mir was! in: Die Zeit Nr. 45, 31. Oktober 2018, S. 30. Es ist im Zuge dieser Richtung auch zu einer Veränderung von Narrativen gekommen. Die neoklassische Grundidee, dass Unternehmen nach Gewinnmaximierung streben, wurde in den Anspruch auf eine Mindesteigenkapitalrendite entsprechend dem Marktdurchschnitt transformiert. Dadurch gewannen Kapitalmärkte an Bedeutung und verzeichneten auch Wertzuwächse, die das Wachstum der Wirtschaftsleistung übersteigen. Ökonomen unterschätzen seiner Meinung nach die Bedeutung von Narrativen für die Wirtschaft. Auch die Greta-Euphorie sei eine bedeutsame "große Erzählung". 2020 im März erscheint die deutsche Übersetzung von "Narrative Economics" im Plassen-Verlag.  Die "Global Solutions Initiative", die der ehemalige Präsident des Instituts für Weltwirtschaft in Kiel Dennis Snower, ins Leben gerufen hat, soll eine Gemeinschaft internationaler Thinktanks sein. Es geht um Wert und Normen und wie man diese schmieden kann. Vgl. Gespräch mit Uwe Jean Heuser in Die Zeit, Nr. 6, 31. Januar 2019, S. 24f.

Pragmatischer Problemlöseansatz: Statt Modelle stehen Probleme und Projekte im Vordergrund. Es geht um Kita - Plätze, Organspenden, Rettung von Korallenriffen und ähnliches. Datenanalysen, Labor- und Feldexperimente sollen als Werkzeugkasten konkrete Probleme lösen. Ökonomen sehen sich als Marktingenieure.  Vorreiter dieser Richtung ist der Nobelpreisträger Alvin Roth (2012), der über "Matching" forschte  (Zusammenbringen von Angebot und Nachfrage auf Märkten ohne Preise). Vgl. Elke Pickartz: Plötzlich nützlich, in: Wirtschaftswoche 42/06.10.17, S. 66f.

Verschwörungstheorien: Sie beseitigen den Zufall und geben dem Einzelnen eine Chance, eine simple Erklärung für etwas zu finden, was ihn nervt oder verängstigt. Man kann sich aus der Masse hervorheben und als einziger verstehen, "wie der Hase läuft". Ursachen sind oft Verunsicherung und Marginalisierung. Seit dem Wahlsieg von Trump in den USA sind die Verschwörungstheorien wieder auf dem Vormarsch (nach Umfragen 40% aller Amerikaner), auch in der Volkswirtschaftslehre. Häufig wird eine Verbindung eingegangen mit Populismus. Letztlich führt dies zu Fragmentierungen in der Gesellschaft, die gefährlich für die Demokratie sein können. In der Corona-Krise 2020 haben Verschwörungstheorien Hochkonjunktur. Die einen verbreiten, dass die Chinesen den Virus als Kampfstoff einsetzen (kommt aus einem Labor in Wuhan, das vom Militär kontrolliert wird; Mao schwamm in Wuhan durch den Fluss, um seine Gesundheit im hohen Alter unter Beweis zu stellen). Andere rufen zum Widerstand gegen  den Staat im Shutdown auf, weil er die Diktatur schaffen will (Evangelikale in den USA, orthodoxe Juden in Israel, Rechtsradikale in Europa). Verschwörungstheorien haben die wichtige sozialpsychologische Funktion, Menschen Halt zu geben. Teilweise bilden sich um einzelne Theorien auch Gruppen, wie zum Beispiel Q. Typisch für Verschwörungstheoretiker ist die These: "Es gibt geheime Mächte, die die Welt steuern". Dabei denken viele auch an Wirtschaftsunternehmen, Banken oder das Finanzkapital. In Deutschland könnten bis zu einem Drittel der Bevölkerung Sympathien für solche Theorien haben. Quelle: Umfrage 2020, Konrad-Adenauer-Stiftung.

Volkswirtschaftslehre für eine unsichere Welt (John Kay, Universität Oxford): Er fordert eine neue Art von Volkswirtschaftslehre, die für eine unsichere Welt geeignet ist. Er gründete auch die Denkfabrik "Institute for Fiscal Studies" in London. Er fordert einen neuen Begriff des Risikos. Vgl. Thomas Fischermann: Chance oder Risiko, in: die Zeit 31, 25. Juli 2019, S. 21. "Ich glaube, dass Unwägbarkeiten eine gute, anregende Sache sind", John Kay.

Netzwerk für ein neues Denken (Forum for a new Economy): 2019 bildet sich weltweit das Forum New Economy. Es ist ein Netzwerk von Ökonomen für ein neues Denken. Man knüpft bei Thomas Kuhn an, der sich mit Denkrevolutionen beschäftigte. Es geht um Alternativen zur reinen Marktlehre. Die Diskrepanzen zwischen Theorie und Praxis in der Ökonomie sollen verschwinden. Vgl. https://www.newforum.org. https://www.neweconomicsforum.com.

Coronomics: Das ist der Titel eines Buches von Daniel Stelter, das 2020 in der Corona-Krise entstanden ist (Frankfurt/ New York 2020, Campus). Der Untertitel des Buches zeigt deutlich, worauf sich der Begriff bezieht: Nach dem Corona-Schock: Neustart aus der Krise. Im Kern geht es also um die Logik, was zumacht, muss auch wieder aufmachen. Man könnte den Begriff auch umfassender interpretieren, wenn man ihn auf die Welt der Ökonomie nach Corona bezieht. Stelter selbst wagt folgende Prognose: Aktive Notenbanken, aktive Staaten, Abkehr von der Globalisierung. Neue Prioritäten: Investition statt Konsum. Echte Reformen von Staat und Gesellschaft.

Vgl. auch: New Economics Foundation. www.neweconomics.org . Fundierte Quellen zu alternativen Ansätzen der Ökonomie mit Analysen und innovativen Vorschlägen zu aktuellen Debatten.

"Die einzigen Räder, die der Nationalökonom in Bewegung setzt, sind die Habsucht und der Krieg unter den Habsüchtigen, die Konkurrenz", Karl Marx, MEW, 40, S. 511.

 

Zur Rolle der Ökonometrie/ Statistik in der Ökonomie:

Zwischen Mathematik, Statistik und Ökonomie finden wir eine neue Disziplin, die man Ökonometrie nennen könnte", Ragnar Frisch, Norwegen, (1895-1973). Er begründete in den 1930er-Jahren diese Disziplin. Er leistete Pionierarbeit bei der Anwendung mathematischer und statistischer Verfahren in den Wirtschaftswissenschaften. 1969 erhielt er zusammen mit Jan Tinbergen den ersten Nobelpreis für Wirtschaftswissenschaften. Die erste quantitative Wirtschaftsanalyse im großen Stil veröffentlichte Gregory King 1696: Natural and Political Observations.

"Gerade in wirtschaftlich schwierigen Zeiten sind einigermaßen valide Zahlen unverzichtbar. Allerdings wird die Wirtschaft immer schnelllebiger. Neue Informationen können mittlerweile schnell die Gemengelage verändern", Christoph Schmidt, Vorsitzender des Sachverständigenrats für Wirtschaft, 2019.

Der Abakus ist eine uralte Rechenmaschine. Er ist in einigen Ländern Wahrzeichen der Statistik (auch in Deutschland). Dieser Abakus auf dem Bild steht in einem Park in Xi ´an, der alten, zentralen  chinesischen Kaiserstadt. Noch heute wird in ländlichen Gegenden Chinas oder in Sibirien in kleinen Läden an der Kasse mit dem Abakus gerechnet.

In der Ökonometrie werden statistische Methoden und mathematische Testverfahren und Daten auf Zusammenhänge der Volkswirtschaftslehre angewendet. Oft werden historische Daten in mathematische Modelle eingesetzt, um Wechselwirkungen zwischen ökonomischen Parametern abzubilden und Verhalten zu prognostizieren. Meist wird mit Computersimulation auch eine Prognose von Wachstum, Inflation oder Beschäftigung erstellt. Der Schwerpunkt liegt aber immer auf Ergebnisgrößen der Volkswirtschaft (Wachstum, Schulden). Dabei sind Ursache und Wirkung schwer zu trennen. Letztendlich soll eine statistische Basis geliefert werden, mit der sich Theorien beweisen oder widerlegen lassen. "Lass Vergangenes nicht dein Leben diktieren, doch nutze es als Ratgeber für deine Zukunft", aus China.

Die Volkswirtschaftslehre muss somit Vorstellungen vermitteln über die Wirkungen wirtschaftspolitischer Maßnahmen. Es muss eine Wirkungsschätzung erfolgen, so dass eine Bewertung der Wirtschaftspolitik mittel eines Modells möglich ist. Am wichtigsten sind dabei die Multiplikatoren (Haavelmo-Theorem, Investitionsmultiplikator). Je nach Situation müssen unterschiedliche praktische Konsequenzen aufgezeigt werden. Im Grundlagenunterricht stelle ich ein stark vereinfachtes IS-LM-Modell (nach Keynes in der Version von Hicks) in den Mittelpunkt. Dabei gehe ich von der Verwendungsgleichung aus und setze den Staat und das Ausland ceteris paribus. Damit kann ich mit leichtem mathematischen Aufwand den Multiplikator und das güterwirtschaftliche Gleichgewicht ableiten. Lernziel sind dann die beiden Fallen bei Keynes: die Liquiditätsfalle und die Investitionsfalle. Anhand der Funktionsweise der Fallen kann man gut aktuelle Situationen analysieren (z. B. die Wirtschaftspolitik in Japan). "Volkswirte dienen dem Volk, nicht der Politik. Doch hören die Politiker ihnen nur zu, wenn es auch das Volk tut", Hans-Werner Sinn 2016 (zitiert nach Capital, Ausgabe 2/ 2016, S. 66.

Ein großer Irrtum ist aber, dass empirische ökonometrische Analysen klare Antworten auf wirtschaftspolitische Fragen geben können. Es gibt immer Alternativen und einen Bewertungsspielraum. Die Entscheidungen treffen Regierungen und Parlamente. Der Wissenschaftler muss Transparenz und Offenheit wahren, so dass dieser Spielraum immer erkennbar ist. In der Politikberatung sind in der Regel immer gegensätzliche, oft auch parteipolitische, Gegensätze im Spiel. Insofern müssen den Grundlagen Aussagen über die Rahmenbedingungen, Nebenbedingungen und die Abhängigkeiten hinzugefügt werden. Gerade im Fall der Rechenfehler bei Reinhart und Rogoff zeigt sich, wie wichtig es ist, Daten und Rechenwege offen zulegen. Vergangene Theorie garantieren auch nicht, dass die Märkte sich in Zukunft genauso verhalten. Alle erdenkbaren Variablen können nie berücksichtigt werden. Absolute Gewissheiten kann es in der Ökonomie nicht geben (wenn dies jemand behauptet, ist Misstrauen angebracht). "Vieles von dem, was wir über ökonomische Phänomene wissen wollen, lässt sich ohne technische, ganz zu schweigen von mathematischen, Verfeinerungen der üblichen Denkweisen und ohne ausgefeilte Behandlung statistischer Zahlen entdecken und feststellen", Joseph Schumpeter, The Common Sense of Econometrics, Econometrica 1, Nr. 1 (1933), S. 5-12.

Die ökonomische Theorie kann auch keine klaren Aussagen zur Lösung wirtschaftspolitischer Probleme liefern. Wird ein gegenteiliger Eindruck von Wissenschaftlern erweckt, handelt es sich um Ideologie oder Manipulation (deshalb sprechen Politiker auch oft von "so genannten Experten"). Da aber die Theorie immer Basis statistischer Modelle ist, können diese nicht mehr. Insbesondere psychologische Faktoren sind schwer einbaubar und messbar. Mangelndes Vertrauen in die Schuldenfähigkeit der EU in der ganzen Welt (USA, Asien) ist auch ein Schlüssel, die Krise in Euroland zu verstehen. "Die Methode der rechtzeitigen Fehlerkorrektur ist nicht nur eine Weisheitsregel, sondern geradezu eine moralische Pflicht: Es ist eine Pflicht zur dauernden Selbstkritik, zum dauernden Lernen, zu dauernden kleinen Verbesserungen unserer Einstellung", Karl Popper.

Insofern sollte die Volkswirtschaftslehre Objektivität wahren, indem die Regeln der Wissenschaft eingehalten werden (dies muss notwendig zum Selbstverständnis gehören, vgl. oben). Vorrangig muss Transparenz (auch Offenlegung der Bezahlung), Offenheit, Zuverlässigkeit und Gültigkeit  gewährleistet sein. Werden diese Regeln nicht eingehalten, werden die Volkswirte ihren Einfluss, der ohnehin gering ist in der Wirtschaftspolitik und in den Institutionen der Wirtschaftspolitik gegenüber den Juristen, noch mehr verlieren. Die Unabhängigkeit von Ökonomen könnte besser abgesichert werden. "Und der schlimmste von allen menschlichen Schmerzen ist der, große Einsicht zu haben und keine Macht", Herodot (aus der Rede des Persers Attaginos).

Großen Schaden für das Renommee der Ökonometrie richten Wirtschaftsberichte an, die nur Instrumente im Parteienstreit sind. Die Instrumentalisierung der Statistik hat erheblich zugenommen. Große Zahlen werden systematisch in der politischen Argumentation eingesetzt und sollen Sicherheit suggerieren (z. B. Beschäftigungseffekte von Mindestlohn und TTIP; vgl. Die Zeit, Nr. 5, 30.01.15, S. 23: Petra Pinzler, Nützliche Ideologien). Fundamental ist immer die Frage, wer das Institut finanziert (z. B. IW  Wirtschaft und Unternehmerverbände, deshalb auch Vorsicht bei Stellung zum Mindestlohn). "Kostprobe" 2015: "Stimmt es, dass die Kluft zwischen Armen und Reichen wächst? Schauen wir uns die Vermögensverteilung an, so ist in längerer Frist keine Veränderung festzustellen", Michael Hüther, Direktor des IW 2015 (Handelsblatt, Nr. 19, Mittwoch 28.01.15, S. 2). Kein Kommentar! Oder folgende Antwort: "Er war nicht reich, er verfügte nur über unerschöpfliches Taschengeld", Bodo Kirchhoff, Dichter, geb. 1948. Das gilt vor allem beim Einmischen in Wahlkämpfe (Beurteilung der Vermögensteuer durch ZEW).  Systematisch werden in diesen Berichten bestimmte Aspekte ausgeklammert (starke Vereinfachung). Wer z. B. niedrige Steuern, mehr Investitionen und weniger Schulden fordert, sollte auch den ökonomischen Weg dahin aufzeigen. Eine besondere Instrumentalisierung kann man bei Prognosen beobachten. Ständige Wirtschaftsprognosen dienen nur noch interessengeleiteter Politik (immer Institutionen wie Destatis oder Eurostat bevorzugen bei der Info-Abfrage). Bei vielen wichtigen Fragen sind viele Institute auch nicht mehr nur Informationslieferanten und Erklärer, sondern sie machen selbst Politik. Vgl. zu anschaulichen Beispielen: Mark Schieritz, Wahlen mit falschen Zahlen, in: die Zeit Nr. 30, 18. Juli 2013, S. 8. Ohne die ökonomischen Analysemethoden kann man aber auf der anderen Seite komplexe Wirtschaftsbeziehungen national und international weder verstehen noch steuern.  Das "Abwägen von Alternativen" (M. Burda, Quelle: Die Zeit 39/19. Sep. 2013, S.33) sollte ebenso wie maximale Transparenz (was ist Wissen, was ist Vermutung) im Vordergrund stehen. Gerade hierbei sieht man, welch hohes Gut die institutionelle Unabhängigkeit von Professoren und Hochschulinstituten ist. Vgl. Christoph M. Schmidt: Kodex für Politikberater, in: Die Zeit Nr. 40, 26. Sep. 2013, S. 39. Auch: Expertenwissen im politischen Prozess - Nutzen, Grenzen und Gefahren, in: Wirtschaftsdienst 2017/ 4, S. 239ff.  "I strongly feel that the chief task of the economic theorist or political philosopher shoud be to operate on public opinion to make politically possible what today may be politically possible what today may be politically impossible", F.A. von Hayek (Denationalisation of Money, London 1977).

Für die Hochschulen oder andere Institutionen, die mit empirischen Daten arbeiten, ist der Zugang gut und wird immer besser, aber die Kosten sind oft zu hoch. Gerade kleinere Einheiten und einzelne Professoren können sich größere Datensätze nicht leisten.  Weiterhin fehlen Daten hinsichtlich der Evaluierung von Gesetzen. Zum Beispiel beim Mindestlohn  können entsprechende Daten zur Versachlichung beitragen. An der Hochschule ist der Statistikunterricht oft veraltet. Gebraucht werden weniger Rechenqualitäten (hier sind die Computer nicht zu schlagen), sondern mehr Anwendungs - Einschätzungen (welche Methode ist die beste?) und  Interpretationsfähigkeiten. "Statistical Literacy"  nennt man die Allgemeinbildung zur Interpretation von Statistiken. Behauptete Zusammenhänge sollten auch immer kritisch gesehen werden. Vgl. Gerd G. Wagner: Neue Offensive, in: Die Wirtschaftswoche, Nr. 7, 10.02.14, S. 42 und "Mehr Transparenz wagen", Interview mit Monika Schnitzler, Vorsitzende des Vereins für Sozialpolitik, in: Wirtschaftswoche, Nr. 36, 1.9.2014, S. 40-42.. "Es ist erwiesen..., dass die Dinge nicht anders sein können, als sie sind, denn da alles zu einem Zweck geschaffen worden ist, muss es natürlich zum besten Zwecke sein", Professor Pangloss aus dem Roman "Candide" von Voltaire.

Der Einfluss von Wirtschaftswissenschaftlern in den Medien und auf die Wirtschaftspolitik kann nur schwer gemessen werden. Immer wieder wird als Indikator das FAZ-Ökonomenranking genannt. Es besteht aus drei Teilbereichen: Forschung, Medien und Politik. Daneben gibt es eine Gesamtwertung. Vgl. Haukamp, J./ Thomas, T./Wagner, G. E.: Welchen Einfluss haben Wissenschaftler in Medien und auf die Wirtschaftspolitik, in: Wirtschaftsdienst 2015/1, S. 68ff. In letzter Zeit geraten Ökonomen und Politiker immer häufiger aneinander. Das mag damit zu tun haben, dass die meisten "Main Stream" - Ökonomen Neoliberale sind und in der Großen Koalition Gerechtigkeitsfragen wieder mehr Gewicht gewinnen. Ökonomen bringen immer mehr ihre politische Überzeugungen und Grundhaltungen ein. Sie lösen sich damit vom kritischen Rationalismus (Popper) und werden politisch abhängig (vgl. Petra Pinzler, Die Zeit, a. a .O), befriedigen damit aber zumindest ihre Eitelkeit (nicht seltene Eigenschaft bei Professoren). "Der Einfluss der Ökonomen war noch nie so groß wie heute", Clemens Fuest (zitiert nach Capital, Ausgabe 2/ 2016, S. 68).

Ein großes Betätigungsfeld für empirisch - ökonometrische Studien wäre die Evaluationsforschung. Sie könnte untersuchen, ob politische Projekte wirklich erfolgreich sind. Das wäre eine Art TÜV für die Wirtschaftspolitik der Bundesregierung. Vgl. Monika Schnitzer, in: Wirtschaftswoche 20/ 08.05.2015, S. 42.

Für den Normalbürger ist es nahezu unmöglich, alle Daten zu verstehen. Gleichzeitig ist er abhängig von Daten. Einziger Ausweg ist, den Daten zu vertrauen. Insofern wird Vertrauen immer wichtiger. Die gesellschaftlichen Institutionen müssen die Datenverarbeitung kontrollieren. Das ist aber nicht kostenlos zu haben. Vgl. Colin Crouch, Die bezifferte Welt, Frankfurt/ Berlin (Suhrkamp) 2015. "Fakten allein machen keinen Sinn", Deirdre Mc Closkey, Uni Chicago, emeritiert.

Durch Big Data wächst die Bedeutung empirischer Studien. Es gibt aber immer mehr Statistikfehler und frisierte Daten. Immer wichtiger wird daher die Überprüfung vorliegender Studien. Replikationsstudien sind aber umstritten ("Forschungsparasiten").

"Ökonomen sind moralisch gesehen keine schlechteren, aber auch keine besseren Menschen als der Rest der Welt", Gebhard Kirchgässer, in: FAZ, 26. Oktober 2012, Seite 12 (Zur Rolle der Ökonometrie in der wissenschaftlichen Politikberatung, Thünen-Vorlesung beim Verein für Sozialpolitik). Vgl. auch: Wo sind die Ökonomen?, in: Die Zeit, Nr. 23, 29. Mai 2013, S. 21.

 

Zusammenhang "Modell, Planspiel, Rollenspiel und Simulation":

"Des Menschen Auge sieht weit, des Menschen Verstand sieht weiter", Dschingis Khan.

Das Modell ist ein vereinfachtes Abbild eines Stückes der Realität. In der Volkswirtschaftslehre ist das Denken in Modelle eine übliche Vorgehensweise. Das Abbild ist immer subjektiv geprägt. Wenn man mit einem Modell arbeitet, das über Zahlen definiert ist und damit Vorgänge nachahmt, und das zusätzlich noch eine dynamische Betrachtungsweise hat, spricht man von Simulation. Meist wird der formulierte Spielrahmen heute am Computer berechnet. Sind in dieses Simulationsmodell Menschen mit ihrem Verhalten als Entscheidungsträger eingebaut, nennt man dies Planspiel.  Vgl. Matischiok, G. M.: Denken in wirtschaftlichen Zusammenhängen, Stuttgart 1999, S. 21. Beim Rollenspiel wird ein Planspiel in sehr kompakter Form in der Regel als Theaterstück vor einem Publikum vorgespielt. Dies kann persönlich ablaufen oder vorher in einem Video aufgenommen sein. Vgl. als Veranstaltung hierzu "Psychologie &Kommunikation".

 

Empirische Forschungsmethoden in den Wirtschaftswissenschaften (insbesondere für Bachelor- und Masterabschlussarbeiten: meine Erfahrungen).

Die Wahrheit finden wollen, ist Verdienst, wenn man auch auf dem Wege irrt", Georg Christoph Lichtenberg, deutscher Philosoph.

Bei den Methoden der Datenerhebung wird bei Bachelor- und Masterarbeiten (Stichprobe ist gebildet aus von mir betreuten Arbeiten) noch in der Hauptsache mit Interviews gearbeitet. Quantitative Interviews werden heute überwiegend im Internet (häufig auch über soziale Netzwerke) durchgeführt. Dazu stellt die Hochschule eigene Software zur Verfügung (z. B. Qualtrics an der HWG Lu).  Der Trend geht zu qualitativen Interviews, insbesondere bei explorativen Fragestellungen (vor allem in Masterthesen). Die qualitativen Interviews werden noch überwiegend persönlich vorgenommen. Komplexe statistische Auswertungsmethoden finden hier meist keine Anwendung (vgl. unten). Schwierig ist die Bedingung der Zuverlässigkeit hier zu erfüllen, weil oft der individuelle Datenschutz gewährleistet sein muss.

Immer mehr wird auf die Methode der Inhaltsanalyse zurückgegriffen. Das hängt mit der sehr starken Bedeutung des Internets zusammen. Homepages von Firmen oder von anderen Organisationen sind eine bevorzugte Quelle (z. B. bei Arbeiten über CSR, Ethno-Marketing, Ethik, Diversity). In der Regel erfolgt die Analyse qualitativ. Die Inhaltsanalyse kann auch auf das Intranet der Unternehmen ausgedehnt werden (Datenschutz und Geheimhaltung beachten; die Firmen wollen oft anonym bleiben). Auch auf andere, vergleichbare empirische Untersuchungen, kann mit der Inhaltsanalyse zugegriffen werden.

Die Beobachtung ist traditionell wichtig. Fallstudien, Praktika oder Jobs im Betrieb bieten eine hervorragende Quelle. Gerade Praktika im Ausland (z. B. in Unternehmen in China) sind ergiebig. So liegt normalerweise eine teilnehmende Beobachtung vor. Sie ist sehr nützlich bei seltenen kulturellen Phänomenen (z. B. Matriarchat). Andere Formen, wie die nicht teilnehmende Beobachtung, sind selten. Die Studenten nutzen die Chancen der Beobachtung noch zu selten.

Kaum arbeiten Studenten mit dem Experiment. Laborexperimente können im Marketing, in der Marktforschung oder Werbung Anwendung finden. Neuerdings arbeitet man in der Emotional Economics zunehmend mit Laborexperimenten (z. B. Entscheidungen unter Stress). Die Aussagen sind allerdings oft eingeschränkt, weil Studenten (Freunde, Bekannte, Kohorte) als Versuchspersonen eingesetzt werden. Die Stichprobengröße ist meist sehr gering, so dass die Repräsentativität nicht hoch ist. Alle relevanten Faktoren sind schwierig zu kontrollieren. Natürliche Experimente sind nützlich in der Volkswirtschaftslehre. So erzeugte die historische Parallelwelt der DDR einzigartiges Datenmaterial für die deutsche Volkswirtschaftslehre. Ein einzigartiges Experiment ist auch die Entwicklung in China. Vgl. Ökonomen lernen vom Sozialismus", in: Handelsblatt, Nr. 124, 5.11.12, S. 12. "Wir müssen sehen, wo uns die Geschichte ein Experiment anbietet", Davide Cantoni, Uni München, s. ebenda).

Bei den Methoden der Datenauswertung steht das Programm SPSS im Vordergrund (ist an der HWG Lu vorhanden). Grundauszählungen müssen immer gemacht werden. In der Volkswirtschaftslehre wird oft mit Regressionen und Korrelationen gearbeitet. In der Betriebswirtschaftslehre hängt die Auswertung stark vom Thema ab. Hypothesentests und  Diagramme kommen meist vor. Die Tabellenanalyse sollte mehr eingesetzt werden. Problematisch dabei ist oft, dass meist keine Zufallsstichproben vorliegen, die Studenten aber multivariate Methoden und Hypothesentests anwenden wollen. Die Statistik bietet hier Normwerte für n an (z. B. n=30). Bei qualitativen Untersuchungen, aber auch quantitativen Analysen explorativer Art, sind statistische Hypothesentests oft nicht möglich oder sinnvoll. Bei den Qualitätskriterien Gültigkeit und Zuverlässigkeit müssen bei den Arbeiten der Studenten oft Abstriche gemacht werden (Zeitdruck, Anonymität u. a.). Dem Wunsch der Unternehmen nach Anonymität sollte entsprochen werden (kann auf Kosten der Zuverlässigkeit gehen). Außerdem versuchen die Firmen manchmal, Einfluss auf die Ergebnisse zu nehmen (Objektivität in Gefahr!). Besonders wichtig ist mir, dass die Grenzen der empirischen Forschung erkannt werden und die Ergebnisse kritisch diskutiert und gewertet werden (Relativierung).

Als gute Basis muss eine gründliche theoretische Analyse mit plausiblen und sinnvollen Hypothesen vorhanden sein. Die theoretische Analyse mündet also in den Hypothesen oder zumindest Forschungsfragen als Ergebnis. Vorher sollte der Forschungstand klar beschrieben werden. Überprüfungen vieler empirischer Studien zeigen, dass beim Nachrechnen oft etwas anderes herauskommt. Insofern brauchen empirische Arbeiten mehr Kontrolle. Die beste Kontrolle erlaubt aber eine saubere methodische Arbeit. Nichts ersetzt eine gute Theorie. Vgl. Hanno Beck/ Alois Prinz: Nichts ersetzt eine gute Theorie, in: FAZ 8. Februar 2016, S. 18.

Studierende haben in den Methoden der empirischen Forschung sehr oft Defizite. Das hat zwei Gründe: Spezifisch werden diese Methoden in der Regel nur im Studium der Soziologie oder Psychologie gelernt. Das Ökonomie-Studium verlässt sich auf die Vermittlung der Statistikkenntnisse. Die Methoden der empirischen Sozialforschung sind aber nicht in jedem Curriculum. Im Marketing werden sie manchmal bei der Marktforschung mit vermittelt.

"Mit Statistik kann man alles beweisen, sogar die Wahrheit. Also bin ich für Statistik", Marcel Reich-Ranicki, Literaturkritiker, gestorben 2013.

Ludwig von Mises war der Ansicht, dass empirische Methoden nicht auf die Sozialwissenschaften angewendet werden sollen.

 

Die Zukunft der Wirtschaft (Prognose der Weltwirtschaft 2013 bis 2033)

"Viele leben zu sehr in der Gegenwart: die Leichtsinnigen; andere zu sehr in der Zukunft: die Ängstlichen", Arthur Schopenhauer (Die Welt als Wille und Vorstellung; er war ein Wegbereiter der Moderne).

Methode: Prognosen sind immer bedingte Prognosen, in dem Sinne, dass sie von Randbedingungen abhängen. Meist werden die Zusammenhänge von heute auch in Zukunft vorausgesetzt.  Prognosen sind immer in ein Gesamtsystem eingebettet. Die Analyse dieses Systems ist hochkomplex. Bestimmende Trends der Gegenwart werden prolongiert, wie z.B. Klimawandel, Globalisierung, technischer Fortschritt und Bevölkerungsentwicklung. Insofern ist jede Prognose in der Gegenwart verankert (die Regeln sind: keine Wunder/ Sprung im technischen Fortschritt, kein dritter Weltkrieg, keine bösen Flaschengeister/ weltweite Wirtschaftskrise, die Modelle von heute sind ausreichend gut, vgl. Laurence C. Smith, a. a. O. S. 22f.). Das Verhalten der Menschen wird in der Regel konstant angesetzt. Besonders wichtig sind die Bildungsbeteiligung, die Erwerbsbeteiligung, das Weiterbildungsverhalten, das moralische Verhalten und das Konsumverhalten. Die Handlungsoptionen für die Politik werden oft ausgeklammert. Durch politische Eingriffe verändern sich Parameter entscheidend. Kurzfristige Prognosen, die auf gigantischen Mengen von persönlichen Daten beruhen ("Big Data"), werden immer genauer. Optimierte Logistikprozesse bei den Unternehmen führen zu geringeren Kosten. Verkaufprognosen für einzelne Produkte werden immer genauer. Weil Speicherplatz fast nichts mehr kostet und die Computer immer leistungsfähiger werden, kann mithilfe geeigneter Algorithmen im virtuellen Raum immer genauer und klarer in die Zukunft gesehen werden. Algorithmen werden aber zielgerichtet programmiert und dienen meist Profitinteressen (Beispiel das Suchsystem von Google, das individuell lernt). Bestimmte Zusammenhänge ändern sich aber im Zeitablauf. Heute tun schlechte Prognosen der Aktienbörse gut (früher war es umgekehrt, weil gute Konjunkturprognosen steigende Unternehmensgewinne anzeigten). Heute fehlen Alternativen in den Anlagen. Für 2013 lieferte die Deutsche Bundesbank die treffsichere Prognose (Wachstum 0,4%, Inflation 0,5%). Die Wirtschaftsforschungsinstitute, die EU-Kommission und die Banken hatten das Nachsehen. "Prognosen sind schwierig - vor allem wenn sie die Zukunft betreffen", Niels Bohr (1885-1962, Wissenschaftler der Physik).

Wirtschaftstrends der Gegenwart mit Ausstrahlung in die Zukunft: Die Staatsverschuldungen bergen ein großes Risiko in sich. Nicht nur die absolute Höhe der Gesamtverschuldung ist wichtig (z. B. ist sie in Japan weit über 200%, aber die Verschuldung ist beim eigenen Volk und Japan ist großer Gläubiger, z. B. für die USA). Die gegenwärtige Geldschwemme in der Welt bringt große Probleme für die Zukunft. Verlierer sind die große Mehrheit der Bürger, deren Ersparnisse in Sparbüchern und Lebensversicherungen angelegt sind. Die Messung der Inflation über den Konsumgüterpreisindex ist verschleiernd (die Explosion der Immobilienpreise begünstigt Vermögende). Die großen Gewinner sind die Reichen, die sich die Spekulationsprofite sichern (Kluft zwischen Arm und Reich wird größer). Das Wachstum der Industrieländer hat und wird sich weiter verlangsamen (in den G7-Ländern war es zwischen 1960 und 1969 mit 5,1% am höchsten, zwischen 2000 und 2010 nur noch 1,3%). Wachstum hängt stark vom Basiseffekt ab (deshalb ist es in Schwellenländern immer höher). Endloses Wachstum kann und wird es nicht geben. Die USA funktionieren nicht mehr als Konjunkturlokomotive der Weltwirtschaft (ihre Bürger sind zu hoch verschuldet, die Parteien sind zerstritten; mit Basiseffekt ist sie gegenwärtig noch Lokomotive). Die Schwellenländer, allen voran China (mit seinen 440 Megastädten), werden mit ihrem BIP die Industrieländer einholen und überholen (erstmal verlangsamt China sein Wachstum, Indien setzt auf Dienstleistungen, Russland auf Rohstoffe und Agrarproduktion). China wird sich längerfristig auf 3, 4% Wachstum einpendeln und wird von Indien überholt werden (wichtiger Einflussfaktor Altersstruktur der Bevölkerung). Das Wachstum wird weiter von Investitionen, Produktivität, Arbeit und technischem Fortschritt bestimmt werden. Die digitale Revolution wird dabei das Leben von Grund auf ändern. Aufgrund der Automation, insbesondere im industriellen Bereich, kann es zu Migrations - Wellen aus den bevölkerungsreichen Schwellenländern kommen (steigende Löhne beschleunigen den Prozess).  Kurzfristig liegt das größte Risiko im Euro (Europa muss sparen und Wettbewerbsunterschiede abbauen; einige Länder wollen raus, so wie Großbritannien: Brexit), langfristig in den Problemen Chinas und anderer Schwellenländer (Kluft zwischen Arm-Reich und Stadt-Land). Unser eigener Wohlstand in Europa wird vom Vorsprung an Innovationen abhängen. Der demographische Wandel lässt Europa immer stärker ergrauen und gefährdet Innovationen (dagegen wirkt die Einwanderung). Noch offen ist die Reaktion der Wirtschaft auf fehlende Wachstumsraten (gegenwärtig hängt die Verteilungspolitik daran).  Wir brauchen neue Wertesysteme und Einstellungen. Berühmt geworden ist die Prognose von Laurence C. Smith (deutsch: Die Welt im Jahre 2015. Die Zukunft unserer Zivilisation, Berlin 2014). Sein Ergebnis ist, dass der Norden der Erde - also Russland, USA, Kanada, Island, Norwegen, Finnland, Dänemark und Schweden (Norcs) - ein enormes Potential entwickeln, wirtschaftlich profitieren und insgesamt stabiler dastehen als die Länder der südlichen Breitengrade. Vgl. auch Dobbs, R./ Manyika, J./ Woetzel, J.: No Ordinary Disruption, London 2015.

Kulturtrends: Verschmelzen die Welten und ersetzen den "Kampf der Kulturen"? In allen Ländern gibt es globale Oligarchen, die die Interessengegensätze leicht überwinden und ihr Geld und Vermögen überall in der Welt anlegen, bevorzugt in Steueroasen. Kleine Eliten haben ihre Macht in allen Staaten ausgedehnt (Plutokratie). Dies gilt auch für die ehemals kommunistischen Staaten. Die Eliten profitieren vom Konkurrenzkampf der Staaten untereinander. Der freie Zugang zu Bildung, eigentlich ein Menschenrecht, ist für über 72 Mio. Kinder ein leeres Versprechen. Vor allem in Afrika ist der Bildungsnotstand in absehbarer Zeit nicht zu beseitigen. Illegale Geschäfte wachsen an, weil sie von der wirtschaftlichen Deregulierung, Abschaffung der Grenzkontrollen und politischen Uneinigkeit profitieren. Die "Commons", auch Wissens-Allmende genannt, werden immer bedeutender. Sie werden außerhalb des Marktes organisiert. Dazu gehören z. B. Linux, Firefox und Wikipedia. Das Internet ist auch den ärmsten Ländern zugänglich (das große Geschäft wird immer noch in den USA gemacht). Vom Umsatz her führt immer noch die Filmindustrie der USA; die weltweit meisten Zuschauer hat der indische Film. Vgl. Le Monde, Atlas der Globalisierung. Die Welt von morgen, Paris/ Berlin 2012. Wir sehen gar nicht mehr, wo unsere Freiheit mittlerweile beschränkt wird. Die digitale Welt wird immer mehr vordringen und mit ihr wird Alles vorhersehbar und kontrollierbar. Gerade Volksabstimmungen (Beispiel Brexit in GB) zeigen große Einflüsse des Internets. Die Menschen lassen sich eher bestätigen als noch kreativ zu denken. Rapide zunehmen wird das Internet der Dinge. Die Anzahl vernetzter Geräte wird weltweit 2030 auf 500 Mrd. ansteigen (2020 30 Mrd.). Quelle: Cisco.

Weltwirtschaft 2033: Asien wird seine alte Position aus dem 18. und 19. Jahrhundert wieder gewonnen haben. Experten sehen eine Verteilung der Weltwirtschaft von 25% für Europa, 33% für Nordamerika und 35% für Asien (Quelle: OECD). Die Weltproduktion wird sich in ihrer Struktur nicht grundlegend ändern. Auch die Exportanteile der Branchen werden weitgehend bestehen bleiben. China wird der mit Abstand größte Weltproduzent sein (z. B. 70% bei Textilien, auch hoch bei Elektronik und Fahrzeugbau; China wird auch viel stärker werden bei Investitionsgütern und Vorleistungen). Wichtige Schwellenländer werden an Gewicht gewinnen (Brasilien, Indien). Japan und die USA werden die Industrieländer sein, die Boden verloren haben. Die USA erhält wieder einen Aufschwung durch Fracking (und das Absinken des Ölpreises). Deutschland wird voraussichtlich weiter gut dastehen. Der größte Handelspartner Deutschlands wird noch die EU sein (60%, das Wettbewerbsproblem in der EU wird abgemildert sein). Dann wird China folgen. Aufgrund der globalisierten Wertschöpfungsketten werden Mobilität, Transport, Logistik und Informationstechnologie stark gewachsen sein. Die anfangs gemachte Annahme, dass keine großen Krisen eintreten ist hier am problematischsten. Gerade die Ukraine-Krise und die Reaktion Russlands auf die Sanktionen zeigt die Schwierigkeit auf. Der Risikobericht des Weltwirtschaftsforums 2014 sieht weiterhin das Gespenst einer Finanzkrise, weil die globalen Rahmenbedingungen sich im Vergleich zum Jahr 2008 kaum geändert haben und zu viel Geld auf den Finanzmärkten ist. Der britische Ökonom Gerard Lyons (Berater des Bürgermeisters von London; Das neue Wirtschaftswunder, Berlin 2014) prognostiziert, dass die Weltwirtschaft in den kommenden zwanzig Jahren ein enormes Wachstum erfahren wird. Asien wird an wirtschaftlicher Macht gewinnen und seine gefährliche Allianz mit den afrikanischen Staaten noch verstärken. Die chinesische Entwicklungspolitik in Afrika ist effizienter als die europäische. Das politische und militärische Machtzentrum wird im Westen bleiben.

Klimawandel und Umwelt: Offen bleibt, wie die Weltwirtschaft mit dem Klimawandel fertig wird. Die stark betroffenen Regionen werden große wirtschaftliche Probleme bekommen. Ein effizientes  Global Government in diesem Bereich ist dringend erforderlich (ob die Weltklimakonferenz Ende 2015 in Paris eine tragfähige Konzeption bringt, ist offen). Die zeitliche Streckungsmöglichkeit ist zu groß (Sanktionen, Kontrollen fehlen). Der zunehmende Anspruch der Menschen auf die natürlichen Ressourcen (fossile Brennstoffe, Mineralien, Grundwasser, erneuerbare Ressourcen wie Flüsse Ackerland) wird prägend sein.  Inwieweit Fracking auf längere Zeit Einfluss haben kann, ist ungewiss. Zumindest mittelfristig scheint damit die Führungsrolle der USA in der Welt gesichert. Die Auswirkungen Stickoxyde werden noch völlig unterschätzt.  Hinzu kommt der Klimawandel (eher durch CO2). Die Auswirkungen der Treibhausgase stehen außer Frage. Die Durchschnittstemperaturen steigen, das Wetter und die Natur spielen zunehmend verrückt.  Die Arktis wird in jeder Hinsicht bedeutsamer werden. Dort werden die Häfen der Zukunft für Rohstoffe liegen (Archangelsk in Russland und Churchill in Kanada). Vgl. Laurence C. Smith: Die Welt im Jahr 2050, Berlin 2014, S. 248ff. Die Naturkatastrophen werden zunehmen. Gletscher werden schmelzen und viele Insel werden verschwinden und Städte werden überschwemmt (z. B. Shanghai). Kriege, Hungersnöte, Krankheiten und Flüchtlinge könnten zunehmen. Gerade an der Grenze zwischen China und Russland könnte es zu ungeheuren Flüchtlingsströmen von China nach Russland kommen. Wasser wird der Rohstoff der Zukunft sein. Die Wasserkrise wird sich dramatisch zuspitzen, vor allem in Asien (alle wichtigen Flüsse entspringen in Tibet, China greift ein). Insbesondere Nord-China hat einen riesigen Bedarf. Um langfristige Änderungen zu bewirken, müssen sich Kultur und Einstellungen der Menschen wandeln: 1. Gefragt ist Effizienz, d. h. eine ergiebigere Nutzung von Material und Energie. 2. Konsistenz, d. h. naturverträgliche Technologien, welche die Ökosysteme nicht belasten. 3. Suffizienz, d. h. maßvoller Rückgang der Nachfrage nach Gütern und ihre hemmungslose Nutzung. Die Umsetzung der Beschlüsse der Weltklimakonferenz von 2015 in Paris kommen ins Stocken, weil große Emittenten nicht mehr mitmachen (USA, Brasilien, Australien). Der Preis für CO2 wird in Deutschland rapide ansteigen (bis 130 € pro Tonne bis 2030; Quelle: Potsdam Institut für Klimaforschung).

Leben und die Arbeit 2033: Die Dienstleistungstätigkeiten sind schwierig zu messen und zu prognostizieren, weil sie an der Industrie hängen. Die wissensbasierten Tätigkeiten werden weiter zunehmen, aber nicht unbegrenzt (von heute 21% auf 25%?). Die verwaltenden und organisatorischen Tätigkeiten werden konstant bleiben, ebenso wie die primären Dienstleistungen. Produktionsnahe Tätigkeiten werden abnehmen (von heute 21% auf 18%, Quelle: Prognos/ Vereinigung der Bayrischen Wirtschaft, Arbeitslandschaft 2035, Basel 2012). Es wird noch weniger Personen als heute ohne berufliche Bildung geben und mehr mit Hochschulabschluss. Andererseits werden aber die Kernbelegschaften der Unternehmen weiter ausgedünnt und die prekäre Beschäftigung wird in allen Staaten ansteigen. Die Löhne werden weiter auseinanderdriften ("great decoupling") und der Zwang zum Grundeinkommen wird steigen.  Die Globalisierung  schwächt die sozialen Sicherungssysteme und wandelt den Arbeitsmarkt. Der Fachkräftemangel ist schwierig einzuschätzen (Veränderung der Produktion, Branchenstruktur, Arbeitsinhalte, demographische Entwicklung). Alters- und geschlechtsspezifische Erwerbsquoten werden sich ändern (mehr Frauen und Ältere in der Arbeit). Geburtenrate, Zuwanderung und Lebenserwartung werden sich ebenfalls gewandelt haben. In den Kernbedürfnissen des Lebens wird es Umschichtungen geben: mehr Freizeit/ Kultur, mehr Gesundheit, mehr Sicherheit; Wohnen und Nahrung/ Kleidung werden sich weniger verändern. Die bezahlte Arbeit und der Arbeitsmarkt werden nicht mehr so stark unser Leben beherrschen, weil sich Werte und Einstellungen verändert haben. Die Vorstellungen und Wünsche bezüglich Wohlstand werden sich geändert haben. "Work-Life-Balance" und Lebensqualität stehen gegenüber Geld im Vordergrund. Die Menschen werden ihre Naivität im Umgang mit den neuen Medien und dem Internet abgelegt haben, weil sie dafür besser ausgebildet wurden. Biotechnik, Cyborgtechnik (Wesen, die aus organischen und nicht-organischen Teilen bestehen) und die Entwicklung von nicht-organischem Leben werden die Natur des Menschen verändern (vielleicht das Ende des Homo sapiens). Mensch und Maschine wachsen zusammen. Die Arbeitslosenquoten in vielen Ländern sind ansteigend und es gibt bisher kein Patentrezept dagegen. Die Frage ist, wo die Belastungsgrenze der jeweiligen Gesellschaft liegt. Die Industrie 4.0, die mit stark steigender Digitalisierung und Automatisierung der Wirtschaft verbunden ist, könnte dies verstärken. Körperliche Arbeit wird vollständig durch Maschinen substituiert werden. Auch geistige Routinetätigkeiten können Computer ausführen.  Die Prognose des Rückgangs der potentiellen Arbeitskräfte in Deutschland von 2013 bis 2050 um 34,3% könnte gegen wirken (aber viele Flüchtlinge). Die Gesellschaft muss konkret ein ökonomisches Problem der Altersverteilung lösen: die zahl der Rentner wird bis 2030 um 3,0 Mio. zunehmen, die Zahl der Erwerbstätigen wird um 3,8 Mio. zurückgehen. Trotzdem werden 2030 wahrscheinlich 4,9 Mio. Fachkräfte fehlen. Damit kann das Finanzierungsmodell der Gesetzlichen Rentenversicherung nicht mehr funktionieren. Quellen: Prognos, Rentenversicherung, Korn Ferry.

Politische Partizipation und Demokratie 2033:  Die Menschen werden sich einerseits mehr auf private Bedürfnisse und Interessen konzentrieren, andererseits wird das Solidaritäts- und Gemeinschaftsgefühl wieder gewachsen sein. Ohne mehr Partizipation und Volksabstimmungen wird es nicht gehen. Der demokratische Mechanismus über Wahlen und Parteien wird an Bedeutung verlieren (Anteil der Nichtwähler wird immer größer und gefährdet die Legitimation). Der typische Nichtwähler ist eher jung, der Unterschicht zugehörig, gering verdienend, bildungsschwach, unpolitisch bis gleichgültig (Studie von Bertelsmann, Bielefeld/Institut für Demoskopie, Allensbach). Die direkte Demokratie mit Volksentscheiden wird an Bedeutung zunehmen (Stuttgart 21, Wasserwirtschaft, Nichtraucherschutz, Schulreform). Die Abstimmung über den Brexit in Großbritannien zeigt aber auch die großen Nachteile und Gefahren auf (Menschen bestätigen im Internet ihre Vorurteile und Ängste, sie fallen eher auf Lügen herein). Die Menschen organisieren sich (auch mithilfe des Internet) mehr über private Netzwerke, die immer globaler sein werden. Innerhalb dieser Netzwerke werden Werte formuliert und berücksichtigt werden. In vielen Bereichen werden die Bürger alternative Formen einrichten (z. B. Parallelwährungen). Staatslenker und Firmenchefs stoßen überall auf der Welt auf aufbegehrende Bürger. Insofern werden die Mächtigen immer ohnmächtiger werden. Die Bürger haben auch zunehmenden Einfluss als Konsumenten. Indem sie sich für Produkte entscheiden, können sie mit ihrem Konsumentenverhalten Firmen beeinflussen und vielleicht die Welt verändern (z. B. Billigtextilien nicht kaufen). Wahrscheinlich wird sich die Welt in vielen Ländern Richtung Zivilkapitalismus entwickeln. Die Bürger eignen sich die Ökonomie als Gestaltungsmittel, als Instrument zur Weltverbesserung an. Leider werden Kundenzufriedenheit und Kundenreaktionen die politische Beteiligung oft ersetzen (die Internetökonomie braucht Daten).  Nationalstaaten werden immer mehr an Bedeutung verloren haben. Weltmärkte, Multis und NGO zeigen die Grenzen auf. Wachsen dürfte in Deutschland weiterhin die AfD. Klimawandel und neue Flüchtlingsströme begünstigen diese Partei. Insgesamt wird Europa als Wertegemeinschaft immer schwieriger aufrechtzuerhalten sein.

Deutschland 2033: Der Offenheitsgrad der deutschen Wirtschaft steigt weiter an (Exporte und Importe durch BIP). Dadurch sind wir der größte Profiteur der Globalisierung. Unsere Handelspartner sind breit gestreut (am wichtigsten Schweiz, Österreich, GB, Frankreich, USA, China). Es muss mehr investiert werden und das demographische Problem muss gelöst werden. Bei den Schlüsseltechnologien muss dringend aufgeholt werden gegenüber den USA. Es sind folgende: Informations- und Kommunikationstechnologie, intelligenter Verkehr und zukünftige Mobilität, Energiesysteme. Hier werden die Standards noch in den USA gesetzt. Vgl. Prognos AG: Deutschland-Report 2040. Die ökonomische Entwicklung Deutschlands wird stark von der EU abhängen. Es bleibt abzuwarten, wie sich der Brexit auswirkt. Die neue Handelspolitik von Trump ab 2018 symbolisiert den Kampf der USA mit China um die Vormachtstellung in der Welt. Davon ist Deutschland als Exportnation massiv beeinflusst

Die Regionen in Deutschland driften immer weiter auseinander. Das Berlin-Institut für Bevölkerungsentwicklung legt 2019 eine Studie vor, die die "Zukunftsfähigkeit der 401 deutschen Landkreise und kreisfreien Städte bis 2035" untersucht. 21 Indikatoren sind ausschlaggebend für die Einstufung in führend, Mittelfeld und Schlusslichter. Untersuchte Faktoren sind Kinderzahl, unter 35-jährige, durchschnittliche Lebenserwartung, Zu- / Ab- Wanderung, über 74-jährige, Bevölkerungsprognose, verfügbares Haushaltseinkommen, Bruttoinlandsprodukt, Kommunale Schilden je Einwohner, Beschäftigung, Arbeitslose und Sozialhilfeempfänger, Frauenbeschäftigung, Altersbeschäftigung, Fremdenverkehr, Arbeitsmarktchancen von Migranten, Schulabgänger, Jugendarbeitslosigkeit, Hochqualifizierte, Elterngeldbezieher, Ganztagesbetreuung, Wohnraum. An der Spitze liegen die Regionen München und Heidelberg. Führend sind auch die Regionen um Nürnberg, Stuttgart und Freiburg. Ebenso die Rheinschiene, Frankfurt, Münster, Hamburg, Potsdam. Die Wohnungsnot wird weiter massiv zunehmen. 2030 werden 1.000.000 Wohnungen fehlen, davon 300.000 in den sieben größten Städten. Es wird immer enger und teurer. Dadurch werden vor allem die oberen zehn Prozent im reicher (Gerechtigkeitsproblem).

Exogene Schocks: Als ich die vorliegende Prognose machte, konnte ich die Corona-Krise nicht vorhersagen. Sie wird noch mal vieles von dem verändern, was hier steht. Es ist auch nicht auszuschließen, dass weitere exogene Effekte (andere Viren, Kriege, Naturkatastrophen, Einschläge von Sternen usw.) dieses Bild völlig verändern.

"Die Zukunft war früher auch besser", Karl Valentin.

 

Symbole der Bildung und Wissenschaft in Asien:  Hier handelt es sich um die Abbildung der Schildkröte und  des Kranichs im "Literaturtempel" (Konfuziustempel, Van Mieu-Pagode) in Hanoi/ Vietnam. Die Schildkröte steht für Gesundheit und langes Leben. Der Kranich symbolisiert Bildung, Wissenschaft und Weisheit. In der westlichen Kultur steht dafür die Eule ("Eulen nach Athen tragen"). Der Literaturtempel war die erste Universität in Vietnam. Sie wurde vor über 1000 Jahren (1070 unter Kaiser Ly Thang Tong) gegründet, als Vietnam unter chinesischer Kontrolle stand. Der Tempel wurde einem Vorbild in der Geburtsstadt von Konfuzius in Qufu nachempfunden. Die Mathematik spielte in Prüfungen schon eine große Rolle. Dabei mussten Besonderheiten der Zahlen beachtet werden (0, 4, 8, 9). Ursprünglich sollte der Literaturtempel für das schwindende Ansehen des Buddhismus in einem konfuzianischen Land stehen. Resultate der Examina sind in steinerne Stehlen auf Schildkröten gehauen (Weltkulturerbe der UNESCO).

Mathematik und Ökonomie (Nutzen und Anwendung):

"Jeder, der uns mag, kriegt unser Einmaleins gelehrt", Pippi Langstrumpf.

"Durch den Einsatz von Mathematik werdet ihr mit der Wirtschaftswissenschaft dasselbe tun wie die Scholastiker mit der Philosophie. Indem ihr die Dinge immer subtiler macht, werdet ihr nicht mehr wissen, wo ihr aufhören müsst", Ignazio Radicati, Mathematiker, Italien 1752.

Grundlagen: Es geht um Modelle und ihre Quantifizierung, wobei konkrete Aspekte der ökonomischen Wirklichkeit herausgearbeitet und formal erfasst werden. In der Allgemeinen Volkswirtschaftslehre (Grundlagen) sind mathematische Funktionen, die mit der Differentialrechnung analysiert werden, und Elastizitäten am wichtigsten (die relative Mengen - Änderung zur relativen Ursachen - Änderung). Für die Durchführung von Elastizitätsrechnungen reichen die Grundlagen der Prozentrechnung aus, wichtiger ist das ökonomische Verständnis. Folgende Elastizitäten sind wichtig: direkter Preis des gleichen Gutes, indirekter Preis bzw. Kreuzpreis und Einkommen. Preiselastizitäten sind normalerweise negativ (positiv bei Snob - Effekt), Einkommenselastizitäten positiv (prozentuale Änderung der nachgefragten Menge infolge einer Erhöhung des Einkommens um ein Prozent). Neben den üblichen Preis-, Kreuzpreis und Einkommenselastizitäten gibt es noch folgende Elastizitäten: Skalenelastizität (Faktoreinsatz, Output), Kostenelastizität (Produzierte Menge, Kosten), gesamtwirtschaftliche Aufkommenselastizität ( BIP, Steueraufkommen einer bestimmten Steuerart), Importelastizität, Exportelastizität. 1518 n. Chr. verfasste Adam Ries das erste deutsche Rechenbuch. Vergleichen und Abschätzen bzw. Einschätzen  von Distanzen muss auch bei Handys jeder im Kopf machen. Vgl. Adam-Ries-Bund, Annaberg/ Sachsen.

Für die notwendigen Grundlagen der Differentialrechnung (Kurvendiskussion) ist eine gewisse Abstraktionsfähigkeit am wichtigsten. Funktionen sind in der Lage, extrem komplexe Sachverhalte auf den Punkt zu bringen und auf den Kern zu reduzieren. Gute Beispiele sind die Produktionsfunktion in der Mikroökonomik, die Konsumfunktion der Makroökonomik oder die Exportfunktion in der Außenwirtschaft. Entscheidend für die Anwendung mathematischer Methoden ist die Passgenauigkeit zum Problem. Mathematik sollte nicht in jedem Falle zur Anwendung kommen. "Die Mathematik ist schön - sie kann nichts dafür", Tomas Sedlacek: Die Ökonomie von Gut und Böse, München 2013 (Original 2009), S.360.

Finanzmathematik: Die Finanzmathematik ist eine der erfolgreichsten Zweige der Mathematik in der Ökonomie, wenn man nach der Bedeutung in der Praxis bewertet. Mithilfe der Finanzmathematik können Risiken bewertet und Kurse auf den Finanzmärkten vorausberechnet werden. So ist die Value at Risk-Formel ein sehr gutes Risikomaß und wahrscheinlich das bekannteste. Sie misst den Geldbetrag, der bei einer finanziellen Position auf dem Spiel steht (vgl. genauer dazu internationale Finanzmärkte bei Economics/special). Ein Unterbereich der Finanzmathematik, die Versicherungsmathematik, ist heute unverzichtbar. Mit der Wahrscheinlichkeitstheorie können Preise berechnet werden (Relation zwischen Auszahlungsfall/ Schaden und Einzahlung). "Die Wahrheit ist größer als die Mathematik", a. a .O., S. 366. "Keiner, der nichts von Geometrie versteht, trete hier ein!" Überschrift über dem Eingang zur Platonischen Akademie in Athen.

Gefahren: Natürlich kann die Mathematik, wie jede Methode, missbraucht werden. Zwanghafte Optimierer können mit den Formeln tricksen und spekulieren. Die größte Gefahr besteht darin, dass nicht offen über die Grenzen der Finanzmathematik informiert wird. Kreditrisiken sind eng an das Verhalten von Menschen gebunden, das nicht exakt kalkuliert werden kann. Bei Derivaten hängt die Auszahlung von nicht gehandelten Werten ab. Sie können gar nicht eindeutig bewertet werden. Folglich gibt es auch keine eindeutige Absicherungsstrategie (vgl. Frank Riedel: Die Schuld der Ökonomen. Was passiert, wenn ökonomische Modelle auf Gier treffen, Berlin/ Econ 2013, S. 69ff.). Bei den Modellen der Banken wird in der Regel freier Wettbewerb ohne Markmacht vorausgesetzt. Doch dies ist nur ein Ideal. "Der Determinismus und : Einfach ist nicht schön", a. a. O., S. 367. "Die Mathematik ist zwar eine unverzichtbare Hilfswissenschaft für den Investor, die Wertpapieranalyse kann aber niemals eine mathematische Wissenschaft sein. Die mathematische Analyse scheitert immer an unpassenden und veränderlichen Daten, an der prinzipiellen Ungewissheit der Zukunft und der Irrationalität der Märkte", Georg von Wallwitz, Odysseus und die Wiesel. Eine fröhliche Einführung in die Finanzmärkte, München 2014, S. 31..

"Mathematik ist die rationalste aller Wissenschaften. Dennoch spielt Intuition eine wichtige Rolle (Beweise werden aus Ideen und Intuition gemacht. Über ihre Intuition sprechen Mathematiker selten)", Günter Ziegler, Mathematikprofessor, FU Berlin, in: Brandeins 11/16, S. 57. Als der intuitivste Mathematiker aller Zeiten gilt der Inder Srinivasa Ramanujan (Film "Die Poesie des Unendlichen").

Konsequenzen: Aus spieltheoretischer Sicht kann man nachweisen, dass Banken nicht die Wahrheit sagen wollen. Geht man aber von einer falschen Annahme aus, passieren Dinge wie der LIBOR - Mechanismus (Libor - Sätze wurden von Banken manipuliert). Bonuszahlungen der Banken tun ihr übriges. Sie verstärken den Anreiz, die Value at Risk-Formel  zu missbrauchen, indem Risiken versteckt werden (Vgl. Riedel, a.a.O., S. 113). Vielleicht gelingt es in Zukunft besser, die Mathematik in die Theorien zu integrieren. Immerhin haben viele makroökonomischen Theorien die Finanzkrise nicht vorausgesehen, weil die Finanzmärkte gar nicht Bestandteil der Theorie waren. Exakte Vorhersagen sind aber auch dann nicht zu erwarten. Prognosen werden letztlich am Schluss immer aufgrund von Verhandlungen geschliffen. Der Faktor Mensch wirkt insofern doppelt (einmal über das Verhalten der Menschen in der Wirtschaft, zum anderen in der Rolle des Menschen als Ökonom). Mit großer Wahrscheinlichkeit waren die Maya die Erfinder der Null (schon im 1. Jahrhundert vor Christus, Symbol für Nichts). Mit der Null konnten sie ein Zahlenwerk entwickeln, dass unserem Dezimalsystem entspricht. Sie konnten so auf wenig Platz mit großen Zahlen rechnen. Sie rechneten 7000 Jahre in die Zukunft.

Mathematische Meilensteine der Neuzeit waren die Arbeiten von Bertrand Russel in Großbritannien (er hat auch stark die Logik geprägt)  und von Kurt Gödel in Österreich. Russel wollte Mathematik und Logik miteinander verschmelzen. Ein besonderes Anliegen waren ihm auch die mathematischen Beweise. Er wollte nicht nur Axiome akzeptieren. Berühmt ist sein Beweis, dass 1 + 1 = 2 ist. Gödel stellte den Unvollständigkeitssatz auf: Er besagt, dass jedes mathematische System, das auf Axiomen beruht und komplex genug ist, um von irgendeinem Nutzen zu sein, entweder unvollständig ist oder innerhalb der eigenen Voraussetzung nicht beweisbar ist. In dieser Zeit gab es noch weitere Beweisversuche. Am berühmtesten ist Schrödingers Katze (1935 von dem Physiker Ernst Schrödinger vorgetragen). In einem Gedankenexperiment wird eine Katze in einen Kasten gesperrt. Entweder ist die Katze tot oder sie lebt. Vgl. John Higgs: Alles ist relativ und anything goes, Berlin 2016, S. 125ff. Zu den Meilensteinen gehören natürlich auch die universellen Gesetze: Gesetz der großen Zahlen oder der Zentrale Grenzwertsatz. Berühmt ist auch die "Anthologia Graeca". Darunter sind auch 44 mathematische Knobelaufgaben. Die meisten werden Metrodorus zugeschrieben, der um 500 n. Chr. lebte. Eine seiner Aufgaben handelt von dem berühmten Mathematiker Diophantus, der im dritten nachchristlichen Jahrhundert in Alexandria lebte.  "Gewissheit gibt allein die Mathematik. Aber sie streift nur den Oberrock der Dinge", Wilhelm Busch, deutscher Humorist.

"Die mathematische Ökonomie wird dadurch den Status der mathematischen Wissenschaften Astronomie und Mechanik erreichen. Und an diesem Tag wird unsere Arbeit gebührend gewürdigt werden", Leon Walras (1834-1910; er präsentierte 1874 sein mathematisch formuliertes Modell der Tauschwirtschaft).  Pro

"Abgesehen von der Instabilität durch Spekulation, gibt es eine Instabilität aufgrund der menschlichen Natur, die die Eigenschaft hat, dass ein großer Teil unserer positiven Handlungen eher von spontanem Optimismus geleitet sind als von mathematischen Erwartungen", John Maynard Keynes, 1936. Contra

"Wie die Physik eine Wissenschaft sei, die die Natur methodisch und mit mathematischen Mitteln analysiere, kombiniere auch die Ökonomie Mathematik, Statistik und Logik, um die sozioökonomischen Phänomene wissenschaftlich zu analysieren. Nonsens!", Yanis Varoufakis: Time For Change, Köln 2016, S. 171. (ehemals griechischer Finanzminister, Grexit; geb. 1961; "libertärer Marxis"; lehrte an der Uni von Sydney in Australien). Contra.

 

 

Statistik:  Albert Einstein, der eine skeptische Haltung zur Statistik hatte (dieser Artikel versucht auf diese Kritik einzugehen). Ich selbst habe viele Jahre die Veranstaltung Statistik (Deskriptive Statistik, Induktive Statistik, Wirtschafts- und Sozialstatistik) durchgeführt. Die Stunden wurden immer mehr zusammengestrichen, so dass irgendwann eine seriöse Ausrichtung nicht mehr möglich war. Weiterhin wurde die notwenige Infrastruktur (ausreichend Computerräume, Software, z. B. SPSS) nicht zur Verfügung gestellt. Das ist umso bedauerlicher, als in Zeiten von Big Data, Digitalisierung und Globalisierung eine gute Statistikausbildung wichtiger ist  denn je. Es wäre an der Zeit, die Statistik in den Curricula der Ökonomie vom Status der reinen Hilfswissenschaft zu befreien und aufzuwerten.

"Wenn vor Jahren schon, die Zahl der Brücken veröffentlicht wurde, die in den nächsten Jahren einstürzen werden, und diese Brücken dennoch einstürzen, ist damit nichts gegen die Statistik gesagt, sondern einiges über die bedauernswerte Tatsache, dass die richtigen Zahlen nie von den richtigen Leuten zur rechten Zeit gelesen werden", Dieter Hildebrandt, Kabarettist, gestorben 2013.

Zentrale Aspekte, Grundbegriffe und Methoden der Statistik:

- Definition: Statistik als Wissenschaft ist die Disziplin des Lernens aus Daten. Dabei sollte typischerweise ein Problemlösungszyklus verwendet werden (z. B. PPDAC). Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 352.

- Was ist Statistik?: Statistik setzt sich aus zwei Dimensionen zusammen. Die eine Ebene besteht aus Daten. Die andere Ebene aus Methoden. An der Hochschule werden normalerweise nur die Methoden vermittelt. Das ist sehr missverständlich und unglücklich,  da die Methoden immer mehr an den Computer delegiert werden können. Gefragt sind heute Wissen über den richtigen und vernünftigen Einsatz der Methoden und die sinnvolle Interpretation der Ergebnisse. "Statistical Literacy"  nennt man die Allgemeinbildung zur Interpretation von Statistiken. Es ist insofern auch durchaus sinnvoll, das Verständnis für und den Umgang mit Daten zu lehren und lernen (einschließlich der Beurteilung der Qualität der Quellen). Der "richtige" Umgang mit der Datenflut aus dem Internet muss eingeübt werden, um auch Manipulationen erkennen zu können. Die Statistik an den Hochschulen ist auch heute noch zu stark rein quantitativ ausgerichtet, so dass quantitative Methoden dominieren. Für viele Gebiete der Sozialwissenschaften, insbesondere der Betriebswirtschaftslehre, sind aber qualitative Methoden sinnvoller (werden eher in der empirischen Sozialforschung, als Teilgebiet der Soziologie, behandelt). "Die Qualität eines Volkswirts erkennt man daran, ob er in der Lage ist, auch aus der falschen Statistik die richtigen Schlüsse zu ziehen", Helmut Schlesinger, ehemaliger Vizepräsident der Deutschen Bundesbank.

- Statistical Literacy: Allgemeinbildung zur Interpretation von Statistiken. Sie umfasst die Kenntnis von Quellen, die Einschätzung der Seriosität von Quellen, die Einschätzung der Qualität von Daten, die Beurteilung der Adäquanz von Daten, die Interpretation von Daten, die Analyse von Daten, Schlussfolgerungen aus Daten. Dieser Teil der Statistik ist heute der wichtigste und müsste dringend in den Statistikunterricht übernommen werden. Schon bei den Grundlagen der Mathematik müsste die Mathematik der Sicherheit (Algebra, Geometrie) durch die Mathematik der Unsicherheit mehr ergänzt werden. Informationen werden gerade im Internet oft irreführend verbreitet und das menschliche Gehirn ist zu wenig auf das Hinterfragen von Daten eingestellt. Vieles wird heute optisch durch Bilder ersetzt, wobei viele Menschen die dahinter stehenden Strukturen und Formeln nicht mehr durchschauen. Perfekter kann man nicht manipulieren. Im heutigen Meer der Daten, Fakten und Informationen kann nur der bestehen, der weiß, wie man Informationen filtern und bewerten kann. Wir müssen heute dringend wissen, wie wir mit Informationen umgehen. Dieses Wissen muss mit Handlungswissen verknüpft werden. "A certain elementary training in statistical method is becoming as necessary for everyone living in this world of today as reading and writing", H. G. Wells, World Brain 1938/1994, p. 141. Es gibt auch Nationen, bei denen man bei Besuchen nur das sehen und erfahren kann, was man soll. Dazu gehört zum Beispiel China. Ein Zugang über die Realität der Daten ist hier unabdingbar.

- Geschichte der Statistik:  Statistiken gab es in allen organisierten Staatswesen seit alters her (in China, im Zweistromland u. a.), in der Regel im Zusammenhang mit Ernte und Bevölkerung. Insofern ist Statistik immer Bestandteil von Geschichte (z. B. Geburt Christi und Volkszählung der Römer in der Bibel). Die erste Volkszählung in China wurde 2 n. Chr. durchgeführt. Zu der Zeit wurden auch erste Kataster angelegt. Die Zahlenwerke blieben aber ungenau, uneinheitlich und lückenhaft (das gilt teilweise  auch heute noch für Daten aus China). Erst der Ire Sir Robert Hart, der jahrzehntelang das Zollamt der Qing - Dynastie leitete, führte im 19. Jh. moderne Statistiken in China ein. Conring baute schon 1675 eine Universitätsstatistik in Deutschland auf. William Petty zeigt 1682 in GB, wie die Wirtschaftsleistung gemessen werden kann.  Berühmt wurde auch der Deutsche Ernst Engel, der einen Zusammenhang zwischen Konsum und Einkommen analysierte ("Je ärmer eine Familie ist, ein desto größerer Anteil von der Gesamtausgabe muss zur Beschaffung der Nahung aufgewendet werden", 1857; Engelsches Gesetz). Er baute das erste deutsche Statistische Büro in Berlin auf. Der Belgier Adolphe Qetelet hatte schon 1830 damit begonnen, die Gesellschaft mathematisch und statistisch zu erfassen ("Gesetz der großen Zahl").

- Träger der Wirtschaftsstatistik: In Deutschland vor allem die Amtliche Statistik. Der Aufbau in Deutschland, Gesetzgebungsprozesse und Institutionen sind gut dargestellt in Natrop, Johannes: Angewandte Deskriptive Statistik, Berlin, München, Boston 2015, S. 20ff. Immer wichtiger werden Institutionen, die die Sicherheit der Daten gewährleisten. In Darmstadt ist das deutsche Leistungszentrum für Sicherheit und Datenschutz in der Digitalen Welt (zusammen mit zwei Fraunhofer Instituten und verbunden mit dem Center for Research in Security and Privacy). 

-Intuitive Statistiker: Sind Menschen gute intuitive Statistiker? Haben sie ein Gespür für grundlegende Prinzipien der Statistik. Wichtig ist das intuitive Gespür für die Zuverlässigkeit statistischer Ergebnisse bei kleinen Stichproben. Man schenkt allzu bereitwillig Forschungsergebnissen Glauben, die auf unzureichender Datengrundlage basieren. Gute Statistiker müssen keinen guten intuitiven Statistiker sein. Vgl. Daniel Kahneman: Schnelles Denken, Langsames Denken, München 2012, S. 15ff. Menschen unterliegen einer Illusion der Gültigkeit. Sie werden oft Opfer einer Selbstüberschätzung (ebenda, S. 247ff.). "Die Welt ist voll von offensichtlichen Tatsachen, die niemand jemals bemerkt", Arthur Conan Doyle, Der Hund von Baskerville.

- Datenerhebungsmethoden: Vgl. den längeren Aufsatz über die empirischen  Erhebungsmethoden (Stichprobe: Abschlussarbeiten, Master, Bachelor). Im Mittelpunkt steht normalerweise das Interview, wobei qualitative Interviews an Bedeutung gewinnen. Beobachtung (teilnehmend und nicht- teilnehmend)  und Inhaltsanalyse werden unterschätzt. Die Inhaltsanalyse von Ergebnissen anderer empirischer Studien ist sehr wichtig (Sekundärstatistik). Das Experiment wird zu wenig genutzt. Teilnehmende Beobachtung wird zu wenig beachtet. Hierunter können z. B. Aufenthalte im Ausland (im OAI 1 Jahr) subsumiert werden. Datenerhebungsmethoden müssen im Statistikunterricht viel stärker gewichtet werden. Spätestens beim Schreiben der Thesis arbeiten die Studenten normalerweise empirisch.

-Eyeballing (Pi mal Daumen): Grobe Einschätzung, wenn genaue Methoden nicht einsetzbar sind. Kommt da zum Einsatz, wenn es um die Zukunft geht, die eher dem Orakel von Delphi ähnelt (Deshalb manchmal Delphi-Methode genannt). In der Marktforschung gibt es eine ähnliche Vorgehensweise, die man "quick and dirty" nennt. Es geht um ganz einfache Verfahren, die Zeit und Geld sparen. Deshalb findet man sie häufiger bei KMU.  Sehr einflussreich ist folgende Studie: Carl Benedikt Frey/ Michael Osborne, Oxford: The Future of Employment (Ursprünglich und heute noch im Internet). Danach sollen etwa die Hälft der Arbeitsplätze von 2013 bis 2030 wegfallen. Die Studie umfasst 72 Seiten und wurde als Thesenpapier veröffentlicht. Es wird eine Liste von 702 Berufen in den USA aufgestellt. Dann wird gesagt, welche Berufe gefährdet sind. Die Methode ist "eyeballing" (Pi mal Daumen). Diese Studie hat sich verselbständigt, weil ein Mangel an Alternativen vorliegt.

- Skalierung (Messen):

Qualitative Merkmale: Nominal skalierte Merkmale (lediglich Unterschiedlichkeit (Geschlecht, Wohnort). Ordinal- oder rangskalierte Merkmale, die eine Reihenfolge der Merkmalswerte darstellen (z. B. Schulnoten).

Quantitative oder kardinal bzw. metrisch skalierte Merkmale. Intervallskalierte Merkmale, mit denen nur ein Abstand ausgedrückt werden kann (Temperaturen). Verhältnisskalierte Merkmale, die auch ein Verhältnis zweier Merkmalswerte darstellen können (Körpergröße).

Die Auswertungsmethoden der Statistik hängen ganz entscheidend von der Skalierung ab.

- Sekundärstatistik: Bereits vorliegende Daten werden ausgewertet. Die VGR sind weitgehend eine Sekundärstatistik. Das Gegenteil ist die Primärstatistik, bei der die Daten speziell erhoben werden. Mit welchen Quellen man arbeitet, hängt ganz entscheidend von Zeit und Geld ab. Natürlich kann allein schon der Hang zu kostenlosen sofort verfügbaren Zahlen selektiv wirken. Immer mehr Probleme bereiten Regierung und Behörden beim Zugang zu wichtigen empirischen Daten. Oft mischen sich 16 Datenschutzbeauftragen ein. Wünschenswert wären einheitliche Regeln. Vgl. Regina Riphahn in WiWo 17/ 21.4.17, S. 40. 

- Verhältniszahl: Dazu gehören die Gliederungszahl (Zähler kommt noch mal im Nenner vor; Arbeitslosenquote), die Beziehungszahl (Quotient aus zwei sachlich unterschiedlichen Zahlen; Bevölkerungsdichte) und die Messzahl (Quotient zweier gleichartiger statistischer Bestandszahlen; in der Regel zeitbezogen; einfache bis Gruppenmesszahl/ Index). Verhältniszahlen sind in Volks- und Betriebswirtschaftslehre sehr wichtig. Die meisten Kennzahlen der BWL, etwa in der Finanzierung,  sind Beziehungszahlen.

- Preisindex:  Der Preisindex ist eine Verhältniszahl, spezieller eine Messzahl. Ein Index kann mehrdimensionale Sachverhalte auf eine Ebene reduzieren. Weltweit hat sich als Preisindex der Index von Laspeyres (portugiesischer Abstammung, lehrte zuletzt als Professor in Deutschland) durchgesetzt. Er arbeitet mit dem Warenkorb (q0) der Vergangenheit. Somit beantwortet er die Frage, was würde der Warenkorb der Vergangenheit heute kosten. Außerdem gibt es noch den Preisindex von Page (aktueller Warenkorb) und den Wertindex. Praktische Probleme des Preisindex sind der Normalhaushalt (4 Personen; real nur 1,4 Kinder), die Einbeziehung von Qualitätsverbesserungen, die Verzerrung durch Dominanzfaktoren (Öl, Mieten),  die Volatilität von Preisen, die Repräsentativität des Warenkorbs u. a.

Große Probleme bereitet bei der Berechnung der Teuerungsrate mittlerweile der digitale Handel. Die Preise fahren Achterbahn. Die Verwirrung hat System. Bekannt geworden sind die starken Preisschwankungen beim Benzin an der Tankstelle. Hier ändern sich innerhalb von Stunden vielmals am Tag die Preise. Ständige Preisschwankungen verunsichern die Konsumenten. Der Trend könnte zur Individualisierung gehen.

- Mittelwerte: Es gibt zahlreiche verschiedene Mittelwerte. Die statistische Kunst besteht darin, den richtigen Mittelwert auf die passende Problemstellung anzuwenden. In der VWL ist der geometrische Mittelwert etwa für Wachstumsfragen sehr wuchtig. Besonders über die Verwertung und Manipulationsmöglichkeiten von arithmetischem Mittel und Median sollte man Bescheid wissen.

- Verteilungsmaße: Gini-Koeffizienten (Alternativen: Herfindahl, relative und absolute Konzentration, Anteile am Medianeinkommen, Mittelwerte, Lorenzkurve, Pro-Kopf-Einkommen u. a.). Der Wert eins bei Gini definiert totale Ungleichheit (einer hat alles und alle anderen nichts). Bei null besteht völlige Gleichheit. Graphisch kann dies an der Lorenz-Kurve dargestellt werden. Der Gini-Koeffizient ist nach einem italienischen Statistiker benannt und berechnet mathematisch die Fläche zwischen Diagonale und den Seiten in einem Rechteck. Über die mathematischen Methoden und deren Vor- und Nachteile herrscht Klarheit. Das Problem sind die zugrunde liegenden amtlichen Statistiken. Sie sind verzerrt, mit Lücken behaftet und veraltet. Auch die Zuordnung statistischer Daten zu der Formel ist umstritten. Der Herfindahl-Index berechnet sich aus der Summe der quadrierten Marktanteile, z. B. der Anbieter (erliegt zwischen 1 und 1/n). Je größer der Wert ist, desto größer ist die gemessene Konzentration.

- Einkommens- und Verbrauchsstichprobe (EVS): Sie liefert repräsentative Informationen über Einkommen, Vermögen, Schulden und die Konsumausgaben in Deutschland. Die Teilnehmer führen drei Monate ein Haushaltsbuch ("Feinaufzeichnungsheft"), in das sie sämtliche Ein- und Ausgaben eintragen. Die Teilnahme ist freiwillig und wird honoriert. Normalerweise nehmen etwa 10.000 Haushalte teil. Die Befragung ist alle fünf Jahre, zuletzt 2013 und 2008. die nächste Befragung ist 2018 wieder. die Auswertung erfolgt mittlerweile in der Zweigstelle des StBA in Bonn.  Die allererste EVS war 1962. Das Konzept kann immer nur eine annäherung sein. Die Konsumgewohnheiten werden immer verschiedener. Die EVS ist Grundlage für den Warenkorb im Preisindex für die Lebenshaltung. Dieser Preisindex wird nach dem statistischen Verfahren von Laspeyres errechnet (Warenkorb der Vergangenheit). In den letzten Jahren wurde der Verbraucherpreisindex stark vom Ölpreis dominiert. 2013 zeigt sich, dass es erstmals mehr Handys als Festanschlüsse gibt (93% der 40 Mio. privaten Haushalte haben mindestens ein Handy).

- Sozio-oekonomische Panel (SOEP): Ist die ergiebigste Datenquelle zur sozialen und ökonomischen Lage deutscher Haushalte. Es handelt sich um ein Umfrage - Panel (Längsschnittstudie). In der Stichprobe sind 11.000 Haushalte mit mehr als 240 Fragen. Es ist die älteste (seit 1984) und größte (30.000 Befragte) Haushaltsumfrage in Deutschland. Die Daten können von allen Wissenschaftlern genutzt werden (Datenweitergabevertrag, Schulung). 2016 werden auch die Flüchtlinge einbezogen (zusammen mit IAB und BAMF). Die Migranten - Daten sollen ausgeweitet werden. Im SOEP gibt es auch Fragen zur Gerechtigkeit. 2016 glauben 65% im Vergleich zu anderen einen gerechten Anteil zu erhalten. 20% (2014) glauben, dass die Gewinne in Deutschland im Großen und Ganzen gerecht verteilt werden.

- Ökonomische Rankings: Verfahren für eine Rangfolge. Sie sind allgegenwärtig und eines der Hauptanwendungsgebiete der Statistik. Viele Produzenten von Statistiken haben darauf ihr Geschäftsmodell gegründet. Rankings haben zahlreiche Fallstricke: unpassende Bezugs- oder Vergleichsgröße, keine Sorgfalt auf den Nenner, Schwierigkeiten nur im Kleingedruckten, nur als Grundlage für politische Forderung. Eng verwandt mit dem Ranking ist das Rating. Es ist ein Verfahren zur Beurteilung nach hierarchischen Bewertungsklassen. Bekannt ist z. B. AAA bei Kreditwürdigkeit. Nicht verwechseln sollte man diese Verfahren mit Screening und Scoring. Screening ist ein standardisiertes, manchmal automatisiertes Auswahlverfahren. Scoring ist eine Methode, um aus vorliegenden Daten über eine Person künftiges Verhalten vorherzusagen.

- Normalverteilung: Es handelt sich um ein Zufallsmuster. Wahrscheinlichkeitsverteilung in Glockenform. Ein gutes Modell für häufige Beobachtungen in der realen Welt. Die Wahrscheinlichkeit, einen bestimmten Datenwert zu erhalten, ist in der Nähe des Mittelwertes am größten und fällt dann rasch ab. Wie schnell, hängt von der Standardabweichung ab. "Es ist unmöglich, dass das Unwahrscheinlichste nie geschieht", Emil Gumbel, Statistiker, 1891-1966).

- Stichproben: Sie werden aus Grundgesamtheiten (N) gezogen, wenn diese zur Verfügung stehen. Mit Hilfe der induktiven Statistik kann dann die Qualität der Stichprobendaten eingeschätzt werden (Repräsentativität). Grundgesamtheiten sind aber selten vorhanden, so dass keine Zufallsauswahl gezogen werden kann. Zufallsauswahlen sind die Grundvoraussetzung, um multivariate Auswertungsverfahren einsetzen zu können. Bei genügend großem n (Größe der Stichprobe) wird darüber hinweggesehen. In der Marktforschung dominieren praktische Stichprobenlösungen ("quick and dirty"), die schnell und billig umzusetzen sind. Dazu gehören die Auswahl "Aufs Geratewohl", die Klumpenstichprobe oder geschichtete Auswahlverfahren.

- Signifikanztests: Sie untersuchen, ob eine ökonomische Größe einen signifikanten Einfluss auf eine andere hat.  Statistische Signifikanz hilft uns zu quantifizieren, ob ein Ergebnis eher zufällig zustande gekommen ist oder von einem bestimmten Faktor beeinflusst wurde. Signifikanztests  sind größtenteils unsinnig, da die notwenigen Bedingungen selten erfüllt sind (vor allem hinsichtlich der Stichprobenqualität). Der Größe des Einflusses wird allein aus der Zahl ablesen, ohne den Bezug zur Umwelt ausreichend zu berücksichtigen.  Bei der Anwendung müssen zumindest die Ergebnisse immer ausreichend relativiert werden. Saubere Daten und eine sorgfältige Verarbeitung sind sehr viel wichtiger als statistische Signifikanz. Vgl. auch: Amy Gallo: Was war noch mal ...statistische Signifikanz?, in: Harvard Business Manager, Juli 2017, S. 102f. Der p-Wert bezeichnet auch nur die Wahrscheinlichkeit dafür, dass ein statistisch gefundenes Ereignis auch ohne den vermuteten Effekt durch Zufall zu Stande gekommen ist. Er sagt nichts über die Größe des Effekts aus und ist auch kein Maß für die Wahrscheinlichkeit eines falsch-positiven Befunds. Vgl. Regina Nuzzo: Fehlerschätzung. Der Fluch des p-Werts, in: Spektrum Spezial 3/17, S. 32ff.

- Wahrscheinlichkeit: Die Wahrscheinlichkeitstheorie liefert die formale Sprache und die mathematischen Werkzeuge für die Behandlung von Zufallsphänomenen. Ein Denken in Wahrscheinlichkeiten bietet sich dort an, wo keine expliziten Zufallsmechanismen im Spiel sind. Einen Verständigungszugang bietet die Vorstellung von erwarteten Häufigkeiten. Viele gesellschaftlichen Phänomene zeigen in ihrem allgemeinen Verhalten bemerkenswerte Regelmäßigkeiten, obgleich die einzelnen Ereignisse vollkommen unvorhersagbar sind.  Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 203. Der Wahrscheinlichkeitsbegriff wurde oft umdefiniert. Als revolutionär gilt das Konzept der subjektiven Wahrscheinlichkeit von Frank P.Ramsey. Es geriet in Vergessenheit. Später wurde es von Keynes ("ungewisses Wissen") und Wittgenstein weiterentwickelt. Sie setzte sich durch mit John von Neumann und Morgenstern. Sie wurde dann vervollkommnet von dem Mathematiker Savage. Kern ist die Theorie, dass der Entscheider die Wahrscheinlichkeit eines jeden relevanten Ereignisses kennt.

- Risiko und Wahrscheinlichkeit: Risiken werden in den Medien oft falsch dargestellt. Das hängt damit zusammen, dass sich relative Risiken leicht überzeichnen lassen und damit auch verkaufen. Unscheinbare Effekte können so hervorragend aufgebauscht werden (Hai-Angriffe, Diabetesrisiko u. a.). Mit relativen Risiken lassen sich leicht große Ängste erzeugen. Die absolute Risikogefahr ist meist sehr gering. Ähnlich kann mit der Wahrscheinlichkeit leicht manipuliert werden. Tückisch ist die bedingte Wahrscheinlichkeit. Hier ist immer eine Zusatzinformation erforderlich. "Einer der großen Vorteile der Wahrscheinlichkeitsrechnung ist der, das man lernt, dem ersten Anschein zu misstrauen", Pierre Simon de Laplace (1745 - 1827), Philosophischer Versuch über die Wahrscheinlichkeit. Vgl. zu diesem Thema auch: Bauer/ Gigerenzer/ Krämer: Warum Dick nicht Doof macht und Genmais nicht tötet, München 2016.

- Formel von Thomas Bayes (bedingte Wahrscheinlichkeit): P(B/C)= P(C/B)P(B) geteilt durch P(C). Nach Bayes sind Wahrscheinlichkeiten zu interpretieren als Ausdruck unseres begrenzten Wissens. Bayes war ein englischer Pfarrer. Er verteidigte auch mit großem Sachverstand Newtons Differentialrechnung. Er ruht in der Familiengruft der Bayes in Bunhill Fields. Die Grabstätte wurde 1968 mit Spenden von Statistikern aus aller Welt restauriert. Vgl. Dressler, M.: Thomas Bayes und die Tücken der Statistik, in: Spektrum Spezial 3/17, S. 74ff. 

- Wahrscheinlichkeitsrechung und Schlüsse: Es gibt bei einer Folge von Würfeln eines Würfels keine Tendenz zum Ausgleich eines Ungleichgewichts (der Würfel hat kein Gedächtnis). Gleichwohl strebt die relative Häufigkeit für jede einzelne Augenzahl gegen 1/6 (im Grenzwert unendlich vieler Würfe, Gesetz der großen Zahlen). In diesem Grenzwert ist die "Wahrscheinlichkeit 1" etwas anders als die Sicherheit. Der statistische Mittelwert ist keineswegs der häufigsten vorkommende. Vgl. Ian Stewart: Gesetz der großen Zahlen. Irrfahrt zum mittelwert, in: Spektrum Spezial 3/17, S. 6ff.

- Korrelation und Kausalität: Korrelation (Zusammenhang) und Kausalität (Ursache - Wirkung) werden oft verwechselt. Ersteres bezieht sich auf die Gemeinsamkeit von Merkmalen. Das Zweite ist eine Kausalität. Das berühmteste Beispiel ist der Zusammenhang von Störchen und Geburten. Wo viele Storchenneste sind, gibt es auch viele Geburten. Man bezeichnet diesen Zusammenhang als Scheinkorrelation. Die intervenierenden Variablen ländliche Region und katholische Religion müssen zusätzlich in Betracht gezogen werden (vergessene Variablen).

- Bedeutung eines Bezugssystems: Ursprung ist die Relativitätstheorie von Albert Einstein. Jede Kultur hatte ihr Omphalos, etwas wie der Mittelpunkt der jeweiligen Welt (Nabel der Welt, Axis Mundi, Säule der Erde). Es war ein universelles Symbol, das aber an unterschiedlichen Orten lag (Black Hills bei den Sioux in Nordamerika, Fujiyama in Japan, Delphi in der Antike, Royal Observatory in Greenwich im Britischen Empire). Einstein stellt in seinem 1916 erschienen Buch "Über die spezielle und allgemeine Relativitätstheorie" fest, dass kein Bezugssystem mehr Geltung beanspruchen kann als ein anders. Wichtig sei, dass ein Bezugssystem definiert wird. Eine Positionsangabe gibt immer erst Sinn, wenn ein Bezugssystem definiert ist. Was beobachtet wird, hängt sonst  zum Teil vom Beobachter ab. Jeder Omphalos ist vollkommen willkürlich. Vgl. John Higgs: Alles ist relativ und anything goes, Berlin 2016

- Datenanalyse in der Digitalisierung: Hier ist ein neues Betätigungsfeld der Statistik. In digitalisierten Unternehmen und anderen Organisationen schafft die Datenanalyse zusätzliches Wachstum. Daten sind der Rohstoff der Zukunft in der Wissensgesellschaft. Geschäfte werden  datengetrieben ablaufen (Programmic Advertising). Die Wettbewerbsvorteile der Unternehmen ergeben sich in einem besseren Verständnis der Märkte. Kürzere Produktzyklen, hohe Bedarfsschwankungen und eine verstärkt individualisierte Produktion erfordern eine engere Anbindung der Unternehmen an Lieferanten und Abnehmer.

- Intelligente Datenanalyse in der Praxis: In allen Bereichen greifen Big-Data-Analysen um sich. Das gilt für die Medizin, fürs Finanzamt, für die Marketing-Abteilung der Unternehmen und viele andere. Big Data besteht aus vier wichtigen Elementen: 1. Datenmenge (Anzahl von Datensätzen und Files). 2. Datenvielfalt (Variety, Fremddaten, Firmendaten, unstrukturierte Daten). 3. Datengenerierung in hoher Geschwindigkeit (Velocity, Übertragung  der konstant erzeugten Daten in Echtzeit). 4. Erkennen von Zusammenhängen (Analytics, Bedeutung, Muster, Data Mining, Text Mining). Es tauchen dabei auch eine Reihe von Herausforderungen auf: 1. Total Cost of Ownership. 2. Datenverluste. 3. IT - Sicherheit. 4. Transparenz. 5. Dateninterpretation und Validierung. 6. Entscheidungsbasis. Die Statistik ist in der Digitalisierung  von einer Hilfswissenschaft zur Basis- und Kernwissenschaft aufgestiegen.

- Root Simplicity: Eigentlich eine These der Psychologie. Je unübersichtlicher eine Sache wird, desto eher fallen wir in eine Vereinfachung zurück. Es ist eine Ursachenvereinfachung. Selbst wenn man Menschen sagt, dass ein einziger Grund zehnmal unwahrscheinlicher ist als die Summe der Gründe, bleiben Menschen ihrer Annahme treu. Das erklärt auch zum Teil, warum Verschwörungstheorien so leicht verfangen.

- Auswertungsverfahren: Ihre Anwendung richtet sich nach dem Skalenniveau der ausgezählten Variablen. Haben unabhängige und abhängige Variable das gleiche Skalenniveau ist der Einsatz klar vorgeschrieben: Bei Nominalskalen arbeitet man mit der Tabellenanalyse (und berechnet dann z. B. den Kontingenzkoeffizient). Bei Ordinalskalen kommt die Rangkorrelation, z. B. nach Spearman, zum Einsatz. Bei metrischen Skalen wertet man am besten mit Bravais-Pearson aus. Schwieriger ist die Entscheidungssituation, wenn unabhängige und abhängige Variable verschiedene Messniveaus haben. Entweder kann man hier das Skalenniveau verändern (nach unten, oder Dummies bilden) oder man sucht spezielle Verfahren wie die Varianzanalyse oder aus ihr abgeleitete Varianten (z. B. Diskriminanzanalyse). für spezielle Fragestellungen können auch weitere Verfahren verwendet werden (z. B. Clusteranalyse, Faktorenanalyse).

- Regression (Regressionsanalyse): Eine der wichtigsten Denkrichtungen und Analysemethoden in den Wirtschaftswissenschaften. Es geht um die empirische Analyse von Ursache-Wirkungszusammenhängen. Diese sind ganz schwierig von reinen Korrelationen zu unterscheiden (oft nur durch eine sinnvolle Theorie). In der Statistik-Ausbildung wird in der Regel nur die lineare Einfachregression behandelt. Dabei benutzt man die Formeln der Methode der kleinsten Quadrate. Multiple Regressionen können nur mit Computer-Hilfe (z. B. SPSS) berechnet werden. Wichtig ist vor der Anwendung der Regression die Prüfung der Anwendbarkeit (Punktewolke, Theorie, Hypothese). Man benutzt die Regressionsmethode auch für Prognosen, aber aufgepasst: "Der Schwanz des Hundes wächst in der ersten Lebenswoche 7 Zentimeter. Nach 52 Wochen müsste er also gut 3 1/2 Meter lang sein." Rudolf Nölle (zitiert nach: Mankiw u. a., Volkswirtschaftslehre, Stuttgart 2015, S. 485). Mit Data-Mining lassen sich heute Zusammenhänge finden, die keine theoretische Basis haben. Vor allem der Publikationsdruck in der Wissenschaft verleitet heute zu besonderer "Kreativität". Die American Economic Review (AER), die als weltweit führende Fachzeitschrift im Bereich der Ökonomie gilt, hat ein eignes Datenarchiv eingerichtet. Die hinterlegten Daten können von anderen Forschern überprüft werden. Subjektive Elemente bei der Selektion von Daten sollen so eingeschränkt werden. Insgesamt gibt es sieben wichtige Typen der Regression. Jede Regressionsgerade hat auch einen Fehlerterm, weil unabhängige Variablen niemals eine perfekte Vorhersage der abhängigen Variable liefern können.

- Zeitreihenanalyse: Analyse statistischer Größen im Zeitablauf. Man arbeitet mit der Regressionsanalyse oder der Methode der gleitenden Durchschnitte. Diese Analysemethode ist sehr wichtig für die Konjunkturforschung.

- Analyse von Kursen und Entwicklungen an der Börse: Zum Start macht man eine Fundamentalanalyse (Konjunktur, Lage der Finanzmärkte, Betrachtung des Unternehmens, Ausland). Dann erfolgt die Chartanalyse (Trend, Muster, Wellen). Danach kommt eine markttechnische Analyse (Indikatoren, gleitende Durchschnitte). Den Abschluss bildet die Einzelanalyse (Volatilität, Intuition, Faktoren).

- Machine Learning: Kluge Maschinen (geistige Arbeit von Maschinen). Computerprogramme verbessern sich selbst (Teil der künstlichen Intelligenz). In der Datenanalyse sind die Anwendungsmöglichkeiten beeindruckend. Beim Supervised Learning  sind Klassifizierungen und Regressionsanalyse möglich (logistische Regression, Entscheidungsbäume, Random Forest). Anwendungsmöglichkeiten sind hier Klassifikation von Bildern und Dokumenten, Betrugserkennung, Empfehlungssysteme. Beim Unsupervised Learning geht es um die Clusteranalyse und die Hauptkomponentenanalyse. Anwendungsmöglichkeiten sind Kunden- und Marktsegmentierung, Spracherkennung, Spam-Filter, Sentimentanalyse.

- Darstellungsformen der Ergebnisse: In den Anfängen der empirischen Forschung, die in den USA nach dem 2. Weltkrieg aufgebaut wurde, dominierten die Tabellen. Demgemäß waren die meisten empirischen Forscher und auch die Nutzer geschult im Lesen von Tabellen (so wurde meist auch die Tabellenanalyse in der Auswertung genutzt). Das änderte sich grundlegend mit der Popularisierung der Auswertungsverfahren. Heute kann jeder Student an seinem PC die komplexesten multivariaten Verfahren (z. B. mit SPSS) bewältigen. Automatisch sind damit in der Regel auch bestimmte Darstellungen verbunden. Es überwiegen eindeutig Graphiken. So haben moderne Abbildungen die Tabellen verdrängt (meist als Grundauszählung nur noch im Anhang).

- Piktogramme und Bilder: Es sind Bildzeichen, die in der Ergebnisdarstellung immer mehr Gewicht bekommen.  Es sind Bilder mit einfachen Botschaften, die jeder versteht (und die uns teilweise durchs Leben dirigieren) Diese haben einen entscheidenden Vorteil: Jeder kann sie erkennen, unabhängig von der Sprache. Sie erklären sich quasi blitzschnell von selbst. Die Piktogrammen sind Vorläufer vieler Schriften. Deutlich wird das am Beispiel chinesischer Schriftzeichen oder ägyptischer Hieroglyphen. Insofern deutet der Aufschwung der Bildzeichen auf eine Rückkehr zu den Anfängen von Sprache hin. Eine starke Gewöhnung an Bildzeichen bringen die sozialen Medien mit sich. Whats app und andere Anbieter haben Sammlungen von Piktogrammen, aus denen Nutzer jeweils passend zu Inhalten auswählen können. Damit dringen die Piktogramme stark in die Kultur ein und sind insgesamt in der Darstellung auf dem Vormarsch. Sie werden zu einer Universalsprache der Moderne.  Bildzeichen haben auch eine große Bedeutung für die Macht von Marken und das Design. Normalerweise gilt das Erfolgsrezept: Je einfacher, desto besser. "A picture is worth a thousands words". - Ein Bild ist so viel wert wie tausend Worte.

- Lineare und exponentielle Zusammenhänge: Lineares Denken ist bei Menschen beliebter, weil es leichter fällt. Viele Zusammenhänge in der Realität sind allerdings exponentiell (Zinseszinseffekt, Wachstum von Bakterien, Ausbreitung von Viren). Dabei können folgende Typen unterschieden werden: 1. Zuerst flach, dann steil ansteigend. 2. Zuerst flach, dann steil abfallend. 3. Zuerst steil, dann flach ansteigend. 4. Zuerst steil und dann flach abfallend. Um lineares Denken einzudämmen sollte man wie folgt vorgehen:  Schritt 1: Die Problematik erkennen (linear oder exponentiell). Schritt 2: Auf Ergebnisse statt Indikatoren konzentrieren. Schritt 3: Die Art der nicht linearen Beziehung ermitteln. Schritt4: Nicht lineare Zusammenhänge skizzieren. Vgl. Bart de Langhe, Stefano Puntoni, Richard Larrik: Ohne Mathe geht es nicht, in: Harvard Business Manager Juli 2017, S. 68ff.

- Manipulation durch Statistik (Lügen): Vgl. Walter Krämer, So lügt man mit Statistik, Frankfurt/ New York 1992. Gerd Bosbach/ Jens Jürgen Korff, Lügen mit Zahlen. Wie wir mit Statistiken manipuliert werden, München 2011. Beliebte Methoden sind die folgenden: Basis nicht nennen, verzerrte, vorsortierte Stichprobe, manipulierte Mittelwerte, frisierte Graphiken, Korrelation statt Kausalität, nicht repräsentative Stichproben, politische Definition von Quoten und anderen ökonomischen Größen (z. B. Armut),  u. a. Erstmals deckte Darrel Huff in seinem Buch "How to lie with statistics" Tricks und Fallstricke bei der Interpretation von Zahlen auf.  Aktuell ist der Fall des ehemaligen Leiters der griechischen Statistikbehörde interessant: Andreas Georgiou. Es übernahm 2010 die Leitung der Statistikbehörde "Elstat". Er machte Schluss mit den geschönten Finanzzahlen der "Greek Statistics" (reformierte die Arbeitsweise der Behörde, EU-Standards). Dafür soll er 2016 ins Gefängnis. Man sucht einen Sündenbock für die Schuldenmisere Griechenlands. "Ich wollte meinem Land dienen", Georgiou 2017. Nachfolger als Leiter des statistischen Amtes wurde Thanopoulos. Der Leiter der britischen Statistikbehörde Norgrove mahnt in der Brexit-Diskussion mehrmals einen klaren Missbrauch öffentlicher Statistiken an. Meist werden Zahlungen von der EU an GB verschwiegen. Dabei tut sich Boris Johnson besonders hervor. Im September zeigt der barische Innenminister Herrmann wie man eine Statistik fälscht: Er rechnet alle Formen sexueller Nötigung plötzlich zu Vergewaltigung hinzu und kann so beweisen, dass eine hohe Steigerung von Sexualdelikten mit den Zuwanderern zusammenhängt ("Unterholz politischer Statistik"). 2017 soll Griechenland das Ausmaß der Abwanderung in andere Länder vertuschen (Flüchtlingszahlen in Griechenland runterrechnen, damit die Abwanderung in andere EU-Länder kaschiert werden kann).

Methodenehrlichkeit: Statistiken sind immer nur so viel wert,  wie die Qualität der Methoden ist. Gültigkeit und Zuverlässigkeit müssen eingehalten werden. Aber auch die Methode selbst muss immer relativiert werden. Einmalige Beobachtungen können nicht zu gleich guten Daten wie Panelstudien führen. Gerade in der Medizin wird hier geschludert, weil die Pharmaindustrie großen Einfluss ausübt. Vg. Peter Nawroth: Die Gesundheitsdiktatur, Kulmbach 2016.

- Fehlermöglichkeiten und Grenzen: Fehler können im Datenmaterial liegen, es kann sich auch um Datenmanipulation handeln, es können Unterschiede in den Modellen bestehen, es können Anwendungsfehler von Methoden oder falsche Interpretation sein. "Die Menschen stolpern nicht über Berge, sondern über Maulwurfshügel", Konfuzius.

- Fake News: Bewusst gefälschte Nachrichten im Internet. Die Trennung zwischen Wahrheit und Meinung wird aufgehoben. Damit wird Wirklichkeit zum Teil abgeschafft. Gerade die sozialen Netzwerke - wie etwa Facebook - werden zum Verbreiter reißerischer Überschriften und Gerüchteköchen. In den USA beziehen 2016  schon rund ein Drittel der Bevölkerung Nachrichten aus dem Internet (Google, Soziale Medien). In Deutschland ist die Nutzerzahl geringer, aber relativ hoch bei jungen Menschen. Das gilt für alle Industrieländer. Für die 18- bis 24- Jährigen sind die Sozialen Medien die wichtigste Nachrichtenquelle. Je reißerischer die Überschrift ist, desto mehr Klicks gibt es. Die Hochschulen und Schulen müssen hier gegensteuern. 2017 plant der Bundesjustizminister ein Gesetz gegen Hass im Internet. Die sozialen Netzwerke und Plattformen (mehr als 2 Mio. Nutzer) sollen Lügen und Hasskommentare löschen. Es trifft vor allem Facebook, Twitter und Youtube. Bei Verstößen drohen millionenschwere Bußgelder. Die Materie ist aber recht kompliziert: Häufig werden Mix-Methoden eingesetzt, d. h. Fakten und Fakes werden gemischt. Richtigstellungen werden auch weniger wahrgenommen. In Wahlkämpfen werden sogar Fake-Fabriken eingesetzt. Als Geschäftsmodell ("Klick-Köder") sind Fakes auch attraktiv. Im Internet ist es auch leicht, Fakes massenhaft unter verschiedenen Identitäten zu verbreiten ("Meinungs-Maschinen"). Die Lügen-Lage ist oft schwierig einzuschätzen.   Fake News dürfte auch den amerikanischen Wahlkampf beeinflusst haben. Als "Stadt der Lügner" gilt Veles in Mazedonien. Viele gefälschte Nachrichten kommen aus dieser Kleinstadt. Zeitweise waren 140 Internetseiten mit Falschnachrichten in dem Ort registriert. Die Bundesregierung will in Zukunft Falschinformationen im Internet unterbinden: Facebook und andere soziale Netzwerke sollen eine ständige Rechtsschutzstelle einrichten, an die sich Betroffene wenden können. Werden die Informationen binnen 24 Stunden nicht gelöscht, droht ein Bußgeld bis zu 500.000 €. Auf dem Chaos Communikation Congress in Hamburg 2016 sind IT - Experten der Ansicht, dass die Maschine zwischen Wahrheit und Lüge unterscheiden kann - mit Hilfe der Nutzer. Das System von Facebook arbeitet wie folgt: Nutzer melden Falschnachrichten. Dann prüft das US-Unternehmen anhand von Plausibilität. Dann werden die Postings mit einem Warnhinweis versehen mit Begründung der Entscheidung (Link). Dann keine Werbung mehr; eventuell wird die Sichtbarkeit noch reduziert. Fake News wird immer wieder im Auftrag des russischen Geheimdienstes eingesetzt. So tauchen im Netz immer wieder Vergewaltigungen auf entweder an russischen Mädchen in Deutschland oder an osteuropäischen Mädchen von deutschen Soldaten. Mitte 2016 erschien in einer polnischen Zeitung ein Interview. Darin berichtet eine Frau von angeblich schlimmen Zuständen in einem fränkischen Dorf. Flüchtlinge hätten dort aus einem deutschen Paradies eine Müllkippe gemacht. Die Geschichte verbreitet sich in ganz Polen und erregt großes Aufsehen. Daran war Nichts wahr. Das Landgericht Würzburg stellt im März 2017 fest, dass Facebook nicht selbst nach verleumderischen Beiträgen suchen muss. Japanische Agenturen vermieten ab 2018 "Fake Friends" für Hochzeiten und Geburtstage für Menschen, die sich in den sozialen Medien von der besten Seite zeigen wollen. 

Fake News verkommt mittlerweile zu einem Etikett ohne Wert. Der Begriff wird häufig für die unterschiedlichsten Dinge verwendet. Der Einfluss ist sicher auch zurück gegangen. Ein Faktencheck hat immer auch seine Tücken. Aufgeblähter Blödsinn gehört nun mal zum Internet dazu. Hinzu kommt die Möglichkeit von Bots (Bots-Armeen). Wir werden mit Fake-News leben müssen.

- Das Postfaktische: Wort des Jahres 2016 (Gesellschaft für Deutsche Sprache). Das Verdrehen von Tatsachen und Fakten bis hin zur Lüge. In seinem Buch "1984" thematisiert schon George Orwell das Angleichen von Fakten an die Propaganda. Fakten werden heute im Internet durch eine Vielzahl widersprechender Kanäle übertönt. Fakten werden oft nicht bestritten, aber für nicht wichtig gehalten. Im Vordergrund stehen Ängste und Gefühle. Der Tatsache des Postfaktischen muss man sich stellen, am besten durch eine gute Statistikausbildung. 2017 taucht die Wortschöpfung "alternative Fakten" auf. Sie wird auf auf das Vorgehen von D. Trump bezogen. 2017 sagt er z. B. "die Mordrate in unserem Land ist die höchste seit 47 Jahren". Tatsächlich sagt die Statistik der Bundespolizei FBI  etwas völlig anderes. Der Begriff schafft es 2017 sich als Unwort des Jahres in Deutschland durchzusetzen. Insgesamt ist das Interesse an Forschungsthemen in der deutschen Bevölkerung gestiegen (von 2014 auf 2016 von 33 auf 41%). 16 Prozent der Deutschen interessieren sich überhaupt nicht für Wissenschaft.

- Wahrheit und Unwahrheit: Wirtschaftswissenschaftler ermitteln wissenschaftliche Wahrheit durch wiederholte, auf Regeln basierte Untersuchungen. Sie gelten so lange, bis sie durch andere Untersuchungen widerlegt werden können. Wahrheiten gibt es eigentlich nur in Religionen, man muss daran glauben. Wahrhaftigkeit ist mehr eine subjektive Überzeugung (nach bester Prüfung). Selbsttäuschung ist in der Wissenschaft nicht selten, weil wir durch Unbewusstes und Kultur beeinflusst sind. Irrtum ist nicht ehrenrührig, weil in der Wissenschaft Zeit und Informationen eine Rolle spielen (schnell und unzureichende Infos). Lüge ist eine wissentlich falsche Angabe. Wenn dahinter noch die Absicht steckt, andere zu schädigen, spricht man von Betrug.

- Daten und Gefühle sowie die Zukunft: Daten allein genügen nicht, sagt die Neurowissenschaft (Tali Sharot). Es verlangt nach Geschichten. Menschen nehmen Botschaften nicht an, wenn sie kein Verlangen danach haben. Informationen verändern die Gefühle und das Wohlergehen. Wenn Daten rübergebracht werden sollen, müssen sie immer in Gefühle verpackt werden. eine weitere Schwäche von Daten und Zahlen ist, dass sie passives Material darstellen. Sie haben Vergangenheit, aber nicht immer Zukunft. Entscheidungsprozesse im Gehirn sind nicht in einer einzigen Region gebündelt. In vorderen Stirnhirnbereichen analysieren wir vorwiegend die Vergangenheit. Je mehr man dieses Denken trainiert, desto mehr werden Regionen in Nervennetzwerken unterdrückt, die die Zukunft planen (vgl. Henning Beck: Die Grenzen der Algorithmen, in: Wirtschaftswoche 47/ 10.11.17, S. 93)..

-Daten, Fakten und Narrative: Strategien, die nur auf Daten und Fakten setzen, können heute Narrative nicht zurückdrängen. Narrative sind nicht nur bloße Erzählungen, sondern sie interpretieren Ereignisse und geben ihnen so eine Bedeutung. Narrative sind ansteckend und prägten so das Denken und Handeln der Menschen. Erzählungen können die Wirtschaft maßgeblich beeinflussen. 2020 im März erscheint die deutsche Übersetzung von Robert Shiller: "Narrative Economics" im Plassen-Verlag.  Die "Global Solutions Initiative", die der ehemalige Präsident des Instituts für Weltwirtschaft in Kiel Dennis Snower, ins Leben gerufen hat, soll eine Gemeinschaft internationaler Thinktanks sein. Es geht um Wert und Normen und wie man diese schmieden kann. Vgl. Gespräch mit Uwe Jean Heuser in Die Zeit, Nr. 6, 31. Januar 2019, S. 24f.

- Statistik in verschiedenen Kulturen: Folgende Fehlerarten sind zu beachten: Konstrukt-Bias (unvollständige Erfassung, kulturell unterschiedliche Angemessenheit und Verständnis); Methoden-Bias (Stichproben nicht vergleichbar, unterschiedliches Antwortverhalten, nicht gleiches Skalenverständnis); Item-Bias (mangelhafte Übersetzung, ungewollte Assoziationen).

-Statistikgläubigkeit in den Wirtschaftswissenschaften: Zahlen suggerieren eine Präzision, die es Wissenschaftlern und Politikern erlaubt, Argumente gegen Kritik zu immunisieren. Das wichtigste Lernziel des Statistikunterrichts muss darin bestehen, Daten und Zahlen immer hinterfragen zu können. Vgl. Rahim Tagizadegan. Es gibt einen Physikneid der Ökonomen, in: Wirtschaftswoche 22/27.5.16, S. 36.

-False Discoveries und Fehlerinterpretationen: Wissenschaftskommunikation mit der Bevölkerung. Adäquate Interpretationen statischer Analysen sollten eine vernünftige Bewertung der Zuverlässigkeit wissenschaftlicher Aussagen ermöglichen. Insbesondere statische Signifikanzregeln sollten verständlich vermittelt werden Vgl. Hirschauer, N./ Mußhoff, O./ Grüner, S.: False Discoveries und Fehlinterpretationen wissenschaftlicher Ergebnisse, in: Wirtschaftsdienst 2017/ 3, S. 201ff.

- Framing: Die Entscheidung, wie Zahlen präsentiert werden, was wiederum Einfluss darauf haben kann, wie die Nutzer diese Zahlen aufnehmen.

-Durchschnittswerte-Glauben und Nicht-Glauben: Menschen neigen dazu, den Begriff "Statistik" mit Durchschnittswerten zu verknüpfen. Dabei kann die gesamte Bandbreite der Zahlen verloren gehen. Statistik benötigt aber Beides. Auf der anderen Seite gibt es immer mehr Menschen, die grundsätzlich nicht mehr an die statistischen Zahlen glauben und sie deshalb beliebig selbst setzen. Dafür könnten viele Gründe verantwortlich sein: Menschen nehmen sich selbst nicht mehr als Teil des Durchschnittes wahr; Menschen wissen immer weniger, was hinter den Daten an Realität steckt; Menschen sind zu sehr an Bildern orientiert; die meisten Daten werden heute von den Internet-Konzernen kontrolliert. Darin besteht eigentlich die größte Gefahr für die Zukunft: Die meisten Daten werden privat gehütet und stehen der Allgemeinheit nicht mehr zur Verfügung. Damit lässt sich deren Wahrheitsgehalt gar nicht mehr überprüfen. Das könnte dann auch auf den öffentlichen Teil der Statistik abfärben. Vgl. Matheis/ Prange: Viele Wahrheiten, in: Wirtschaftswoche 13/ 24.3.2017, s. 63ff.

-Prognosen mit Statistik: Es gibt verschiedene Hilfsmittel der Statistik. Etwa die Extrapolation, die einen durch Regression errechneten Trend fortschreibt. Auch die Zeitreihenanalyse kann ein Hilfsmittel sein. Prognosen hängen sehr stark von dem jeweiligen Anwendungsbereich ab. Auf Prognosen an den Finanzmärkten zum Beispiel ist kaum Verlass.

In Prognosen sind die Wirtschaftswissenschaften immer recht ungenau ("dismal science", im angelsächsischen Bereich gegenüber den exakten Naturwissenschaften). Das liegt daran, dass in wirtschaftlichen Zusammenhängen Menschen im Mittelpunkt stehen. Menschliches Verhalten ist nur bedingt vorhersehbar (Menschen ändern ihr Verhalten). Häufig unterliegen Wissenschaftler auch der Versuchung, aufgrund der Vergangenheit die Zukunft vorauszusagen. Meist macht die Ökonomie nur "wenn - dann - Aussagen". Man spricht auch von Szenarien.

-Messmanie: Die Digitalisierung bringt es mit sich, dass fast alles vermessen wird. Akteure sind Unternehmen und Staaten. Auch immer mehr Unmessbares wird versucht zu quantifizieren: Beispiel Freundschaft durch Likes im Internet. Das verändert unser Leben. Die Frage ist, ob Menschen in Bereiche ausweichen können, die sich der Vermessung entziehen. Vielleicht steigt der Wert der Dinge, die noch nicht quantifizierbar sind. Vgl. Bruno S. Frey: Grenzen der Messmanie, in: Die Zeit, Nr. 40, 28.09.2017. S. 37.

Extrem werden mittlerweile Daten für Wahlkämpfe erhoben. In den USA werden diese Daten gekauft. Pro Wähler schätzt man, dass 60.000 Datensätze vorliegen (Persönliche Daten, Internetverhalten, Konsumverhalten). Wahlkämpfe werden so gezielt differenziert und spezialisiert. Di Demokratie gerät so immer mehr in Gefahr.

- Szientometrie: Viele wissenschaftliche, empirische Studien lassen sich nicht reproduzieren. Das widerspricht dem Qualitätskriterium der Zuverlässigkeit. Fachzeitschriften veröffentlichen auch bevorzugt positive Forschungsergebnisse (Hypothese wird bestätigt). Die Arbeitspraktiken von Wissenschaftlern wie auch die Auswahlkriterien der Journale sind wohl nicht immer ganz korrekt. Vgl. Ed Young: Szientometrie. Jede Menge Murks, in: Spektrum Spezial, 3/17, S. 26ff.

- Scoring: Die digitale Durchleuchtung und Bewertung des Verhaltens von Konsumenten und Bürgern nach einem Punktesystem. Grundsätzlich ist dies ein Merkmal repressiverer Staaten wie etwa China. Aber auch bei uns arbeitet man mit diesen Methoden in der Gesundheitsversorgung und in der Finanzwirtschaft sowie bei Versicherungen. Es sollten Mindeststandards geschaffen werden, um den Bürger zu schützen. Folgende Grundsätze sind wichtig: 1. Identifizierung und Transparenz. 2. Verifizierung. 3. Relevanz und Nützlichkeit. Vgl. Oehler, A.: Grundsätze ordnungsgemäßer Bewertung durch Scoring, in: Wirtschaftsdienst 2017/10, S. 748ff.

Algorithmus: Eine Regel oder Formel, die aus bestimmten Eingaben eine Ausgabe erzeugt, wie beispielsweise eine Vorhersage, eine Klassifizierung oder eine Wahrscheinlichkeit. Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 335.

Big Data:  Der Ausdruck ist zunehmend anachronistisch. Man spricht von vier V: 1. Großes Datenvolumen (volume). 2. Vielfalt von Quellen, Bildern, Social-Media-Konten, Transaktionen (variety). 3. Hohe Geschwindigkeit der Datenbeschaffung (velocity). 4. Mangel an Richtigkeit (allzu schematisch, veracity). a. a. O., S. 335f.

Deep Learning: Technik des maschinellen Lernens. Gewöhnliche Modelle artifizieller neuronaler Netzwerke werden auf viele unterschiedliche Abstraktionsebenen mit repräsentierenden Schichten erweitert.  Beispiel: von einzelnen Pixeln über ein Bild bis zur Objekterkennung.

- Gültigkeit (Validität) und Zuverlässigkeit (Reliabilität): Gütekriterien für empirische Forschung und Statistik. Gültigkeit bedeutet, dass die Messmethoden das auch wirklich messen, was man messen will. Zuverlässigkeit beinhaltet, dass andere Forscher beim Wiederholen der Versuchsanordnung zu vergleichbaren Ergebnissen kommen. Gegen beide Kriterien wird heute oft verstoßen. Viele Institutionen und Zeitschriften berechnen Indizes und Indikatoren, deren Konstruktion intransparent bleibt. Sie dienen oft zur Instrumentalisierung von eigenen Zielen oder dem Wichtigtuen. Vgl. den Anfang dieser Seite.

- Indikatoren der Wirtschaft in China und Aussagekraft der Statistik (Relativierung): Auch in der Sozialistischen Marktwirtschaft in China ist das BIP der wichtigste Indikator. Experten zweifeln aber diese Zahl an. Es stehen 5,5% Revidierung nach unten im Raum. Folgende Indikatoren sprechen für eine Korrektur nach unten: Energieverbrauch, Wachstumsraten in den Provinzen geschönt, Rückgang der Importe, Dienstleistungssektor schlecht erfasst. Es fehlt auch die Transparenz wie das Statistikbüro genau den Wert des Bruttonationaleinkommens ermittelt. Einen großen Anteil haben Schätzungen. Einige Analysehäuser sehen das Wachstum jeweils um bis zu 5% niedriger. Eine völlig unterschätzte Rolle spielen die Lokalregierungen, die gezielt falsche Zahlen liefern. Das Statistikbüro will die Vorgaben der Regierung erfüllen. "Zombie-Fabriken" (nicht ausgelastet, falsche Zahlen) tragen auch dazu bei. Chinas Wirtschaft wächst seit 1978 ohne Unterbrechung. Der Durchschnitt liegt bei fast 10 Prozent. Erst ab 2018 kommt der Einbruch mit wesentlich geringeren Wachstumsraten. Aus meiner eigenen statistischen Erfahrung und dem engen Kontakt zu chinesischen Kollegen gehe ich davon aus, dass die Statistik relativ genau ist, allerdings unter Berücksichtigung der obigen Rahmenbedingungen. Vgl. Fernald, J./ Hsu, E./ Spiegel, M. M.: Is China Fudging its Figures? Evidence from Trading Partner Data, Federal Reserve Bank of San Francisco, Working Paper, Nr. 2015-12, 2015. Auch: Chen, Z./ Liu, C./ Liu, J.: The Financing of Local Government in China: Stimulus Loans Wane and Shadow Banking Waxes, VoxChina, 9.7.2017.

- Wissen versus Statistik: Wissen sei ein überholtes Konzept, so der Londoner Philosoph David Papineau (King ´s College). Er plädiert dafür, der Statistik mehr Raum zu geben.

Es gibt fünf Arten der Lüge: die gewöhnliche Lüge, den Wetterbericht, die Statistik, die diplomatische Note und das amtliche Kommuniqúe", George Bernhard Shaw, irischer Schriftsteller.

 

Stoff von Statistik in der Lehre und Statistik als Unterrichtsfach:

1. Inhalt, Grundbegriffe, Nutzen und Träger der Statistik, 2. Phasen der empirisch-statistischen Arbeit, 3. Häufigkeits- und Summenverteilungen, 4. Anschauliche Darstellung statistischer Daten, 5. Berechnung statistischer Maßzahlen (Verhältniszahlen, Indexzahlen, Mittelwerte, Streuung, Konzentration), 6. Fehlermöglichkeiten und Grenzen statistischer Untersuchungen, 7. Das Messen von Zusammenhängen und Abhängigkeiten (Korrelation, Regression, + multivariate Methoden), 8. Zeitabhängige Daten und Prognose, 9. Aufgaben, Organisation und Arbeit der amtlichen Statistik in Deutschland sowie Europa und der Welt (insb. China, Japan), 10. Überblick über die Auslandsstatistik, Orientierungshilfe für internationale strategische Unternehmensentscheidungen, 11. Ausgewählte Bereiche der amtlichen Statistik mit Bezug zu betrieblicher Praxis und Marketing (mit Präsentation von Excel, SPSS und Statistischem Jahrbuch am PC),  12. Grundzüge der Wahrscheinlichkeitsrechnung,  13. Einige spezielle Verteilungen, 14.  Auswahlverfahren, 15. Schluss von der Stichprobe auf die Grundgesamtheit, 16. Wiederholung, Übungen.

Benford-Gesetz: In Listen mit Zahlen tritt die Ziffer 1 viel häufiger auf als alle anderen Zahlen. Eine Ziffer kommt umso seltener vor, je höher sie ist.

Literatur: Buttler/ Fickel, Einführung in die Statistik, Hamburg 2002;  Guckelsberger/ Unger, Statistik in der Betriebswirtschaftslehre, Wiesbaden 1999; Puhani, Statistik, Würzburg 2005 (vor allem: Formelsammlung); Rinne, Wirtschafts- und Bevölkerungsstatistik, München/Wien 1996; Krämer, W.: Skript "Statistik" (OLAT).

Ein möglicher neuer didaktischer Ansatz ist die PPDAC-Struktur. Ein Vorreiter in Sachen Statistik-Unterricht ist Neuseeland. Die Buchstaben stehen für folgenden Zyklus: 1. Problem (verstehen und definieren, wie finden wir eine Antwort auf die Frage?). 2. Plan (Was sollte gemessen werden? Studiendesign, Dokumentation? Datenerhebung?). 3. Daten (Erhebung, Verwaltung, Bereinigung). 4. Analyse (Daten sortieren, Tabellen/ Grafiken erstellen, nach Mustern suchen, Hypothesen aufstellen). 5. C/ Konklusion/ Kommunikation (Integration, Schlussfolgerungen, neue Ideen, Kommunikation). Vgl. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 22.

Lernziel des Statistik-Unterrichts sollte Datenkompetenz sein. Das ist die Fähigkeit, die Prinzipien hinter dem Lernen aus Daten zu verstehen, grundlegende Datenanalysen auszuführen und die Qualität von mit Berufung auf Daten gemachten Behauptungen einzuschätzen. a. a. O., S. 337.

 

Statistik und kognitive Psychologie: Factfulness

Factfulness bezeichnet eine Faktengestützte Weltsicht. Damit diese im Alltag für die Menschen zum Tragen kommt, müssen 10 Instinkte beachtet und oft überwunden werden. Diese Instinkte müssen unter Kontrolle gehalten werden, damit man Trugschlüsse loswerden kann.

Folgende Instinkte sollten kontrolliert werden: 1. Der Instinkt der Kluft (Vergleiche von Durchschnitten, Vergleiche von Extremen, der Blick von Oben), 2. Der Instinkt der Negativität (besser und schlecht, gute Nachrichten sind keine Nachrichten, allmähliche Verbesserungen sind keine Nachricht, mehr Nachrichten bedeuten nicht mehr Leid, vor der rosigen Vergangenheit hüten). 3. Der Instinkt der geraden Linie (gehen sie nicht von Geraden aus). 4. Der Instinkt der Angst (Angst kontra Wirklichkeit, Risiko=Gefahr x Ausgesetztsein, zur Ruhe kommen vor der Entscheidung). 5. Der Instinkt der Dimension (Vergleichen, 80/20, Dividieren). 6. Der Instinkt der Verallgemeinerung (Unterschiede innerhalb von Gruppen, Ähnlichkeiten zwischen verschiedenen Gruppen, vor Mehrheit hüten, hüten vor besonders anschaulichen Beispielen). 7. Der Instinkt des Schicksals (allmähliche Verbesserungen, Wissen auf den neuesten Stand bringen, sammeln sie Beispiele für kulturellen Wandel). 8. Der Instinkt der einzigen Perspektive (eine einzige Perspektive behindert die Vorstellungskraft, Werkzeugkasten statt Hammer, begrenztes Fachwissen, nicht ausschließlich Zahlen). 9. Der Instinkt der Schuldzuweisung (nach Ursachen suchen, nicht nach Übeltätern; Systeme suchen, keine Helden; erkennen, wer als Sündenbock herhalten muss). 10. Der Instinkt der Dringlichkeit (Atem holen, auf Daten bestehen, hüten vor Wahrsagern und drastischen Aktionen).

Vgl. Rosling, Hans: Factfulness. Wie wir lernen, die Welt so zu sehen, wie sie wirklich ist, Berlin 2019.

 

Manipulation durch Statistik:

1. Absolute und relative Zahlen. Bezug im unklaren lassen. Wenn nur die absolute Zahl angegeben ist, nach der relativen fragen. Wenn nur die relative Zahl (Prozentzahl) angegeben ist, nach der absoluten Zahl (Basis) fragen. Der letzte Fall kommt häufiger vor.

2. Definition von Begriffen. Nach einer klaren Definition fragen. Bei nominalen Definitionen ist die Operationalisierung schwieriger. Definitionen müssen messbar sein. Also muss eine praktikable operationale Definition vorliegen.

3. Fälschungen. Immer nach empirischen Studien und nach Details der Forschung fragen.

4. Genaue Zahlenangaben als Bluff. Analysieren, ob genaue Zahlen überhaupt ermittelbar sind. Berechnungsmethode überprüfen bzw. zeigen lassen. Gibt es Schätzgrößen?

5. Lange Zeiträume erzeugen große Veränderungsraten und große Gesamtergebnisse. Bezugszeitraum überblicken und jährliche Entwicklung errechnen. Inflation berücksichtigen bei Geldbeträgen.

4. Grafiken kreativ gestalten. Achsen der Diagramme überprüfen. Fangen sie bei Null an? Daten in anderer Form (Tabelle nachfragen, für Profis besser).

5. Prognosen konstruieren und als künftige Wirklichkeit darstellen. Immer nach den zugrunde liegenden Annahmen fragen. Sind sie realistisch?

6. Randvarianten gezielt erstellen und ausnutzen. Gibt es unterschiedliche Szenarien? Wurden mehrere Varianten gerechnet?

7. Rankings nach unbekannten Kriterien. Nach den Kriterien fragen. Ist die Gewichtung vernünftig.

8. Steigerungsraten zu besonders ausgewählten Basisjahren. Auf Basiseffekte achten. Möglichst viele zurückliegende Werte. Möglichst alle Daten im umfeld besorgen.

9. Stichprobenverzerrungen - Unsicherheiten der Hochrechnung verschweigen. Stichprobengröße. Auswahlverfahren. Gesamtheit.

10. Teile zum Ganzen erklärt.

11. Ursachen vorgaukeln. Korrelationen überinterpretieren.

12. Vergleiche von Unvergleichbarem.

13. Ganzheitliche Sicht. Keine Aspekte unter den Tisch fallen lassen.

Siehe Bosbach, Gerd/ Korff, Jens Jütgen: Echt gelogen. Wer uns mit Statistiken manipuliert und wie wir die Zahlentricks durchschauen, München 2019.

14. Drei Tipps für ein besseres Zahlenverständnis: 1. Merke, was du fühlst. 2. Klick mal auf was anderes. 3. Akzeptiere Unsicherheit. 4. Vorsicht vor Interessenkonflikten.

15. Checkliste, was man tun sollte: Frage 1: Wer legt die Zahl vor? Frage 2: Was empfinde ich angesichts der Zahl? Frage 3: Wie wurde standardisiert? Frage 4: Wie wurden die Daten erhoben? Frage 5: Wie wurden die Daten analysiert? Frage 6: Wie werden die Zahlen präsentiert?

Vgl. Blauw, Sanne: Der größte Bestseller aller Zeiten. Wie Zahlen uns in die Irre führen, München (DVA) 2019, S. 170f., 185ff.

 

Datenethik und Qualität der Statistik:

"Die Daten sprechen nicht für sich. Wir sprechen für sie. Wir verleihen ihnen Sinn". Nate Silver: Die Berechnung der Zukunft, Heyne 2013. Das ist eine fundamentale Aussage für die Statistik und Kernproblem der amtlichen Statistik. Sie erhebt unendlich viele Daten, lässt aber potentielle Nutzer allein mit diesem Schatz. Der amtlichen Statistik kann man normalerweise in allen Ländern trauen. Allerdings gibt es einige wenige Länder, die auch die Deutungshoheit über ihre Daten beanspruchen.

Zehn Fragen sollte man stellen, wenn man mit einer Behauptung konfrontiert wird, die sich auf statistisches Material stützt (Vertrauenswürdigkeit!).

1. Wie rigoros wurde die Studie durchgeführt?

2. Wie groß ist die statistische Unsicherheit in den Ergebnissen (bzw. die Konfidenz)?

3. Ist die Zusammenfassung zutreffend?

4. Wie verlässlich ist die Quelle der Story?

5. Wurde die Geschichte "hingedreht"?

6. Was wird mir nicht erzählt?

7. Wie vertrauenswürdig ist die Behauptung mit dem, was darüber hinaus noch bekannt ist?

8. Wie lautet die behauptete Erklärung für die gemachten Beobachtungen?

9. Wie relevant ist die Story für ihre Adressaten?

10. Ist der behauptete Effekt wichtig?

"Den Statistikern dieser Welt mit ihren liebenswerten Eigenschaften der Pedanterie, Großzügigkeit und Integrität - stets bestrebt, aus den verfügbaren Daten das denkbar Beste zu machen", s. Spiegelhalter, David: Die Kunst der Statistik, München (Redline) 2020, S. 6 (auch für den Inhalt oben)

 

Statistik in China, ihre Geschichte, ihre Gewinnung, ihre Qualität und ihre Genauigkeit:

China hat andere Maßeinheiten als der Westen. So gibt es zum Beispiel folgende Längeneinheiten: 1 Fen = 3,2mmm, 1 Cun = 32 mmm, 1 Chi = 32 cm, 1 Zhang = 3,2 m, 1 Li = 576 m. Folgende Flächeneinheiten sind bekannt: 1 Mu = 0,06 ha, 1 Qing =6,14 ha. Maßeinheiten sind: 1 Jin = 597 kg, 1 Jun = 7,68 kg. Volumeneinheiten sind: 1 Dou = 10,4 l, 1 Dan = 103,5 l.

Zahlen spielen in der chinesischen Vorstellung eine große Rolle: die 4 symbolisiert aufgrund der phonetischen Nähe zum Wort "Tod" das Unheil. Die 8 verspricht Glück (vor allem buddhistisch begründet). Die 7 steht für Veränderung. Die 9 war als höchste Zahl einstmals nur der Kaiserfamilie vorbehalten und stand für langes Leben. Dies lässt sich heute noch in Qufu beobachten. Der Mathematiker Zhang Quijian lebte etwa von 430 bis 490 in China. Das einzige, was der Nachwelt von ihm geblieben ist, ist sein Handbuch der Mathematik mit dem Titel "Zhang Quijian Suanjing" (drei Kapitel mit insgesamt 92 Problemen). Die 0 (Ziffer) machten die Inder zur Zahl, die dann  im Orient eingeführt (bei den Römern unbekannt) wurde, ebenso prägten die Araber die Gründzüge der Algebra. Der Grieche Pythagoras (570 bis 510 v. Chr., Samos) gilt zusammen mit Thales als der Vater der Mathematik (570-500 v. Chr., "Alles ist Zahl"). Vor über 2000 Jahren legte dann Archimedes aus Syrakus die Grundlagen der Kombinatorik und der Integralrechnung. Die Römer und Chinesen konnten mit beiden Händen 100.000 abzählen. Im Computerzeitalter wird dort heute auf diese Art wie bei uns nur noch bis 10 gezählt. In der abendländischen Kultur haben die Zahlen "Drei, Zehn und Zwölf" eine besondere positive Bedeutung. Die 13 gilt als Unglückszahl, die 11 als "verrückte" Zahl.

Die amtliche Statistik ist in China so alt wie das Kaisertum. Um ein Land von dieser Größe regieren zu können, brauchte man immer eine genaue Datengrundlage. Als offizielles Amt entstand das Statistikbüro in China wie überall auf der Welt im 19. Jahrhundert. Das Deutsche Statistische Reichsamt wurde 1871 gegründet. Etwa zeitgleich auch das Amt in China. Anfangs gab es zwischen den Ämtern enge Kontakte und einen Austausch. Die deutsche Statistik hat die Methoden und die Organisation der Ämter in China (und auch in Japan) stark beeinflusst. Großen Einfluss auf die chinesische Statistik hatte ein anderer Europäer: Der Ire Sir Robert Hart, der jahrzehntelang das Zollamt der Qing - Dynastie leitete, führte im 19. Jh. viele moderne Statistiken in China ein. Heute hat China noch drei offizielle Statistikämter: National Bureau of  Statistics  of China, Peking , Hong kong, Census and Statistic Department, Directorate General of Budget, Accounting and Statistics, Taiwan.

Quellen: Ich habe mich mal intensiver mit der chinesischen Statistik beschäftigt und das auch eine zeitlang in der Lehre gebracht. Im Folgenden die wichtigsten Quellen dazu: 1. Cremer, Rolf: Amtliche Statistik in der Volksrepublik China - Organisation, und Leistungsangebot - in: Allgemeines Statistisches Archiv, 66. Bd. 1982, S. 395ff. 2. Heuser, Robert: Das Statistik-Gesetz der Volksrepublik China, in: Allg. Statistisches Archiv 1985, S. 223-232. 3. Chow, Gregory C. : Chinese Statistics, in: The American Statistician, August 1986, vol. 40, No. 3, S. 191ff. 4.. Moore, Waltraud: Das chinesische Statistiksystem im Wandel, in: Wirtschaft und Statistik 5/ 1996, S. 289ff. 4. Moser, Günter: Die Strukturreformen des chinesischen Statistiksystems, in: Journal of Current Chinese Affairs, 1/2009, S. 181 - 201. Die Informationsgewinnung und das Informationsangebot werden staatlich gesteuert. Das ist aber in jedem Land der Welt so. Die größten Manipulationsmöglichkeiten ergeben sich in der Informationsverbreitung (wann und was).  Die Statistik ist in Asien insgesamt etwas mehr abhängig vom Staat - wie auch die Notenbanken und andere Institutionen. Das ist mehr kulturell als politisch beeinflusst. Wir haben 1991 mal beim Statistischen Bundesamt  untersucht, ob die DDR Daten manipuliert hatte. Das konnte nicht nachgewiesen werden. Unterschiede und Unklarheiten ergaben sich aus anderen Definitionen und Abgrenzungen.

Arbeitsmarkt. Schon 1979, gleich am Anfang der Reformen, wurde für die Arbeiter ein Bonussystem eingeführt. Das alte, anreizlose System (egalitäre Bezahlung) wurde sukzessive zurückgefahren. Die Arbeiter konnten selbst bestimmen, wie sie die Boni untereinander aufteilten. Mitte der 1980er Jahre kam dann eine weitere Reform: die Einführung von Arbeitsverträgen. Die Arbeitslosigkeit ist sehr ungenau: In China wird der Arbeitsmarkt statistisch nicht korrekt erfasst. Gezählt wird die Arbeitslosigkeit der städtischen Bevölkerung. Das liegt an Chinas Einwohnermeldesystem (Hukou). Wer in einer Stadt geboren ist, wird automatisch als Arbeiter registriert, wer auf dem Lande geboren ist, als Bauer. Also tauchen die Bauern, die als Wanderarbeiter ihre Heimat verlassen, nicht in der Statistik auf. Das hat natürlich dramatische Auswirkungen in großen Krisen (wie 2020 in der Corona-Krise, wo das Schicksal der Wanderarbeiter nicht zur Kenntnis genommen wird; 2008 in der Finanzkrise konnte ich mich selbst davon überzeugen: Die Züge waren voll von Wanderarbeitern in der Holzklasse, die in ihre Heimat zurück kehrten; das gleiche ist in Indien der Fall). Das Niveau der Arbeitslosenversicherung ist auch noch gering, so dass Beiträge und Leistungen von Provinz zu Provinz variieren. Die Ungenauigkeit der Arbeitsmarkt- und Arbeitslosenstatistik kann man also nicht der Statistik anlasten, sondern der Verwaltung. Viele Anzeichen sprechen aber dafür, dass die Arbeitslosigkeit in China gestiegen ist. Das zeigen Befragungen in den Großstädten oder Daten des Jobportals Zhaopin. Die Unternehmen halten sich im Handelsstreit mit den USA mit der Arbeitsnachfrage zurück. Die Staatsfirmen lassen sich nur noch bedingt dazu anhalten, Arbeiter nicht zu entlassen. Die Digitalisierung dürfte auch zu Arbeitsplatzverlusten führen, weil China nicht mehr länger die Werkbank der Welt ist. Der Dienstleistungsbereich kann nicht genügend ausgleichen. Entlastung bringt etwas die Demographie. Vgl. Petring, Jörn: Das chinesische Arbeitsmarkträtsel, in: Wirtschaftswoche 16, 12.4.2019, S. 38ff. 

2018 wird die Berechnung der Arbeitslosenzahlen etwas angepasst: Man stützt sich jetzt auf Umfragen, in die die Wanderarbeiter einfließen. Allerdings werden die Umfragen nur in Städten durchgeführt. Gavekal Dragonomics (Forschungsinstitut, Analysehaus) schätzt Ende Mai 2020 die Zahl der Arbeitslosen auf 60 bis 100 Mio.

Preise.  In der Landwirtschaft fing die Marktwirtschaft an. Bauern bekamen zunächst kleine Flächen zugewiesen, auf denen sie anbauen und anpflanzen konnten, was sie wollten. Die Ernte durften sie dann auf Märkten zu Marktpreisen verkaufen. Sukzessive wurde so die kollektivistische Landwirtschaft privatisiert. Das nützte Bauern und Verbrauchern. Es war eine wichtige Frage. Unter Mao wurden die Preise staatlich festgelegt, egal ob Gemüse, Kleidung oder Maschinen. Guangdong im Süden Chinas durfte als erste Stadt Stück für Stück Preiskontrollen reduzieren, besonders für Agrarprodukte. Dei Preise für Konsumgüter wurden schneller freigegeben als für Industriegüter. 1988 hatte Guangdong fast keine regulierten Preise mehr (in der Anfangsphase holte man sich Beratung in Statistischen Bundesamt in Wiesbaden, was die Preismessung anging). Es gab ein staatliches Preisamt in Peking, was dann auch die Ermittlung der Marktpreise übernahm. Es wandelte seine Funktion von der Preissetzung und Preispolitik zur Preismessung.

Finanzmärkte: Der Hang Seng Index (H-Index) hat seinen Namen von Hongkongs Hang Seng Bank, die den Index 1969 ins Leben rief (chinesisch, "stets wachsend").  Mittlerweile ist auch der CSI-300 in Shanghai (zusammen mit dem Component Index in Shenzhen) etabliert. Ein Index für die Börse in Tianjin wird noch eingerichtet. Hier liegt die Schwäche also in der Vielfalt, was für Anleger aber auch Vorteile hat (man sollte bei den Aktien von Firmen  auf die Vertretung in mehreren Indices achten).

Auch in der Sozialistischen Marktwirtschaft in China ist das BIP der wichtigste Indikator. Experten zweifeln aber diese Zahl an. Es stehen 5,5% Revidierung nach unten im Raum. Folgende Indikatoren sprechen für eine Korrektur nach unten: Energieverbrauch, Wachstumsraten in den Provinzen geschönt, Rückgang der Importe, Dienstleistungssektor schlecht erfasst. Es fehlt auch die Transparenz wie das Statistikbüro genau den Wert des Bruttonationaleinkommens ermittelt. Einen großen Anteil haben Schätzungen. Einige Analysehäuser sehen das Wachstum jeweils um bis zu 5% niedriger. Eine völlig unterschätzte Rolle spielen die Lokalregierungen, die gezielt falsche Zahlen liefern. Das jeweilige Statistikbüro will die Vorgaben der Regierung erfüllen. "Zombie-Fabriken" (nicht ausgelastet, falsche Zahlen) tragen auch zu Verzerrungen bei. Chinas Wirtschaft wächst seit 1978 ohne Unterbrechung. Der Durchschnitt liegt bei fast 10 Prozent. Erst ab 2018 kommt der Einbruch mit wesentlich geringeren Wachstumsraten. Aus meiner eigenen statistischen Erfahrung und dem engen Kontakt zu chinesischen Kollegen gehe ich davon aus, dass die Statistik relativ genau ist, allerdings unter Berücksichtigung der obigen Rahmenbedingungen. Vgl. Fernald, J./ Hsu, E./ Spiegel, M. M.: Is China Fudging its Figures? Evidence from Trading Partner Data, Federal Reserve Bank of San Francisco, Working Paper, Nr. 2015-12, 2015. Auch: Chen, Z./ Liu, C./ Liu, J.: The Financing of Local Government in China: Stimulus Loans Wane and Shadow Banking Waxes, VoxChina, 9.7.2017.

Es gibt auch mittlerweile eine Reihe alternativer Aktivitätsmaße für die chinesische Wirtschaft. Sie können ergänzungsweise herangezogen werden.. Für China entwickelt wurde der Keqiang-Index. Er wurde nach dem jetzigen Premierminister Chinas Li Keqiang benannt, der in einem Gespräch mit US-Diplomaten die offizielle Statistik des Nationalen Statistikbüros als "menschengemacht und unzuverlässig" abtat. In den Index gehen die wirtschaftliche Aktivität anhand der Variablen Energieverbrauch (Strom), Kreditvergabe und Eisenbahnfrachttonnen (Frachtvolumen) ein. Große Bedeutung hat mittlerweile der Einkaufsmanager-Index (PMI) für die Beurteilung der chinesischen Industrieaktivitäten. Das Wirtschaftsmagazin "Caixin" veröffentlicht ihn regelmäßig. Zu Beginn 2016 führt ein Rückgang von 48,6 auf 48,2 zu Aktieneinbrüchen in Shanghai. Sehr starke Aufmerksamkeit richtet man in China auf die Entwicklung der Erzeugerpreise (Index der Erzeugerpreise). ein deutlicher Rückgang zeigt in der Regel Konjunktureinbrüche an. China Satellite Manufactoring Index: Er überwacht die Industrieproduktion. Per Satellit werden 6000 Industrieregionen beobachtet (Start up Space now).

Eine Konjunkturabschwächung in China ab 2018 ist aber unbestritten. Zahlreiche Indikatoren signalisieren das. Besonders schlecht ist die Stimmung 2019  in kleinen und mittleren Unternehmen (Einkaufsmanagerindex). Sowohl bei Exporten als auch bei Importen haben sich die Zuwächse stark abgeschwächt. Hier wirkt sich die Handelspolitik aus. Vgl. Gern, K.-J. / Hauber, P.: Konjunkturabschwächung in China, in: Wirtschaftsdienst 3/ 2019, S. 227f. Die kleinen und mittleren Unternehmen (bis zu 50 Mio.!) tauchen genau in keiner Statistik auf (das hängt auch mit Schattenwirtschaft zusammen). Folgreich gibt es auch keine genauen Pleite- und Insolvenzzahlen. Forschungsprojekte - ich hatte 2008 eines im Perlflussdelta, wo ungeheuer viele KMU sitzen,  geplant - werden nicht unterstützt.

Corona-Krise:  Immer mehr Hinweise deuten darauf hin, dass die Zahlen in China nicht stimmen: Viele nehmen als Schattenzahlen die Urnen bei den Bestattungsunternehmen oder die Schlangen vor den Krematorien. Dann kommen Schätzungen in Wuhan allein auf 26.000 Tote mehr (gegenüber Durchschnitt). Die Führung in China scheint eine Mundtot-Politik zu betreiben bzw. ein großes Interesse daran zu haben, dass die Wirtschaft wieder in den Normalzustand kommt. Der 04.04.20 wird zum nationalen Gedenktag für Corona (Vier ist die Zahl des Todes in China, weil die Aussprache ähnlich klingt). Es ist aber seit über 1000 Jahren sowieso das Toten-Gedenkfest. Am 06.04. soll es erstmals keinen Corona - Toten gegeben haben. Insgesamt hatte China 82.803  Infizierte und 3336 Tote (offiziell). Stand dafür ist Anfang Mai 2020. Danach flammt die Seuche immer wieder auf in ganz China.

"Wer nie einmal betrogen wurde, kann kein Kenner von Geschäften werden", aus China.

 

Corona-Krise und Statistik:

"Eine Krankheit kommt so rasch, wie eine Mauer fällt. sie geht so langsam, wie man Seide vom Kokon löst", aus China. Quelle: O. V.: Reiskörner fallen nicht vom Himmel, (Gustav Kiepenheuer) Leipzig und Weimar 1990, S. 22.

Am Anfang der Seuche waren die Letalitätsraten (Anteil der Toten an den Infizierten) relativ hoch: in Wuhan 17%, in Italien 5%. Das hängt mit der Erfassung der Basis zusammen (Basiseffekt). Man hat anfangs die Zahl der Infizierten, also den Nenner, nicht genau messen können (Tests fehlten, Infrastruktur schlecht, viele Infizierte, vor allem Kinder haben kaum Symptome). So sind die Letalitätsraten dort am zuverlässigsten, wo die Erfassung am Genauesten war (Singapur, Südkorea). Statistisch handelt es sich um eine Verhältniszahl, genauer Gliederungszahl. Diese haben immer diese typischen Probleme. Am Tag der Bekanntgabe einer Zahl müsste man die eigentlich auch mal drei nehmen. Ein Infizierter hat bei seiner Registrierung schon drei Menschen angesteckt, also hinkt man immer bei den Zahlen ca. zwei Wochen hinterher. Die Entwicklung der Infiziertenzahlen ist mathematisch exponentiell. Nach Angaben der WTO, die auch in China genauer messen konnte, liegt die Letalitätsrate bei 0,5% bis 0,7% (jeder Zweihundertste, je nach Messung, Infrastruktur, Gesundheitswesen, Labore). In Deutschland lag die Letalitätsrate immer darunter. Wichtig ist statistisch auch die Grenze der Nachverfolgung: Ab welcher Zahl kann man Infektionsketten noch zurückverfolgen und kontrollieren. Diese Grenze dürfte bei 200 liegen (variabel nach Qualität der Verwaltung, Gesundheitssystem und Kultur). Es gibt auch eine hohe Dunkelziffer. Die Zahl der Infizierten muss mal 5 oder 6 genommen werden. Wenn man die Infizierten nicht testet (wie überwiegend in GB und den USA) hat man völlig verzerrte Zahlen, die nicht vergleichbar sind. Ganz wichtig ist die (Basis-) Reproduktionszahl. Sie indiziert den Grad der Verbreitung (1= steckt eine Person an; wünschenswert unter 1, 17.4. in D 0,7). Allerdings darf man diese Zahl nicht alleine betrachten: Hinzu kommen müssen immer die tägliche Zahl der Neuinfizierten, die Verdopplung und die zahl der Intensivbetten. Die Zählweise ist international auch unterschiedlich ("Zahlensalat"): In Deutschland zählt das RKI in Berlin. Die Zahlen werden von den Gesundheitsämtern in Deutschland nach oben gemeldet. Durch Zeitverzögerungen sind sie immer niedriger.  Weltweit kommen Zahlen von der WHO und der John Hopkins Uni in Baltimore/ USA. John Hopkins arbeitet mit Schätzungen und kommt immer auf höhere Fallzahlen.  Hier gehen die Zahlen der WHO, den Gesundheitsämtern und sozialen Medien ein. Die Anzahl der Tests, die Einbeziehung von Genesenen (Antikörper) haben großen Einfluss. Die WHO hinkt mit ihren Zahlen am weitesten hinterher.  Noch nicht einmal die Anzahl der Toten ist verlässlich: in Italien wird anders als in Deutschland erfasst, ob Verstorbene Corona positiv sind (das sagt, dass sie mit dem Virus gestorben sind, nicht unbedingt an ihm; extrem verzerrt). Eigentlich müsste man die Toten obduzieren, was durch die hohe Zahl aber nicht möglich ist. Kliniken und Altenheime sind nämlich zu einem Infektionsherd geworden (dren Tote werden in einigen Ländern überhaupt nicht mitgezählt). Bei weiteren Berechnungen arbeitet man auch häufig mit Analogieschlüssen aus China; Modelling mit deutschen Daten ist sicher genauer, wenn man sie einmal hat. Bei den Fallzahlen der Bundesländer (oder auch anderen) kann man nicht nur die absoluten Zahlen nehmen, sondern muss die Bevölkerungszahl hinzunehmen. Dann liegt Hamburg an der Spitze (auch auf Grund der frühen Schulferien, in denen viele Skiurlaub gemacht haben). Die Kultur spielt eine nicht so große Rolle, eher die Psychologie. Der Mensch fasst sich relativ häufig ins Gesicht (natürliche Reflexe, so dass es die Seuche relativ einfach hat bei mangelhafter Hygiene und nicht Änderung von Verhaltensweisen). Eine Strategie der "Herdenimmunität", die einige Länder mit schlechtem Gesundheitssystem erwägen, ist extrem brutal, weil überwiegend die Ältesten und Schwachen sowie Vorerkrankte  sterben müssen. In Asien hilft insofern die Kultur als man besser Quarantäne umsetzen und überwachen kann.

Durch den Verlauf in Heinsberg, der am stärksten betroffene Landkreis in Deutschland, versucht man durch Feldforschung zu lernen (Stichprobe: 1000 Befragte in 500 Familien).  Man erforscht dort, unter welchen Umständen sich Viren wie Covid-19 verbreiten und wie sie bekämpft werden können (Prof. Streek,  Uni Bonn mit 20 Mitarbeitern). Wäre das Virus berechenbar, wäre es besser kontrollierbar. Eine vergleichbare Feldforschungsstudie läuft in München. Sie wird vom Tropeninstitut und vom Helmholzzentrum der LMU München  durchgeführt. Am 09.04.20 werden die ersten Ergebnisse der Heinsbergstudie in einer Presse-Konferenz bekannt gegeben. 15% waren infiziert. Die Sterblichkeit war wesentlich geringer als von John Hopkins angegeben. Die Untersuchung wird noch ausgewertet.

Bei den Indikatoren der ökonomischen Auswirkungen von Covid-19 ist zwischen Früh- und Spätindikatoren zu unterscheiden. Frühindikatoren sind Warnsignale und antizipieren kommende Entwicklungen. Dazu gehören die Finanzmärkte, insbesondere die Aktienindizes, der Baltic Dry-Index für Container, der Goldpreis (steigt), der Ölpreis (fällt) und die Firmenumsätze (sinken). Zu den Spätindikatoren rechnen das BIP und der Arbeitsmarkt. Spätindikatoren können im internationalen Vergleich nur sehr verzögert ermittelt werden, weil Umrechnungen, insbesondere in Dollar, notwendig sind. Statistiken dürften hier auch größere Ungenauigkeiten enthalten, die später erst durch Revisionen gemildert werden. Aufholeffekte, Nachholeffekte und spezielle Profiteure (Medizintechnik, Pharmazie u. a.) sind bei Prognosen extrem schwer zu einzuschätzen. Einen derartigen Stillstand der Wirtschaft hat es vorher noch nicht gegeben, so dass auch Modelle nicht vorliegen. Arbeitsmarktstatistiken haben immer einen zeitlichen Nachlauf. Im ersten Halbjahr erwartet man in Deutschland etwa 2,1 Mio. Kurzarbeiter. 

Am schlimmsten wirken sich die Unternehmen aus, die insolvent gehen. Die werden nach der Krise in der Regel nicht wieder gegründet, also muss man alles tun, um Unternehmen am Leben zu halten. Die Zahlungsströme in die Unternehmen müssen stabilisiert werden. Im Notfall müsste sich der Staat an den großen Unternehmen beteiligen (wie in der Finanzkrise 2008). Die KMU müssen mit allen Mitteln kurzfristig über Wasser gehalten werden (Überbrückungskredite, Bürgschaften, Zuschüsse u. a.). Mehr als jedes zweite Unternehmen in Deutschland leidet bereits unter den Folgen von Covid-19. Zwangsläufig leidet die Binnenkonjunktur, aber auch der Außenhandel, wenn auch verzögert. Natürlich werden schlecht geführte Firmen ohne Reserven am härtesten getroffen. Wie das Virus bei den Menschen die Schwächsten am härtesten trifft, so ist es auch in der Wirtschaft. Das Zinstief in der EU hat viele "untote" Unternehmen am Leben gehalten. Auf jeden Fall sind die Unternehmen am stärksten betroffen, die Produktion nicht nachholen können (Hotels, Gaststätten, Restaurants).

Statistische Auswertungen der Spanischen Grippe, die in den Jahren 1918 bis 1920 wütete, legten auch einige statistische Regeln offen, die auch in dr Corona-Krise gelten könnten: Je mehr Tote es relativ zur Bevölkerung gab, desto stärker war der Wirtschaftseinbruch (Studie von Robert Barro, Usua, Weng, Harvard 2020).

Modellrechnungen: Sie basieren immer auf einem "Trade-off" (Dilemma) zwischen Gesundheitsschutz und Schaden für die Wirtschaft. So sind zuverlässige Prognosen nicht möglich, sondern nur Szenarien, die mit unterschiedlichen Zeiträumen für den "Shut down" arbeiten. Der Zielkonflikt zwischen Gesundheit und ökonomischen Erfolg ist grundlegend. Hier müssen die ökonomischen Datengrundlagen in der Statistik verbessert werden. Die Haushaltsplanung und die mittelfristige Finanzplanung brauchen Prognosen. Aber auch Unternehmen brauchen Prognosen: Entwicklung des Ölpreises, Euro/Dollar-Wechselkurs, Erwerbstätigkeit/ Arbeitslose.

Das gilt auch für das Thema ökonomische Resilienz. Dabei geht es um die Frage, mit welcher Struktur und mit welchen flankierenden Maßnahmen der staatlichen Wirtschaftspolitik man am besten durch solche Krisen kommt. Auch hiermit muss die Forschung sich verstärkt beschäftigen.

Das Imperial College in London vergleicht die Länder in Europa in einer Untersuchung Ende März 2020.  Es kommt zu folgenden Ergebnissen: Von elf untersuchten Ländern sind Norwegen und Deutschland bisher am geringsten von Corona betroffen. Die höchsten Durchseuchungsraten haben Spanien (rund 15%) und Italien (rund 10%). Man stützt sich dabei hauptsächlich auf die Zahl der gemeldeten Todesfälle durch Covid-19. Der Rest sind Schätzungen, die aufgrund der Datenlage mit Unsicherheiten belastet sind. Die Zahlen hängen stark von Corona-Tests ab. Das ist eine eigene Statistik. So spricht man von Sensitivität, wenn die Wahrscheinlichkeit gemeint ist, dass ein Infizierter richtig positiv getestet ist. Die Falsch-Positiv-Rate gibt die Wahrscheinlichkeit an, dass ein Infizierter fälschlicherweise positiv getestet wird. Die Wahrscheinlichkeit, dass ein Nicht-Infizierter richtig erkannt wird, heißt Spezifität. Wie aussagekräftig die Tests sind, hängt vor allem von der Durchseuchung der Bevölkerung ab. Ist diese Prävalenz hoch, werden die Testes genauer, weil die Fehler dann weniger ins Gewicht fallen. Flächendeckende Tests geben erst ab einer Durchseuchung von 10% Sinn.

Es entsteht eine Diskussion darüber, dass Statistiker, Gerichtsmediziner und Risikoforscher die Folgen der Epidemie relativieren. Statistiker wie Krämer, Bosbach und Gigerenzer haben in Büchern immer wieder auf Denkfehler und Panikmache hingewiesen. Sie verweisen darauf, dass Corona die Sterblichkeit kaum erhöhen wird: Viele betagte Opfer seien sowieso gestorben und viel mehr Jugendlich kämen im Verkehr ums Leben. Doch bei dieser Betrachtung werden alle Dramen und Nebenwirkungen ausgeblendet, die wir in New York, Oberitalien oder Madrid beobachten können. Ausgeblendet werden auch die ungeheuren ökonomischen und sozialen Folgen für die Welt. Statistik kann manchmal auch eindimensional sein oder umgekehrt formuliert: ungeheuer komplex.

Vor oder in einer zweiten Welle im Herbst 2020 rücken andere Indikatoren in den Mittelpunkt. In Deutschland entwickelt man ein Ampelsystem. Je nach dem welches Stadium man in einer Region (Stadt, Stadtteil, Landkreis) erreicht, werden bestimmte Regeln automatisch fällig. "Gelb" liegt vor, wenn pro definierter Region mit 100.000 Einwohnern 35 Infizierte in den letzten sieben Tagen vorhanden sind. Dann das Einfluss auf Masken tragen, Feierlichkeiten und Partys abhalten. Ab 50 Infizierten pro 100.000 Einwohner gelten strengere Regeln (es geht immer um Kontakte, Gruppengröße und Mobilität). Um die Mobilität einzuschränken arbeiten einige Bundesländer mit einem Beherbergungsverbot: Betroffene dürfen nicht in Hotel untergebracht werden oder müssen einen negativen Coronanachweis erbringen. Besser wäre eine Abschottung der Hochrisikogebiete, was aber schwer umzusetzen ist.

Die Unterscheidung zwischen Mortalität und Letalität ist schwer in der Praxis durchzuführen. Mortalität ist die Sterberate pro Einwohnerzahl. Letalität ist die Sterberate an Covid-19 bezogen auf die Einwohnerzahl. Die Gerichtsmedizin hat aber nicht die Kapazitäten, um festzustellen, wer an Covid oder wer mit Covid (Lungenversagen, Herzversagen) gestorben ist.

"Tausend Ärzte kurieren auch einen Gesunden zu Tode", aus China (Quelle siehe oben, S. 22).

Übungen/ Lösung von Fallstudien zur Statistik:

Gesundheitskennzahl. Um den Nutzen des deutschen Gesundheitssystems besser beurteilen zu können, soll eine statistische  Maßzahl konstruiert werden, die den Gesundheitszustand der Bevölkerung indiziert. Erst dann könnten die gestiegenen Kosten, insbesondere im Bereich der Zivilisationskrankheiten, richtig eingeordnet werden. Gehen Sie auf einige Probleme einer solchen Maßzahl ein.

"Die traditionelle chinesische Medizin (TCM) beruht auf fünf Säulen: chinesische Arzneitherapie, Akupunktur und Moxibustion, Tuina-Massage, Ernährungslehre und Qigong.

Der Bettler in der Wohlstandsgesellschaft (Armut). Stellen Sie einen Forschungsplan auf (u. a. mindestens eine Forschungsfrage, mindestens eine Hypothese, Auswahlverfahren usw.) für eine empirische Studie. Diskutieren Sie auch mögliche auftretende Probleme.

In der Statistik wird immer interessanter, wie Lügen verkauft werden: Bei der Bayrischen Landesbank war die ursprünglich genannte Abschreibung 1,8 Mrd. €. Diese Zahl erwies sich nach Aussage führender Politiker als "nicht belastbar", so dass sie sich auf 4,3 Mrd. "aufblähte".

Messung der Internationalen Wettbewerbsfähigkeit (betriebs- und volkswirtschaftlich).

In der Statistik ist die Fallstudie auch immer Teil der Klausur (10%). Die meisten meiner Fallstudien aus der Statistik beschäftigen sich mit Problemstellungen aus der Marketing - Forschung.

"There are three kind of lies: lies, damned lies, and statistics", Benjamin Disraeli, englischer Schriftsteller und Politiker.

Zahlreiche mathematische Übungsaufgaben zur Statistik enthält mein Skript. Ebenso ist darin eine Klausur enthalten. Zusätzlich gibt es viele Übungsbücher der Statistik. Das Skript liegt in der Regel als Kopiervorlage in der Bibliothek der Hochschule oder des OAI aus. Es kann auch als Download in das Portal des Fachbereichs oder OLAT eingestellt werden.

Stoff für Statistik:

vgl. auf der Seite "Lehre/ Courses" Gliederung für Statistik (mit Literaturangaben) oder auf dieser Seite "oben"

 

Wissenschaftlich, analytisches Denken im Wandel:

"Wir sind, was wir denken. Alles, was wir sind, entsteht aus unseren Gedanken. Mit unseren Gedanken formen wir die Welt", Buddha.

Das wissenschaftlich, analytische  Denken in allen Bereichen der Wirtschaftswissenschaften ist einem starken Wandel unterworfen. Einerseits gibt es durch das Internet und die digitalen Medien so viel Wissen so schnell wie nie. Andererseits ist dieses Wissen stark von Schlagzeilen geleitet und eher flach und breit. Die junge Generation von Studenten an den Hochschulen will lange Texte oft gar nicht mehr lesen, weil dafür  auch Geduld und Ausdauer fehlt. Insofern ist eindeutig zu konstatieren, dass an den Hochschulen im Bereich der Wirtschaftswissenschaften mehr und schneller wissen nicht automatisch mehr verstehen heißt. Eine Definition von "wissenschaftlichem Denken" ist nicht einfach (ganz gut auf den Punkt bringt es obiges Zitat) : Neben Wissen kommt sicher noch Verstehen, logisches und abstraktes Kombinieren, Kritikfähigkeit, gedanklicher Austausch (Diskurs) und ethische Relativierung dazu. Hinzu kommen Neugier und die Fähigkeit, Gedanken und Strukturen zu analysieren und auf andere Bereiche zu übertragen. Eine intensivere Auseinandersetzung mit wissenschaftlichem Denken findet sich bei Forschung/ Forschungsethik. Zum Stellenwert und den Folgen des Internet allgemein vergleiche folgende Betrachtung von mir "Stellenwert des Internet". "Unser Wohlstand beruht auf technischem Fortschritt und damit auch auf Aristoteles` Einführung des analytischen Denkens", Alfred Ritter, Unternehmer, Schokoladenhersteller Ritter Sport.

Wie können die Wirtschaftswissenschaften auf diese Entwicklungen reagieren? Die Rahmenbedingungen an den Hochschulen (Studienpläne, Prüfungsordnungen, Personalstruktur), insbesondere den anwendungsorientierten Fachhochschulen, sind so konstruiert, dass ein "Durchschleusen" großer Massen ohne große Hürden das Ziel ist. Das Beschäftigungssystem hat dies schon erkannt und überprüft die Absolventen selbst bzw. gewichtet die praktischen Tätigkeiten stärker oder beschränkt bei der Personalauswahl auf Masterabsolventen, die tatsächlich in der Regel besser sind. Es ist ein Herdentrieb zu guten Noten im gesamten Bildungssystem entstanden (von der Grundschule zur Hochschule; die Anteile der Einser-Kandidaten werden immer größer). "Die größte Medienkompetenz hat heute, wer sie als Unterlassungskompetenz begreift und dem Nach-Denken Raum gibt", Dieter Schnaas: Immer mit der Ruhe, in: Wirtschaftswoche, 1/ 23.12.2015, S. 78.

Die Hochschule darf aber nicht akzeptieren, dass die Qualität ihrer Absolventen schleichend schlechter wird. Sie muss gegensteuern, indem sie sowohl bei den Lehrtechniken (Didaktik) als auch bei den Prüfungsmethoden bedeutend mehr Wert auf Transfer- und Denkmethoden legt (auch schon bei der Auswahl ihrer Studenten; dies ist der dominante Einflussfaktor). Die mehr harten Fächer und formalen Anforderungen (Mathematik, Statistik, Logik, Wissenschaftstheorie, abstrakte Methoden) müssten verstärkt berücksichtigt werden. So war es ursprünglich im Bologna-Prozess auch beabsichtigt (überflüssiges Wissen entrümpeln, Methoden und Kommunikation, insbesondere Kleingruppenarbeit, stärken). Die Entwicklung der Realität geht aber aus den genannten Gründen und wegen finanzieller Engpässe eher genau in die andere Richtung. Hinzu kommt, dass der Geldzufluss und die Mittelausstattung nicht die Effizienz der Hochschulen belohnt. "Nur weil´s mich nicht kümmert heißt es nicht, dass ich´s nicht verstehe", Homer Simpson, Comicfigur aus Springfield, USA.

Das ist insgesamt sehr bedauerlich. Viele Studenten nutzen Blogs und andere Rubriken bzw. Netzwerke (Twitter, Facebook) nicht zur objektiven Informationssuche, sondern nur zur Bestätigung und Vergewisserung der eigenen Position. So bleiben viele Menschen in ihrem Denken in der Adoleszenz stecken und verändern sich nicht mehr.  Verknüpfungs-, Anwendungs- und Grundlagenwissen fehlt. Die Distanz zu Fachleuten und Wissenschaftlern wächst. Es wird weniger zugehört (auch in Vorlesungen) und mehr am Handy, Tablet oder Notebook gespielt. Viele Studenten haben  die Fähigkeit verlernt, zuzuhören und miteinander zu reden. Sie sind es zum großen Teil gar nicht mehr auf Grund ihrer sonst ausschließlichen digitalen Kommunikation gewöhnt, sich in Gegenwart Anderer zu äußern oder zu verteidigen. Darunter leidet insgesamt die Diskussionskultur, wobei die "Schere im Kopf" auch von den Massenmedien gefördert wird (z. B. Talkshows im Fernsehen mit immer denselben Teilnehmern mit vorhersehbaren Meinungen) . Weiterhin ist die Wahrnehmung stark von Bildern und Graphiken geleitet, die leicht zu manipulieren sind (wird von Powerpoint beschleunigt). Der Informationsaustausch in den digitalen Medien blendet zudem Experten aus. Die Studenten sind Nachrichtenquellen ausgesetzt, deren Seriosität sie nicht mehr überprüfen. Sie lassen sich so manipulieren, ohne das selbst zu erkennen. Das Internet ist eher ein Medium gefühlter Wahrheiten ("Postfaktisches"). Das begünstigt den Siegeszug des Unwahren. Natürlich sind die Wissenschaftler, Zeitungen und anderen Medien auch selbst Schuld an ihrem Bedeutungsverlust und gleichzeitigen Missbrauch. Es gibt immer mehr Medien mit immer mehr Journalisten und Wissenschaftlern oder solchen, die sich dafür halten. Der Wettbewerb um Aktualität und der Konkurrenzdruck verführen zu oberflächlichen oder einseitigen Recherchen und fehlerhaften Darstellungen. Sogar etablierte Redaktionen (z. B. Der Spiegel) müssen massiv Personal abbauen, der mit Qualitätsverlust einhergeht. Journalisten werden in Luxushotels "abgefüttert" (so oft in China).  Quellennachweis und Kritik werden immer öfter vernachlässigt. Hinzu kommt, das sich die Wissenschaft zunehmend instrumentalisieren lässt (auch "vor den politischen Karren spannen lässt"; vgl. Artikel über die Rolle der Statistik in der Ökonomie). Noch nicht geklärt sind die Netzeffekte auf das Gedächtnis. Wikipedia und andere Dienste im Internet verführen dazu, schneller zu vergessen, weil Wissen jederzeit im Internet verfügbar ist. Die Artikel in Wikipedia werden in der Qualität immer besser und übertreffen vereinzelt Lehrbücher. Google wird zu einer Art neuem Gedächtnis. Unser Gehirn wird müder und untrainierter. Das könnte kompensiert werden, wenn die Leistung des Gedächtnisses in andere Bereiche ginge. Das ist aber bisher nicht ersichtlich. Besonders negativ sind diese Auswirkungen bei Kindern und Jugendlichen, auch das Suchtpotential ist hoch.  "Wie konnte das passieren, dass niemand diese Krise vorhergesehen hat", Queen Elisabeth II. nach dem Finanzcrash 2008. "Um die Sache zusammenzufassen, Ihre Majestät, war dies ein Versagen der kollektiven Vorstellungskraft vieler kluger Menschen", Antwort der britischen Ökonomen in einem Antwortbrief. 2020 weist eine Studie der Uni Mainz nach, dass immer mehr Studenten das Internet und soziale Medien für ihre Arbeit nutzen. Sie haben allerdings große Schwierigkeiten, Informationen aus dem Internet kritisch einzuschätzen (160 Studenten verschiedener Fachrichtungen).

Generell wird der Mensch und damit auch der Student  im Internet zum bloßen Nutzer statt zum Macher. Er ist isoliert wie in einem großen Kaufhaus und merkt nicht, welchen Preis er zahlt. Die Entwicklung weg vom Web hin zum App bei Handys und Tabletts verstärkt die Kontrollmöglichkeit der Internetgiganten. Die Wissenschaftler selbst tragen auch eine Schuld und Verantwortung für diese Entwicklung, die andererseits einige Vorteile mit sich bringt. Das Internet ermöglicht eine Bürgerbeteiligung in der Wissenschaft. Laien sammeln Daten (tausende Bürger fotografieren mit dem Smartphone der Sternenhimmel und Wissenschaftler werten die Bilder aus) und Forscher werten aus. Die kulturellen Auswirkung des "cloud computing" werden noch einschneidender sein. Alle großen Hindernisse bei der Versorgung mit kreativen Produkten verschwinden. Wissenschaftliche Artikel werden im Nu digitalisiert werden. Das Internet wird das wichtigste Austauschmedium werden. Amazon ist schon der globale Speicher für geistiges Eigentum. Entscheidend ist die Frage wieder, ob sich dadurch die Qualität verbessert oder verschlechtert. Die Anonymität der Massen (Klickzahlen!) scheint zuerst einmal Qualität durch Quantität zu ersetzen. Was am Ende steht, weiß aber noch niemand. Außerdem ist damit eine gewisse "Janusköpfigkeit" verbunden: Viele, die im Netz ihre Meinung - auch wissenschaftlich - äußern, wollen anonym bleiben. Andererseits erhöht das Internet die Offenheit und Öffentlichkeit. Alle, und damit auch alle Wissenschaftler, werden selbst zum Medium. Sie veröffentlichen im Internet, konsumieren und verlinken sich. Die Kapazität, die man gewinnt, indem man Wissen ins Internet verlagern kann, müsste durch besseres Denken und effektivere Methoden ersetzt werde. Doch wie das genau laufen soll, weiß noch niemand. "Im Internet dreht sich im Grunde alles um hoch spezialisierte Informationen und hoch spezialisierte Zielfindung", Eric Schmidt, Ex-CEO von Google.

Es gibt also noch kein Patentrezept, wissenschaftliches Denken zu fördern. Aber es sollte mehr zum Thema an den Hochschulen gemacht werden und in den Gremien sollten Qualitätsfragen mehr Gewicht bekommen (nicht nur als Alibi). Neue Organisationsstrukturen, wie Studiengangleiter an Fachbereichen, dienen eher der Optimierung von Lebensqualität und sind durch die Hierarchiebetonung völlig unzeitgemäß. Jeder Wissenschaftler an einer Hochschule sollte in sich gehen und seine Arbeitsethik überprüfen. Lehrbücher dürften wegen der Dynamik unserer Zeit keine Zukunft mehr haben. Das Internet ist das wesentlich bessere Medium, weil es schneller, aktueller, billiger und flexibler ist. "Doch Lehrbücher sind problematisch. Sie suggerieren, dass es eine Wahrheit gäbe - einen Inhalt, den man lernen könnte. Nicht das Denken wird gefördert, sondern das nachahmende Verstehen", Ulrike Herrmann, Wirtschaftskorrespondentin der TAZ, 30.11.15, S. 12. Vielleicht geht es ja mit dem Internet besser, bleibt jedenfalls zu hoffen.

Auf der anderen Seite zeigen Studien, dass Papier besser als Online-Version ist: Wer Texte auf Papier liest, versteht - im Vergleich zu Online-Texten - mehr und kann hinterher die Inhalte besser wiedergeben. Quelle: Untersuchung über 54 Studien aus den Jahren 2000 bis 2017 mit insgesamt mehr als 170.000 Probanden, Educational Research Review 2018.

Die Lehrbuch-Wirtschaftswissenschaften legitimieren und erklären veraltete Organisationen und Institutionen., die oft nicht mehr fähig sind, die Komplexität der modernen Zeit zu bewältigen. Immer mehr Organisationen sind ineffizient, langsam und überfordert. Wir brauchen neue Heuristiken und damit neue analytische Denkweisen, die helfen, den großen gesellschaftlichen und technologischen Wandel zu verstehen und aktiv mit zu gestalten. Die Internetökonomie will Menschen eher  denkfaul und abhängig machen. Dieses den Studenten immer wieder zu vermitteln muss eines der obersten Lernziele der Hochschule sein. Die Hochschulen leiden weltweit unter einem Klima geistiger Enge. Wer nicht mehr stromlinienförmig ist, wird gemaßregelt (auch bei Veröffentlichungen). Lust am Streiten, Widerspruch und Disput sind auf dem Rückzug. Das schränkt auch das wissenschaftlich-analytische Denken ein ("Schere im Kopf"; Furcht um Gehaltszulagen, Stellen und Karriere). Ein dramatischer Wandel der Hochschulen steht sowieso in der digitalen Ökonomie bevor: E-Learning bietet ungeheure Rationalisierungsmöglichkeiten, regt aber sicher nicht zum Denken an.  "Höhere Fähigkeiten erwachsen nur aus mehr Komplexität", Carsten Bresch (Zwischenstufe Leben - Evolution ohne Ziel, München 1977). Oder noch präziser:  "Habe den Mut, dich deines Verstandes zu bedienen", Immanuel Kant.

Wünschenswert wäre eine spezielle Lehrveranstaltung zum wissenschaftlich analytischen Denken. Diese müsste an den wesentlichen Grundlagen der Philosophie (Wissenschaftstheorie) ansetzen. Was ist Realität? Kausalität und Determinismus (Ursache) Empirismus (Hume). Kontinentale Philosophie (Phänomenologie, Hegel, Husserl, Heidegger). Wahrheit und Mathematik (Leibniz). Sprache und Logik (Wittgenstein). Wissen (Carnap). Induktion und Deduktion (Mill, Russel). Wissenschaft und Rationalität.  Commonsense  und Pragmatismus. Gesellschaft (Hobbes, Rousseau, Rawls). Ein wichtiges Lernziel müsste es sein, Studenten wieder zum Lesen zu bewegen. Das unkritische  "Konsumieren" von "blutarmen" und veralteten Lehrbuchtexten oder das Reproduzieren von  stark vereinfachenden Power-Point-Folien kann sicher nicht die notwenige Kreativität und Innovationsfähigkeit fördern. "Lies nicht um zu widersprechen und zu widerlegen, auch nicht um zu glauben und für selbstverständlich zu halten, noch um Stoff für Gespräche und Diskurse zu finden, sondern um zu wägen und zu bedenken", Francis Bacon.

Die Digitalisierung führt zu einer neuen Lernkultur. Schon vorher zu Beginn der 1990er Jahre begann mit Bologna und anderen Reformen die Ausrichtung eines jeden Lernschrittes auf Kompetenz. Kompetenz wurde gleichgesetzt mit Sachverstand. "Workload" wurde eingeführt als Berechnung von Arbeitszeit, die für die Erledigung bestimmter Aufgaben ausreichen soll. Damit wurde irgendwann die Erreichung der Ziele einfach vorausgesetzt. Die Digitalisierung passt ideal dazu: Warum soll man sich Sachwissen, dass bei Google jederzeit abgerufen werden kann, noch mühevoll einprägen? Damit geht aber die Verbindung zum Transfer verloren, der ohne Wissenselemente gar nicht möglich ist. Harte Fächer wie Statistik oder Volkswirtschaftslehre sind an Hochschulen immer schwerer lehrbar. Studenten setzen Wissen, das jederzeit im Internet verfügbar ist, gleich mit Denken. Unternehmen lösen ihre Weiterbildungsabteilungen auf und erwarten von ihren Mitarbeitern, dass sie sich im Internet über Lernplattformen selber bilden. Lernen über Lernplattformen funktioniert aber nur, wenn man sich vorher in anderen Bildungsinstitutionen die Kultur des Lernens angeeignet hat. Vgl. Türcke, Christoph: Digitale Gefolgschaft. Auf dem Weg in eine neue Stammesgesellschaft, München 2019, S. 59ff. Wir brauchen zumindest ein Basiswissen. Außerdem muss die menschliche und humanistische Komponente der Bildung erweitert werden. Dazu muss man Kommunikation beherrschen, aber auch Wissen haben aus den Bereichen Ethik, Sozialwissenschaften und Geschichte.

Die Wissenschaft und ihr spezielles Denken darf sich aber nicht von der Gesellschaft isolieren. Sondern im Gegenteil muss die Wissenschaft sich gegenüber der Gesellschaft öffnen. Open Science wird diese Bewegung genannt. Wissenschaft sollte sich an der Erklärung der Welt offen beteiligen. Die Daten müssen stimmen, für alle zugänglich sein und sind damit für alle da. Offenheit muss vorherrschen und sich lohnen. Vgl. Hartung/ Sentker: Raus, raus, raus! in: Die Zeit Nr. 16, 12.042017, S. 29f. Was man früher Allgemeinbildung nannte, ist relativ schnell zu "googeln".

Eine völlig neue Diskussion entsteht über die Arbeitsteilung zwischen Mensch und künstlicher Intelligenz (KI). Inwieweit kann auch das Denken ausgelagert werden und sich in Maschinen verselbständigen? Unter Experten gehen die Meinungen hier weit auseinander. KI als Ablenkungsmanöver ("Roboter können keine Moral") oder neues Zeitalter: Die erste These vertritt der Philosoph Richard David Precht in seinem neuen Buch: Künstliche Intelligenz und der Sinn des Lebens, Goldmann Verlag 2020. Dei Künstliche Intelligenz wird Homo Sapiens nicht in den Schatten stellen. Eine ethische Programmierung könne es nicht geben. Man müsse ethisch mit Maschinen umgehen. Vgl. auch: Ders., Roboter können keine Moral, in: Die Zeit 26, 18.Juni 2020, S. 32. Damit vertritt Precht die Gegenthese zu James Lovelock. Dieser sieht ein kommendes Zeitalter der Hyperintelligenz. Er nennt es Novozän. Er sagt weitreichenden Einfluss von Cyborgs voraus (KI). Vgl. Lovelock, James: Novozän, München (Beck) 2020.

"Wissen wird nun angeeignet, indem man auf einen Bildschirm schaut statt auf Papier. Das macht das Wissen unmittelbarer und emotionaler, der Prozess ist aber weniger auf Reflexion angelegt", Henry Kissinger, Handelsblatt, Nr. 251, 30.12. - 4.1. 2016, S. 47.

"Jedermann trägt zwei Säcke: Vorn trägt man die Fehler der anderen und hinten die eigenen Fehler", Chinesisches Sprichwort. 

"Den Anfang eurer Rede haben wir wieder vergessen und das Letzte nicht verstanden", Herodot, griechischer Historiker.

 

Philosophie und Ökonomie (Logik):

"Die Philosophie ist keine Theorie, sondern eine Tätigkeit", Ludwig Wittgenstein (österreichischer Philosoph, Wissenschaftstheoretiker, 1889 geboren in Wien, gute Bekanntschaft mit Sigmund Freud; 1951 gestorben in Cambridge;  dort auch begraben). Wittgenstein war ursprünglich Ingenieur. Er arbeitete im Flugzeugbau in Manchester. Er war ein Freund von Keynes und Verwandter von Hayek. Der Forscher war einer der bedeutendsten Philosophen des 20. Jahrhunderts. Seine Gebiete waren Logik, Sprache und Bewusstsein. Seine "Philosophischen Untersuchungen" (1953) gehören zu den wichtigsten Werken der Philosophie des 20. Jahrhunderts. Schon im "Tractatus logico-philosophicus" (1921) hatte er eine Abbildungstheorie der Sprache vertreten., die der Sprache nur eine Funktion zuschrieb. Er behauptet die Unmöglichkeit einer reinen Privatsprache. "Wovon man nicht sprechen kann, darüber muss man schweigen", Ludwig Wittgenstein. Berühmt ist auch ein weiteres Zitat: "Wenn ein Löwe sprechen könnte, wir könnten ihn nicht verstehen". Die Sprache ist unsere Lebensart und ihr gemäß betrachten wir unsere Welt. Löwen würden keine dieser Perspektiven teilen.

Zunächst ist wichtig, dass auch der Philosoph seine Grenzen akzeptiert.  Die großen Philosophen Sokrates aus Griechenland und Laotze in China wussten schon beide, dass das Bewusstsein des Nichtwissens am wichtigsten ist. Am besten hat dies Kohelet um 300 v. Chr. (besser unter Prediger bekannt) ausgedrückt: "Den Wissenden und den Unwissenden trifft dasselbe Schicksal". Die Erkenntnis des Nicht-Wissens ist die Zierde des Wissenschaftlers. Der Mensch ist im Kosmos bedingt. Insoweit hatte auch Marx mit dem Denken als Überbau recht. Kohelet drückt es so aus: "Alles ist Windhauch und Luftgespinst". Insofern ist jede Philosophie auch nur Windhauch im Lauf der Geschichte. Man sollte es nur zugeben.

In der Ilias von Homer (habe ich in den Schule noch in Alt-Griechisch gelesen) nahm es Odysseus mit den Göttern auf. Er emanzipierte sich gegenüber den Göttern. Er versucht sie zu überlisten, wenn er auch eine Göttin auf seiner Seite hat. Wesentlich ist, dass er sich auf seinen Verstand und seine Vernunft verlassen kann. Er ist also misstrauisch gegenüber den übernatürlichen Erkenntnisquellen. Das ist so was wie der Anfang jeder Philosophie, zumindest der westlichen.

Ökonomische Analysen im Rahmen der antiken griechischen Philosophie. Wichtige Elemente finden sich bei den klassischen griechischen Philosophen Sokrates (Ethik), Platon (Aufbau der Gesellschaft, idealer Staat) und Aristoteles (z. B. Allmendeproblem; Eigentum Privatbesitz; Logik; Wohlergehen). Xenophon kann als der größte ökonomische Denker der antiken Philosophie bezeichnet werden. 400 Jahre vor Christus schildert er wichtige Grundlagen (Gespräch über die Haushaltsführung; Mittel und Wege, dem Staat Geld zu verschaffen; Gewinnmaximierung; auf ihn soll auch die Verbindung von Oikos und Nomos zurückgehen als Kunst der Haushaltsführung). Hesiod kann als erster bekannter Ökonom überhaupt benannt werden. Er lieferte Grundideen für die moderne Chaostheorie und definierte Arbeit als Quelle allen Guten für die Menschen. 100 Jahre später liefern Thales (Olivengeschäft), Archimedes und Pythagoras (Geometrie) wichtige mathematische Grundlagen, die auch in der Ökonomie Verwendung finden. Die einzelnen Bücher sollen an dieser Stelle nicht genannt werden. Die antike griechische Philosophie hatte großen Einfluss auf die römische Philosophie. Besonders hervorzuheben sind hier Lucius Annaeus Seneca (1 bis 65 n. Chr.) und Marc Aurel (161 - 188 n. Chr.; Kaiser und Philosoph). Sie gehörten zu der Richtung der Stoiker (gehen auf Athen/ Sokrates, Epiktet) zurück. Sie haben eine kosmologische, ganzheitliche Weltsicht und stehen für Weltoffenheit und Anpassungsfähigkeit (der Mensch soll seine Stelle in der Gesamtheit finden). "Bedenke, dass die menschlichen Verhältnisse insgesamt unbeständig sind, dann wirst du im Glück nicht zu fröhlich und im Unglück nicht zu traurig sein", Sokrates (469 - 399 v. Chr.).  "In einem Gemeinwesen, in dem Reichtum und Armut fremd sind, wird auch die beste Gesinnung zu finden sein", Platon: Sämtliche Dialoge, Bd. 7, Hamburg 2004, S. 78. Ich habe in einzelne Texte noch in Alt-Griechisch, was ich im Gymnasium gelernt habe, "reingeschnuppert". Oder Texte der römischen Philosophen habe ich auch noch in Latein gelesen: "Betrachte die Vergangenheit, die großen Veränderungen so vieler Reiche; daraus kannst du auch die Zukunft vorhersehen", Marcus Aurelius, Selbstbetrachtungen, Kapitel 7 (er war römischer Kaiser und Philosoph).

Die östliche, chinesische Philosophie bildete sich in der "Achsenzeit" (Carl Jaspers; 1883 - 1969; die Grenzen des Erkennens und Machens), also etwa zwischen 800 bis 200 v. Chr. Hier wuchs auch das geschichtliche Selbstverständnis. Am bekanntesten sind die Philosophen Laotse und Konfuzius. In Mesopotamien wirkte zu der Zeit Zarathustra, in Indien Buddha. Alle diese Personen werden sowohl der Philosophie als auch der Religion zugerechnet; in den Anfängen waren beide verbunden (vgl. den ausgezeichneten Gesamtüberblick von J. Habermas: Auch eine Geschichte der Philosophie, Berlin 2019). So kann man in den Anfängen der Philosophie nicht zwischen Religion und Philosophie trennen. Mit dem rasanten Aufstieg Chinas zur früheren Dominanz in Asien und zur kommenden Weltmacht Nr. 1 werden auch Daoismus und Konfuzianismus rapide an Bedeutung zunehmen. Zusammen mit dem Marxismus, der perfekt integriert wird, stellen sie auch die entscheidende Legitimationsgrundlage für das heutige politische, soziale und ökonomische System in China dar. Die Beziehung zwischen Marxismus und Daoismus/ Konfuzianismus war ein Schwerpunkt meiner Forschung in den letzten Jahren (Vgl. Vortrag und Aufsatz).

Nach dem vorherigen Abschnitt über wissenschaftliches Denken und obigem Zitat liefert die Philosophie die Methoden des Denkens. Sie liefert damit die Fähigkeit zur Analyse, zum Beurteilen und zum Gebrauch von Argumenten. Als der Klassiker auf diesem Gebiet gilt der deutsche Philosoph Georg Wilhelm Friedrich Hegel. Er verbindet die Welt mit Widerspruch, Geist und Freiheit. Hegels Dialektik ist auch eine Denkmethode, die höchst flexibel und einfach ist: Es gilt die innere Logik eines Gedankens bis in seine äußerste Konsequenz hin zu verfolgen und zu betrachten, wohin er auch führt. Vgl. S. Ostritsch: Portrait G. W. F. Hegel: agora 42, S. 31ff. Als freie Individuen sind wir notwendigerweise auf die anderen, die gesellschaftlichen Institutionen und in letzter Instanz den Staat verwiesen. Das hat im Kern auch Karl Marx fasziniert (vgl. unten). Wichtig ist auch Carnap (Rudolf, 1891-1970). Er wendete sich ganz der logischen Analyse zu, insbesondere der Wissenschaftssprache. Er hat sich auch mit der Wahrscheinlichkeitstheorie beschäftigt (hatte auch Mathematik studiert). Nach Hans-Georg Gadamer (1900-2002, Schüler von Heidegger) beginnt jedes Verständnis mit einem "Vorverständnis" und "Vorwegnahmen", derer wir uns nicht bewusst explizit sind. Seine Kernthese ist, dass jedes interpretative Verständnis historisch bedingt und an Tradition gebunden ist.

In der Ökonomie ist die Logik (zusammen mit der Wissenschaftstheorie und -analytik) als Gebiet der Philosophie am wichtigsten. Sie liefert die Regeln für die Begriffsbildung, für Definitionen, für die Ableitung von Hypothesen und die Struktur von Aussagen und Begründungen. Sie liefert damit die Regeln der Systematik und Objektivität für die Wissenschaften. Als einer der Begründer gilt der britische Philosoph Bertrand Russel (1872 - 1970). "Wahrheit" ist keine Eigenschaft der Welt, sondern eine Eigenschaft sprachlicher Aussagen. "In der Tat sind Wahrheit und Falschheit Eigenschaften von Meinungen und Aussagen, deshalb könnte eine bloß materielle Welt eben weil sie keine Meinungen oder Aussagen enthielte - auch keine Wahrheit oder Falschheit enthalten". Eines der wichtigsten Schemata in der Ökonomie ist das Hempel-Oppenheim-Denkschema. Als Begründer der Logik in der Philosophie gilt Aristoteles (384 - 322 v. Chr.). Seine Grundfrage war auch, wie menschlich der Mensch ist. Einen großen Einfluss hatte John Stuart Mill (1806-1873) mit seinem Verständnis der induktiven, deduktiven und wissenschaftlichen Argumentation. Für die Wissenschaft und Wissenschaftstheorie heute hatte Karl Popper (1902-1994) eine große Wirkung. Im Zentrum steht der Falsifikationismus. Noch heute intensiv diskutiert wird das Buch von Thomas Kuhn (1922-1996): Die größten wissenschaftlichen Fortschritte erreichen uns mit Hilfe weit reichender wissenschaftlicher Revolutionen. Kuhn war Physiker und widmete sich der Geschichte der Wissenschaft. Weiterhin ist auch Ludwig Wittgenstein zu nennen (1889 - 1951; vgl. Anfang). Er weit darauf hin, dass jede rationale Erkenntnis beschränkt und fehlbar ist, und nicht alle Probleme unseres Lebens auf vernünftige Weise lösen lassen.  "Die Logik will immer nur Eines und bedenkt nicht, dass es viele Logiken gibt", Carl Einstein, deutscher Kunsthistoriker. "Ich misstraue allen Systematikern und gehe ihnen aus dem Weg. Der Wille zum System ist ein Mangel an Rechtschaffenheit", Friedrich Nietzsche, deutscher Philosoph.

Exkurs: Karl Popper: Logik der Forschung, 1934 (11. Auflg. 2005). Die offene Gesellschaft und ihre Feinde, Tübingen 2003 (Kampfschrift gegen totalitäres Denken). Er wurde 1902 in Wien geboren und starb 1994. Der Philosoph war von jüdischer Herkunft und trat später zum Protestantismus über. Er war Schulabbrecher und hatte so keine Chancen im Establishment. Später studierte er Philosophie an der Universität Wien, wo er auch promovierte. Popper war befreundet mit Rudolf Carnap. Sie hatten einen gemeinsamen Feind: die "Metaphysik" (vor allem Martin Heidegger). In der Jugend beschäftigte er sich intensiv mit Psychoanalyse und Marxismus. Popper war der Erfinder der Drei-Welten-Theorie: 1. Physikalische Gegenstände. 2. Mentale Welt mit Gedanken, Gefühlen, Empfindungen. 3. Objektives Wissen (z. B. mathematische Sätze). Als einer seiner Schüler bezeichnet sich George Soros. Später lehnt Popper Marx, Freud und Platon ab. Berühmt machte ihn das Falsifikationsprinzip. Dieses Prinzip sieht er als den wahren Antrieb der Wissenschaft. Wissenschaftler stellen vorläufige Hypothesen auf, die durch Beobachtungen und Experimente zum bestimmten Grad belegt werden können. Es wird in der modernen Wissenschaftstheorie heute überwiegend abgelehnt. Sein Grundgedanke bleibt heute noch wertvoll: Wissenschaftliche Erkenntnis besteht nicht in der Verallgemeinerung von Beobachtung. Wo eine Theorie herkommt, ist gar nicht so wichtig. Wichtiger ist, dass sie sich gegen Kritik und experimentelle Tests bewährt. Popper musste nach London emigrieren und lebte dort (wie Freud und Marx). Er lehrte an der London School of Economics und an der London University. Vorher hatte er an der University of Canterbury in Neuseeland unterrichtet.  1965 wurde er für seine Verdienst zum Ritter geschlagen. Vgl. Hürter, Tobias: Der schwarze Schwan, in: Hohe Luft, 2/2020, S. 23ff. Bassham, Gregory: Das Philosophiebuch, Librero, Kerkdriel 2020, S. 426ff.

Sprache und Bedeutung: Die Sprache ist zentral für die Ökonomie. Englisch ist die Weltsprache der Wirtschaft. Es gibt zahlreiche Abhandlungen darüber, wie Englisch das ökonomische Denken beeinflusst. Es gibt etwa 6000 Sprachen auf der Welt. Da sind die Dialekte noch nicht alle mitgezählt. Es gibt zahlreiche Sprachtheorien: Humpty Dumpty, Symbole und Bilder, Gebrauchstheorie (Wittgenstein, Sprache ist normativ), Holismus (Quine), radikale Interpretation (Davidson), Kommunikation als Spiel (Watzlawick), Universalgrammatik (angeboren, Chomsky), Philosophie kann Sprachtherapie sein. Vgl. Hübl, Philipp: Folge dem Weißen Kaninchen ... in die Welt der Philosophie, München (Penguin) 2020, S. 49ff.

Ausgangspunkt philosophischen Denkens sind Überzeugungen. Eine der Grundregeln ist, diese Überzeugungen offen zulegen und zu begründen.   Damit kann nun Wissen analysiert werden im Hinblick auf logische Richtigkeit (Aufspaltung in notwendige und hinreichende Bedingungen). Wahrheiten sollten nicht das Ziel sein (Falsifikationsprinzip, Popper). Vgl. Karl Popper, Lesebuch, (Hrsg. David Miller), Tübingen 1995. Auf der anderen Seite sollte aber klar werden, dass Aufklärung das Hauptziel ist, das ohne ethische Grundorientierung (z. B. Kategorischer Imperativ) nicht möglich ist (I. Kant: Kritik der reinen Vernunft). Beantwortung der Frage: Was ist Aufklärung? 1784 in der "Berlinischen Monatsschrift". Kant, der "Weise aus Königsberg" war der Philosoph der Vernunft und Aufklärung in Deutschland. Kant ist wahrscheinlich der einflussreichste deutsche Philosoph. Wichtigster Vorgänger war Jean-Jacques Rousseau: Über den Ursprung und die Grundlagen der Ungleichheit unter den Menschen, 1755 (auch: Gesellschaftsvertrag, 1762). Er war Wegbereiter der Aufklärung und der geistige Vorbereiter der französischen Revolution. Die Ziele "Freiheit, Gleichheit, Brüderlichkeit" sind von ihm theoretisch formuliert worden. Er wandte sich vom blinden Vertrauen in die theoretische Vernunft ab und widmete sich dem moralischen Gewissen. Er lebte von 1712 (geboren in Genf) bis 1778.

Die Philosophie beschäftigt sich mit der Welt (Was ist Realität, Zeit und Raum), mit Geist und Körper (Was ist Geist?, Bewusstsein), mit Wissen (Logik und Verstand, Weisheit), Glauben (Sinn des Lebens, Relativismus, Gott), Ethik und Gesellschaft (Was ist Gesellschaft/ z. B. Habermas, Soziale Gerechtigkeit/ z. B. Rawls); Reich und Arm/ z. B. Karl Marx). Vgl. David Papineau (Hrsg.): Philosophie, Darmstadt 2006. Georg Wilhelm Friedrich Hegel (1770 - 1831) ist wichtigster Vertreter des deutschen Idealismus und in seinem Einfluss auf Marx von großer Bedeutung. Die Struktur der Philosophischen Werke ist: Logik, Naturphilosophie, Philosophie des Geistes. Berühmt ist sein Schema der Dialektik: These, Antithese, Synthese. Eine seiner berühmtesten Werke: System der Wissenschaft. Erster Teil: Die Phänomenologie des Geistes, Bamberg 1807. Als Gegenentwurf gilt die Sicht von Herbert Spencer (1819 - 1903). Er lehnt sich an Darwin an und begründet die Lehre vom Sozialdarwinismus. Er sieht das menschliche Miteinander als unerbittliches Gegeneinander im Kampf ums Dasein ("Survival of the Fittest").  Tennessee Williams vergleicht das Leben mit einem gut geschriebenen Theaterstück, mit Ausnahme des dritten Aktes.

Weltoffenheit: Ein besonderer Aspekt der Welt ist die Weltoffenheit. Der Mensch hat die Fähigkeit, mithilfe von Vernunft und Sprache Erkenntnisse von sich und der Welt zu sammeln, die dem Menschen eine Sonderstellung in der Natur gibt. Der Mensch ist mit Vernunft ausgestattet, aber es ist eine offene Frage, ob sie ausreicht, ihm Selbsterkenntnis zu ermöglichen. Das ist die Meinung des deutschen Philosophen Max Scheler (1874 - 1928). Der Mensch kann die Welt erfahren wie ein Seefahrer das unerforschte Meer. Weltoffenheit ist in einer globalisierten Welt auch eine wichtige Grundkategorie, um ökonomische Beziehungen zu ermöglichen. "Der Mensch ist das X, das sich in unbegrenztem Maße "weltoffen" verhalten kann. Menschwerdung ist Erhebung zur Weltoffenheit kraft des Geistes", Max Scheler.

Weltgeist: Georg Wilhelm Friedrich Hegel (1770 - 1831; 250 Jahre 2020!): Wichtigster Vertreter des deutschen Idealismus. Struktur der Philosophischen Werke: Logik, Naturphilosophie, Philosophie des Geistes. Berühmt ist sein Schema der Dialektik: These, Antithese, Synthese. Eine seiner berühmtesten Werke: System der Wissenschaft. Erster Teil: Die Phänomenologie des Geistes, Bamberg 1807. Hegel hat großen Einfluss gehabt auf die Soziologie und Karl Marx. Hegel glaubte an den Weltgeist: Mag die Geschichte der Menschheit auch noch so schrecklich sein, irgendwann erreicht sie ihr Ziel - die Verwirklichung von Vernunft und Freiheit. Große Männer waren für ihn Cäsar, Napoleon, Alexander. Er nannte sie "Geschäftsträger des Weltgeistes". Die "welthistorischen Individuen" sorgen für den "Fortschritt im Bewusstsein der Freiheit". Sobald ein Staat den Bezug zu seinen Idealen aufkündigt, war er für Hegel vom Niedergang bedroht. Für Hegel sind in Asien das Licht des Geistes und der Weltgeschichte aufgegangen. Enden wird sie selbstverständlich im Westen. Es könnte deshalb ein Irrtum sein, weil China seiner Konzeption am nächsten kommt: der soziale Zusammenhalt , die Verbindung der individuellen "Willensatome", soll zu einem staatlichen Ganzen vereint werden. Dann wäre Xi Jinping " in China ein Geschäftsführer des Weltgeistes". Wichtig ist für ihn auch der Begriff "Wirklichkeit" Er übersetzt so den Begriff "Energeia" von Aristoteles. Es ist die Verwirklichung der Idee der Freiheit., die errechte Einheit von Äußerem und Inneren und damit die absolute Wahrheit. "Freiheit ist die Einsicht in die Notwendigkeit", G. W. F. Hegel. "Was Erfahrung aber und die Geschichte lehren, ist dieses, dass Völker und Regierungen niemals etwas aus der Geschichte gelernt und nach Lehren, die daraus zu ziehen gewesen wären, gehandelt haben", Georg Wilhelm Friedrich Hegel. "Beginnende Bildung fängt immer mit dem Tadel an, vollendete aber sieht in jedem das Positive", Hegel. Auch von ihm: Philosophieren heißt, frei leben zu lernen". Vgl. auch: Thomas Asseuher: Was macht der Weltgeist? in: Die Zeit Nr. 33, 6. August 2020, S. 41ff.  Am 27.8.20 vor 250 Jahren wurde Georg Wilhelm Friedrich Hegel in Stuttgart geboren. 1818 übernimmt er in Berlin den Lehrstuhl vom berühmten Johann Gottlieb Fichte. 1831 stirbt Hegel  während einer Cholera-Epidemie. Vgl. etwa: Sebastian Ostrisch: Hegel. Der Weltphilosoph, Propyläen-Verlag 2020. Jürgen Kaube: Hegels Welt, Berlin (Rowohlt) 2020.

Grundlegende Herausforderung ist der Zweifel: Der Zweifel an allen Antworten, der Zweifel an den Quellen, der Zweifel an den Berichten und Erinnerungen anderer Menschen. Der Zweifel in seiner Gesamtheit wird als Skeptizismus bezeichnet. In unserer Zeit wird der Zweifel reduziert. Es scheint, als hätten die Menschen vor lauter Aufgaben, Fragen und Tempo keine Zeit mehr für Zweifel. Das Wort "Alternativlos" charakterisiert diesen Zustand. "Basta" soll alle anderen Gedankengänge abwürgen. Für Karl Marx war der Zweifel das wichtigste Element der Philosophie, was seine Jünger und Schüler in China und Russland heute verdrängen.

Inwieweit unbeweisbare Annahmen als Ausgangspunkt in der Ökonomie gelten können ist sehr umstritten. Einerseits arbeitet man mit Axiomen, die nicht bewiesen werden (z. B. Milton Friedman, Rationalismus), wenn sie zu fruchtbaren Ergebnissen führen. Andererseits wird ein empirischer Nachweis auch für Annahmen gefordert (D. Hume, Empirismus; Problem der Induktion). Natürlich sind auch Kombinationen möglich.

Grundfrage menschlichen Lebens und der Philosophie ist die Frage nach dem Glück. In Gestalt der Glücksforschung und des Glückssozialprodukts ist diese Idee auch in der Ökonomie auf dem Vormarsch. Der Zusammenhang zur Sittlichkeit und Ethik ist relativ offen. Ethik und Moral sind schwer aus der subjektiven Ebene herauszuholen (kann es ein objektives Fundament geben?). Der Versuch eines Sozialkontrakts oder die Entwicklung ethischer Regeln findet sich bei vielen Philosophen (etwa bei Kant). Die Ökonomie alleine kann schwerlich klären, worin ein gutes Leben besteht. Der griechische Philosoph Epikur schrieb eine Anleitung zur glücklichen Askese (Hedonismus, griechisch hedone = Lust). Seneca, der Lehrer Neros und Senator, spricht vom Glück der Seelenruhe. Sie beruhe auf praktischer Übung (lateinisch: meditatio). Der letzte große deutsche Philosoph, der sich damit befasste, was ist Glück und wie kann ich es erreichen, war Arthur Schopenhauer. In seinem 1819 erschienenen Werk "Die Welt als Wille und Vorstellung" erteilt er darüber Auskunft: Der Mensch erfahre Glück immer negativ, das heißt als Beseitigung eines Mangels, als Befreiung von Unlust, als Erlösung von Schmerz. Der Philosoph Gadamer definiert Glück als das "Gelassene Beschränken auf das noch Zugeteilte". Nicolas Chamfort (1741 - 1794, französischer Moralist) weist auf das Subjektive beim Glück hin: "Will das Glück sich mit mir einlassen, so muss es die Bedingungen annehmen, die mein Charakter ihm stellt". Marc Aurel (121 n. Chr. - 180; auch römischer Kaiser) weist darauf hin, dass wir nur ein winzig kleiner Teil des Universums sind, und im im Vergleich zu dessen Dauer ist unsere Lebenszeit nur ein Wimpernschlag. Das sollte uns seiner Ansicht nach Demut lehren. Wir sind nicht der Mittelpunkt der Welt, aber wir können uns vielleicht als Forschungspioniere des Universums betrachten. Das gibt auch für die Ökonomie Hoffnung, die rein materielle Wertgrößen immer mehr durch das Glück ersetzen will. Marc Aurel hängt der Stoischen Philosophie an: Es geht dabei auch um die Einstellung zu den Mitmenschen und um das Bewusstsein zur Wahrheit. "Die Menschen sind füreinander da. Also belehre oder dulde sie", Marc Aurel.

Viel diskutiert wird das Problem des freien Willens und des Schicksals. Sind wir immer von der gesellschaftlichen Realität beim Denken abhängig oder gibt es Unabhängigkeit und Freiheit (nach Karl Marx z. B. bestimmt die ökonomische Basis das Denken; im Kern hat er Recht; die größten Wissenschaftler kommen immer aus den besten Volkswirtschaften). Unabhängig davon bleibt die Frage, ob der Mensch überhaupt jemals etwas wissen kann. Schon der römische Sklave Epiktet beschäftigte sich damit ("Handbüchlein der Moral"; 50-138 n. Chr.). Er trifft eine scharfe Unterscheidung danach, was von uns abhängt und was nicht von uns abhängt. Thomas Hobbes (1588-1679) war der Ansicht, dass freier Wille und Determinismus einander nicht ausschließen.

Das führt zu der Grundfrage nach dem Verhältnis von Bewusstsein und Wirklichkeit: Haben wir mit dem Bewusstsein Zugang zu einer eigenen "geistigen" Wirklichkeit. Damit zu einer Welt des Geistes, die unabhängig von der materiellen Wirklichkeit existiert? Für Karl Marx gibt es kein Bewusstsein im luftleeren Raum. Der Geist gründet immer in der materiellen Wirklichkeit. Wahrscheinlich gilt heute beides: die Materie wird vom Geist ebenso beeinflusst wie der Geist von der Materie. Beide stehen in einem engen Zusammenhang. Für die Ökonomie hat dieser Grundgedanke von Marx eine ungeheure Bedeutung. "Das Bewusstsein kann nie etwas anderes sein als das bewusste Sein, und das Sein der Menschen ist ihr wirklicher Lebensprozess", Karl Marx.

Die Frage nach Gott, nach dem Tod, die Frage nach dem Wesen des Menschen (seiner Seele) und die nach dem Materialismus reicht bis in die Ökonomie. Ist die heutige Ökonomie reiner Materialismus? Zumindest hat die moderne Ökonomie gezeigt, dass sie praktisch ist. Anders kann man die Fortschritte der Menschheit in den letzten Jahrhunderten nicht erklären. Natürlich ist sie als "Raubtier-Ökonomie" auch für viele Missstände und Ungerechtigkeiten verantwortlich (und damit auch für viel Leid auf der Welt; "zügelloser Kapitalismus"; vgl. z. B. die Kritik von Naomi Klein am globalen Kapitalismus). "Ich weiß nicht woher ich komme, ich weiß nicht wohin ich gehe, trotzdem bin ich fröhlich", N. N. (bringt die Philosophie auf den Punkt). Als erster behandelt der griechische Philosoph Epikur (um 341 - 270 v. Chr., vgl. auch weiter oben) die Frage nach dem Tod. Er beantwortet die Frage, warum wir ihn nicht fürchten müssen: "Der Tod ist für uns ein Nichts, denn was der Auflösung verfiel, besitzt keine Empfindung mehr. Was aber keine Empfindung mehr hat, das kümmert uns nicht", Epikur. Deshalb sollte sich der Mensch auf sinnlich erfahrbare und notwendige Dinge des Lebensbedarfs konzentrieren und sich daran erfreuen (hedonistische Philosophie).

Weitere wichtige Aspekte der Philosophie sind Ethik (Kant, Nietzsche, John Rawls), Glauben (Thomas von Aquin, Kierkegaard) und Gesellschaft (Hobbes, Rousseau, Rawls) und Wissen (Platon, Locke, Carnap). John Locke (1632 - 1704) ist auch einer der philosophischen Väter unseres Rechtsstaates. Er legt die Entscheidung in Konfliktfällen in die Hände des Volkes. Macht legitimiert sich nicht durch sich selbst, sie wird auf Zeit verliehen. Thomas Hobbes (1588 - 1679) weist darauf hin, dass vor dem Gesetz alle Menschen gleich sind.  Gott schuf den Menschen nach seinem Bilde, sagt die Bibel; die Philosophen machen es gerade umgekehrt, sie schaffen Gott nach dem ihrigen", Georg Christoph Lichtenberg, deutscher Philosoph. In seinem neuen Buch von 2019 behandelt Jürgen Habermas grundlegend diese Aspekte. Er gibt zur Zeit keine bessere Analyse dieser Gesichtspunkte im Zusammenhang: Das Buch gibt im Stil einer Genealogie darüber Auskunft, wie die heute dominanten Gestalten des westlichen nachmetaphysischen Denkens entstanden sind. Als Leitfaden dient ihm der Diskurs über Glauben und Wissen. Er zeichnet nach, wie sich die Philosophie sukzessive aus der Symbiose mit der Religion löst und säkularisiert (so behandelt er unter anderen auch die oben erwähnten Philosophen Thomas von Aquin, Kierkegaard, Hobbes, Locke). Es ist auch eine Reflexion über die Aufgabe einer Philosophie, die an der vernünftigen Freiheit kommunikativ vergesellschafteter Subjekte festhält. Vgl. Angabe der Quelle unten. Habermas sieht den Anfangspunkt der Trennung zwischen Glauben und Wissen mit Luther (in der Theologie).  Descartes führt das empirische, realitätsorientierte Denken im Wissensbereich ein. Diese Arbeit wird von Hume fortgeführt. Kant beharrt auf der Berücksichtigung der Moral bei der praktischen Vernunft. In seinem wunderbaren Aufsatz "Was ist Aufklärung"  kommt er zu der wichtigen Erkenntnis, dass die Menschen eine starke Vaterfigur wünschen, die ihnen erklärt, wo es langgeht (hier hat er fast hellseherische Fähigkeiten bewiesen, Adorno hat mit seiner Autoritätsanalyse das verfeinert). Feuerbach und Marx setzen die Säkularisierung des Wissens endgültig um.

Einheit von Seele und Körper: Das die Seele etwas vom Körper Unterschiedenes, eigenständig Existierendes und möglicherweise Ewiges ist, ist einen Vorstellung, die von vielen Religionen, vertreten wird (auch in der Philosophie). Bis heute gibt es auf die Frage keine befriedigende Antwort. Die moderne Neurophysiologie sieht mehr und mehr Anzeichen dafür, dass geistige und seelische Prozesse aufs engste mit körperlichen Prozessen zusammenhängen. Damit scheint sich die These zu bestätigen, die der materialistische Aufklärungsphilosoph Julien Offray de La Mettrie (1709 - 1751) bereits 1748 in seiner Schrift "Die Maschine Mensch" aufgestellt hat: Körper uns Seele sind vom selben Stoff. Seelen bleiben an den Körper gebunden. Das ist ein fundamentaler Gegensatz zu allen Religionen. "Da aber alle Fähigkeiten der Seele derartig von dem eigentümlichen Bau des Gehirns und des ganzen körpers abhängen, dass sie offensichtlich nichts anderes als deiser Bau selbst sind, haben wir also eine durch die Vernunft gut erleuchtete Maschine vor uns", Julien Offray de La Mettrie. Vgl. Philosophie-Kalender 2020 in Kooperation mit Die Zeit.

Wenn man nach dem Einfluss großer Philosophen auf die Ökonomie fragt, gibt jeder sicher verschiedene Antworten. Insofern ist meiner Erwähnung einiger Namen durchaus subjektiv (ausführlicher bei Geschichte der Ökonomie): Die griechischen Philosophen (Sokrates, Platon, Aristoteles) haben die Basis gelegt. Der größte ökonomische Denker der Antike war Xenophon. Rene Descartes hat das Bild des Homo Oeconomicus  maßgeblich geprägt. Kant hat für die Berücksichtigung der Moral gesorgt. Zentral bei ihm ist die Vernunft: Sie ist uns von Natur mitgegeben und gleicht einer Art daueraktiven metaphysischer Frage - App (würde man heute sagen). Die Vernunft hat aber eine mangelhafte "Softwareausstattung". Hegel als wichtigster Philosoph des Idealismus hat mit seinem dialektischen Materialismus starken Einfluss auf Marx gehabt, dessen Gedanken die größten praktischen ökonomischen Auswirkungen hatten (China, Russland, Kuba, Nordkorea). David Hume machte sich schon philosophische Gedanken über die langfristigen Auswirkungen der Staatsverschuldung:  "Nur eine der beiden Katastrophen ist denkbar: Entweder beseitigt die Nation die Staatsschuld oder die Staatsschuld die Nation", David Hume, Ökonom und Philosoph, 1750. Von besonderer Bedeutung ist auch John Stuart Mill (1806-1873). In seiner Schrift "Die Hörigkeit der Frau" setzt er sich für die Rechte der Frau ein (und wurde damals verlacht). Wichtige weitere Kernpunkte seines Denkens waren die Freiheit und der Utilitarismus. John Rawls gilt als der Begründer einer modernen Theorie der Verteilungsgerechtigkeit (Theorie der Gerechtigkeit). Sein berühmtes Gedankenexperiment lautete: Wenn ich nicht weiß, ob ich reich oder arm bin, schwach oder stark, dumm oder intelligent, wie sollen dann die Güter für alle verteilt werden? Diesen Gedanken greift Amartaya Sen in der Ökonomie auf: Am 22. Mai 1979 hält der indische Wirtschaftswissenschaftler und spätere Nobelpreisträger in Stanford einen programmatischen Vortrag mit dem Titel "Equality of What?". Darin übte er scharfe Kritik an den herrschenden Gleichheitsvorstellungen. Er skizzierte als Alternative zum ersten Mal seinen berühmten Fähigkeiten - Ansatz (vgl. Ders., Gleichheit? Welche Gleichheit? Stuttgart/ Reclam 2020).  Die Grenzen zwischen Ökonomie bzw. Soziologie und Philosophie verschwimmen in den Werken von Georg Simmel (1858 - 1918). Er stellt die Frage nach dem Wesen des Geldes und seiner gesellschaftlichen Bedeutung. Geld an sich hat keinen Eigenwert. Geld kommt immer dann ins Spiel, wo die Dinge zu käuflichen Waren werden. Der moderne Mensch muss jedoch aufpassen, nicht alles einer Kosten-Nutzen-Rechnung zu unterziehen, sonst macht er das Geld zu seinem Meister: "Alle anderen Dinge haben einen bestimmten Inhalt und gelten deshalb; das Geld umgekehrt hat seinen Inhalt davon, dass es gilt, es ist (...) das Gelten der Dinge ohne die Dinge selbst."  In der neueren Philosophie beschäftigt man sich auch mit den dem Markt, dem man Grenzen setzen sollte. Am bekanntesten ist hier Michael J. Sandel (geb. 1953, USA). Er ist ein Vertreter des Kommunitarismus, der die Bedeutung der Gemeinschaftstugenden betont. Die Werte unserer gemeinsamen Lebenswelt wie Freiheit, Kreativität, Gesundheit, Toleranz und gegenseitige Achtung müssen gegenüber anderen Wertvorstellungen Vorrang haben. Politik und Moral setzen den Rahmen, innerhalb dessen Kommerzialisierung stattfinden kann. Sokrates lehrt uns z. B. , dass Klarheit eine Qualität der Erkenntnis ist. Eine gute Regel auch für Ökonomen. Sicher auch folgender Ratschlag der alten Römer: "Si tacuisses, philosophus manisses" (Hättest du geschwiegen, dann hätte man dich weiter für einen Philosophen gehalten).

Mit dem Vordringen der Umwelt in der Ökonomie besinnt man sich in der Philosophie wieder auf die Natur. Hier kann man auch auf Philosophen zurückgreifen, die den Wert der Natur schon viel früher erkannt haben. So etwa Baruch de Spinoza (1632 - 1677) oder Antoine de Rivarol (1753 - 1801). Rivarol betont, dass wenn wir von der Natur verlangen, ihre Abläufe zu unterbrechen, greifen wir genau in das ein, was ihre Faszination ausmacht: Die Schönheit, Komplexität und Vielfalt der Natur als das eigentliche Wunder. "Wer Wunder verlangt, ahnt nicht, dass er von der Natur verlangt, ihre Wunder zu unterbrechen", Antoine de Rivarol. Arthur Schopenhauer (1788 - 1860) arbeitet heraus, dass die Natur dem einzelnen Menschen völlig gleichgültig gegenübersteht und keine Wohltaten verteilt. Sie ist der Lebensraum, der ebenso einladend wie bedrohlich sein kann und in dem wir uns selbständig orientieren müssen. "Der Natur liegt bloß unser Dasein, nicht unser Wohlsein am Herzen", Arthur Schopenhauer. Stephen Hawking (1942 - 2018, britischer Physiker) stellt die Natur in einen Gesamtzusammenhang mit Raum, Zeit und Universum.

Heute hat man große Erwartungen an die Philosophie von Seiten der Ökonomie im Hinblick auf die Bereitstellung von Werten: In allen Bereichen der Ökonomie, in der BWL und auch VWL, gibt es wieder eine größere Werteorientierung. Auch für die Bewältigung der Anforderungen der Digitalisierung braucht man Werte. Exemplarisch sei die materiale Wertethik genannt, die für die Digitalisierung geeignet erscheint. Sie wird in Max Schelers Werk "Der Formalismus in der Ethik und die Materiale Wertethik" entwickelt. Scheler war Soziologe und Philosoph. Ich beziehe mich auf ein Sekundärwerk dazu: Spiekermann, Sarah: Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert, München (Droemer) 2019, S. 36ff: Vertrauen in menschliche Gefühle. Objektiv erfahrbare Werte sind der Schlüssel zur Ethik. Es werden drei Wertebenen unterschieden. Zusammenspiel von Werten und Technik. Aufmerksamkeit für Werte. Tugenden. In USA diskutiert man pragmatischer über Philanthropie. Vgl. den Abschnitt "Werteorientierung" bei der BWL. Das führt auch zur Bedeutung der Empathie, die heute auch in der Philosophie diskutiert wird. Immer dann, wenn wir es mit unseren Mitmenschen zu tun bekommen, werden die Grenzen der rationalen Mittel deutlich. Menschliches Handeln kann also nicht allein von abstrakten Regeln bestimmt werden, sondern muss in einem Gemeinschaftsgefühl wurzeln "Die Welt, aus der die Gefühle verbannt werden, ist eine verarmte Welt (...). Die abstrakte Sichtweise des abwägenden Intellekts ist ein stumpfes und relativ beschränktes Instrument, wenn ihr nicht die lebhafte und empahische Vorstellung zur Hilfe kommt, die sich ausmalt, was es wirklich bedeutet, ein bestimmtes Leben zu führen", Martha Nusssbaum, US-Philosophin, geb. 1947.

Wenn man nach großen Namen in diesem und letzten Jahrhundert in der deutschsprachigen Philosophie fragt, kommt man an der hermeneutischen (interpretative Verständnis)  und phänomenologischen Tradition (Erscheinung der Wirklichkeit im Mittelpunkt) nicht vorbei: Edmund Husserl, Martin Heidegger (beide Freiburg), Hans-Georg Gadamer (Heidelberg) haben aktuell international einen großen Einfluss gehabt. Gerade bei Heidegger (1889-1976, Sein und Zeit) wird aber auch deutlich, wie dumm intelligente Menschen sein können: Im Mai 1933 hielt Heidegger als frisch ernannter Rektor der Uni Freiburg seine Antrittsrede. In einem Zeitungsartikel ermahnte der philosophische "Daseinsführer" die deutsche Studentenschaft: "Nicht Lehrsätze und Ideen seien die Regeln Eures Seins. Der Führer selbst und allein ist die heutige und zukünftige deutsche Wirklichkeit und ihr Gesetz". Die Sprache hat eine große Bedeutung für die Struktur der Philosophie. Sehr wahrscheinlich wären die großen Leistungen der deutschen Philosophie nicht ohne die deutsche Sprache möglich gewesen. Es ist noch relativ wenig erforscht, wie die Struktur der deutschen Sprache Denkstrukturen beeinflusst. "If the English language made any sense, "lackadaisical" would have something to do with a shortage of flowers", Doug Larson, US-Journalist, geb. 1926; to lack a daisy - ein Gänseblümchen fehlt; heißt aber halbherzig.

Zimmer im Nietzsche-Archiv in Weimar (Das Haus ist Art Deco von Henry van der Velde). Dort lebte der Philosoph die letzten drei Jahre seines Lebens mit seiner Schwester. Diese hat später einen Kontakt zu den Nazis hergestellt und diese instrumentalisierten die Philosophie ("Übermensch"). Sie hatte schon mit ihrem Mann vorher in Chile eine rechtsradikale Kolonie betrieben, die Pleite ging. Deshalb war der Philosoph in der DDR eine Unperson. Nietzsche selbst war aber kein Anti-Semit und kein Sympathisant der Nazi-Ideologie. Er lebte auch viel im Ausland: in Basel, Sils - Maria, Genua, Sorrent, Venedig, Turin, Nizza. Nietzsche hatte großen Einfluss auf die Entwicklung der Philosophie in Deutschland und der Welt. Ein war ein großer Provokateur der europäischen Geistesgeschichte. Er hatte ganz wichtige radikale und globale Überlegungen. Reisen und Freiheit vom Nationalen waren wichtig für ihn. Er suchte nach Wahrheit und bleibenden Werten. Sein bekanntestes Werk ist "Also sprach Zarathustra". Nietzsche lebte von 1844 bis 1900. Vgl. Iven, M./ Fischer, A.: Lebensweg des Friedrich Nietzsche, Berlin 2011. "Es steht Niemandem frei, überall zu leben, und wer große Aufgaben zu lösen hat, die seine ganze Kraft herausfordern, hat hier sogar eine sehr enge Wahl", aus: Ecce homo, 1888. Als erster Philosoph weist er darauf hin, das die Philosophie ein Gebäude ist. Das ist aber nicht fertig. Es bleibt vielmehr eine Baustelle, ein Rohbau, auf dem angebaut, umgebaut, Materialien ausgetauscht und neue Konstruktionen ausprobiert werden.

Es gab auch bedeutende Philosophen und Soziologen, die in der Nazi-Zeit Deutschland verlassen mussten und im Ausland mit ihren Gedanken gegen das rechte Regime in Deutschland kämpften. Dazu gehören Hannah Arendt und Theodor W. Adorno. Arendt wurde 1906 in Hannover geboren. Sie entkam nur knapp ihren Verfolgern. Sie war sicher eine der größten Gesellschaftstheoretiker des 20. Jahrhunderts. Sie wollte rücksichtslos aufklären gegen den Totalitarismus. Ebenso hat sich Adorno, einer der Begründer der "Frankfurter Schule" (zusammen mit Max Horkheimer), mit den Gründen für die Ausbreitung des Nationalsozialismus in Deutschland beschäftigt. Sein Artikel über die Entstehung des  Rechtsradikalismus ist noch heute sehr interessant und aktuell.

Ich habe mein Studium der Volkswirtschaftslehre, Betriebswirtschaftslehre, Soziologie und Psychologie  mit einer Analyse der Legitimität abgeschlossen (Diplomarbeit; Konzepte von Jürgen Habermas, Niklas Luhmann, Max Weber, Talcott Parsons u. a. bei Renate Mayntz in Köln). Die Bedeutung des Legitimitätsglaubens ist aktuell weltweit noch gestiegen. Vgl. als kurzen Überblick über die Wissenschaft der Philosophie: Tom Morris, Philosophie für Dummies, Weinheim 2014. Auch: Vogt, Matthias: Philosophie - Von  der Antike zur Gegenwart, 2005. Ebenso: Bassham, Gregory: Das Philosophie-Buch, Kerkriel/NL 2018.

Aktuelle Bedeutung: Wir leben heute in einer Zeit der Wirtschafts- und Demokratiekrise. Gleichzeitig ist es auch eine Orientierungskrise. Vielleicht entsteht ein neues Weltbild. Dafür wird die Philosophie dringend gebraucht. Wir benötigen die Philosophie auch in der Manager-Ausbildung. Wir dürfen es nicht zulassen, dass Maschinen einmal die  Kontrolle übernehmen. Dafür brauchen wir Führungskräfte, die philosophische Denkstrukturen beherrschen. Insbesondere ethisches Verhalten können Maschinen nicht leisten.  Es muss ein Grundverständnis darüber vermittelt werden, was Ethik ist, wie Politik funktioniert und wie Technik auf Gesellschaften wirkt.  Philosophische Denkpraxis ist für Führungskräfte unabdingbar. Wer einmal im permanenten Reaktionsmodus feststeckt, kann dem hektischen Alltag nicht mehr entfliehen", Anders Indset, Wirtschaftsphilosoph ("Wild Knowledge. Outthink the Revolution", "Philosophy@Work"). Auch von ihm: "Wir sind geschaffen, um schöpferisch zu sein. Wir sind auf dieser Welt auf der Suche nach plausiblen Erklärungen und nach einem tieferen Grund für unser Dasein. Das ist unser Antrieb", in: HBM, September 2018, S. 52.

Dominant ist, unabhängig vom politischen und ökonomischen System, heute der Pragmatismus. Der Begriff kommt vom Lateinischen "Pragma" = Tat, Handlung, Geschäft. In der Philosophie gibt es eine lange Reihe, die sich schon damit beschäftigt haben: C. S. Peirce (1839 - 1914, pragmatische Maxime, "How to make your Ideas clear"; John Dewey (1859 - 1952; Realität hat praktischen Charakter sind nur eine kleine Auslese). Sogar in Gesellschaften, die sich marxistisch nennen, wie in China oder Russland, hat er sich durchgesetzt. Insofern vereint diese Sichtweise die Systeme: Geschäft geht über Alles. Eine ähnliche Richtung ist heute der Utilitarismus. Er hat eine lange Tradition in Großbritannien. Diese Denkschule ist auch sehr einflussreich dort. Es ist die Lehre von der zweckorientierten Ethik: Alle Entscheidungen werden daran gemessen, ob sie der größtmöglichen Zahl von Menschen das größtmögliche Wohlbefinden garantieren. einer der führenden Vertreter dieser Richtung ist heute Roger Crisp (Professor für Moralphilosophie am St. Anne`s College in Oxford).

Der größte, noch lebende Philosoph der Welt: Jürgen Habermas (geb. 1929): Er spricht von Neo-Pragmatismus in seinen Schriften.  Er wuchs in Gummersbach auf. Er studierte Philosophie und promovierte in Bonn. 1956 ging er an das Institut für Sozialforschung in Frankfurt (Theodor W. Adorno, Max Horkheimer). 1964 wurde er Professor für Soziologie in Frankfurt. 1971 wurde er Co-Direktor am Max-Planck-Institut in Starnberg. 1983 wechselt er wieder nach Frankfurt. Berühmte Bücher von ihm sind: Strukturwandel der Öffentlichkeit, 1962. Theorie des kommunikativen Handelns, 1981. Legitimationsprobleme des Spätkapitalismus, 1976. 2019 im Herbst erscheint: Auch eine Geschichte der Philosophie, zwei Bände (1752 Seiten). Dieses Werk hat Habermas im Alter von 90 Jahren vollendet. Es ist eine Geschichte des philosophischen und religiösen Denkens.  Band 1: Die okzidentale Konstellation von Glauben und Wissen. Band 2: Vernünftige Freiheit. Spuren des Diskurses über Glauben und Wissen. Seine Werke wurden insgesamt in über 40 Sprachen übersetzt. Zentrale Themen sind: Demokratie, Rechtstaat, Rationalismus und globale Ordnung, insbesondere Europa. Er ist auch in Asien, vor allem Japan, sehr bekannt.  2006 wurde ein Asteroid nach ihm benannt. "Mündigkeit ist die einzige Idee, deren wir im Sinne der philosophischen Tradition mächtig sind", J. Habermas.

"Ein Mensch, so er denn weise ist, sollte sich niemals schämen, Neues zu lernen und stets seinen Geist dem Wissen zu öffnen", Sophokles, griechischer Philosoph.

Auf dem Album "Rough and Rowdy Ways" von Bob Dylan aus dem Jahre 2020 gibt es als letzten Song "Key West (Philosopher Pirat)". Musikalisch ist das Akkordeon-Arrangement sehr schön. Dylan gibt in dem Song einen scharfsinnigen und illusionslosen Rückblick über die Zerrissenheit der USA. 2020 ist Bob Dylan auf der Höhe seines Ruhmes. Das aktuelle Album "Rough and Rowdy Ways" erreicht erstmals Platz eins in den deutschen Charts. Der Song "Murder Most Foul" wird der erste Nummer-eins-Hit in den Billbord Charts der USA. Es kann als Kommentar zur Zeit gelesen werden. "Murder Most Foul" zeugt von einer apokalyptischen Grundstimmung. Technologie und Hyperindustrialisierung könnten sich letztlich gegen das menschliche Leben auf der Erde wenden.  2012 hatte Dylan die Freiheitsmedaille in den USA erhalten, 2016 den Literaturnobelpreis.

"Denken ist das Selbstgespräch der Seele", Platon. Dieser Spruch bildet die Verbindung der Philosophie zum folgenden Abschnitt, der Psychologie.

 

Psychologie und Ökonomie:

Das Bild "Nighthawks" von Edward Hopper, ausgestellt im Art Institute of Chicago/ USA, steht wie kaum ein anderes künstlerisches Werk für psychologische Interpretationen und ist gleichzeitig ein "Icon" der amerikanischen Kultur. Gerätselt wird über die Beziehungssituation des Paares an der Bar.

"Die Grundlage der politischen Ökonomie und, im Allgemeinen, jeder Sozialwissenschaft ist offensichtlich die Psychologie. Es mag ein Tag kommen, an dem wir in der Lage sein werden, die Gesetze der Sozialwissenschaften aus den Prinzipien der Psychologie abzuleiten", Vilfredo Pareto, Manual of Political Economy: A Variorum Translation and Critical Edition, herausgegeben von Aldo Montesanto et. al. Oxford University Press, (1906) 2013, Kap. 2, S. 21.

"Der Mensch ist dem Menschen das Interessanteste und sollte ihn vielleicht ganz allein interessieren", Johann Wolfgang von Goethe, Wilhelm Meisters Lehrjahre.

Beiden Wissenschaften gemeinsam ist die Lage zwischen Sozial- und Naturwissenschaften. Gerade in der Psychologie spielen biologische, medizinische, insbesondere neurowissenschaftliche, Erkenntnisse eine große Rolle (natürlich auch Mathematik und Chemie in der Psychologie).

Die Ursprünge der Psychologie liegen in der Philosophie. Berühmt ist das Motto bzw. der Appell des Orakels von Delphi "Erkenne dich selbst". Er gilt bis heute als Richtschnur und Maxime für ein gutes Leben. Gemäß dem griechischen Denken sollen wir vor allem unsere eigene Hinfälligkeit bedenken uns so dem Laster der Hybris vorbeugen. Vgl. Bettina Fröhlich: Sorge um das Selbst, in: Sektrum Spezial "Die Psychologie vergangener Kulturen", S. 20ff.

Bestimmte ganz alte Behandlungsformen könnte man der Psychologie zuordnen. So der Schamanismus, der bis zu 10.000 v. Chr. zurückgeht. Es ist die Heilkunde analphabetischer und wenig entwickelter Gesellschaften. Es waren die ersten Formen der Psychotherapie. Der Schamane musste die Seele finden und dem Körper zurückgeben. Auch die modere Psychotherapie versucht, das Verlorenen des Menschen wieder zu finden und zurückzugeben. In der Jungsteinzeit sind Schädelbohrungen bekannt (Trepanation). Vielleicht wurde die Methode auch bei Geisteskrankheiten angewandt. Das Handlesen war eine verbreitete Praktik in vielen alten Kulturen. Die vier edlen Wahrheiten Buddhas (500 - 400 v. Chr.) oder die konfuzianische Ethik (550 - 450 v. Chr.) haben viel mit Psychologie zu tun. Berühmt ist das große Werk von Aristoteles "De Anima" (Über die Seele", 300 v. Chr.). Er geht auf die Einheit von Körper und Seele ein. Wissen beginnt mit Wahrnehmung. Auch das Bhagwad Gita (200 v. Chr.) des Hinduismus, das im Kern das Yoga geprägt hat, hat wichtige Sichtweisen der Psychologie beeinflusst. Vgl. Pickren, W. E.: Das Psychologie Buch, Librero 2018, S. 16ff. Um 400 v. Chr. behauptet der griechische Arzt Hippokrates dass sich die Eigenschaften der vier Elemente Erde, Luft, Feuer und Wasser in den Körperflüssigkeiten widerspiegeln.

Im Mittelalter spricht man eher von Seele statt von Psyche. Aber es gab sowohl Unterschiede als auch Gemeinsamkeiten zu uns heute. Die Kultur scheint einige grundsätzliche Denkweisen und Wahrnehmungen von Menschen zu prägen sowie die Art, wie sie Gefühle ausdrücken und erleben. Dem mittelalterlichen Weltmodell zufolge war der Körper nicht strikt von der Seele unterschieden. Innere Prozesse wurden auf Ereignisse der Außenwelt projiziert. Insbesondere Heldenreisen boten die Möglichkeit, seelische Konflikte aufzuarbeiten (siegreicher Krieger, Suche nach Identität).

"Psychologie" als Begriff wurde von Marko Marulic (1450 - 1524) eingeführt. Das war 1506 in seinen Moralstudien. 1524 erschien das Wort im Titel seines Buches "Psichiologica de ratione animae humanae". Im 16. und 17. Jhd. erwiesen deutsche Gelehrte wie Philipp Melanchton, Johannes Thomas Freigius und Otto Casmann in ihren Veröffentlichungen auf die Psychologie bzw. Psychologia. Richtig bekannt wurde der Begriff durch den Philosophen und Schriftsteller Denis Diderot, der Psychologie in einem Essay zum Thema machte. Vgl. Pickren, W. E.: Das Psychologie Buch, Libreo 2018, S. 44.

1816 erscheint das erste Lehrbuch der Psychologie von Johann Friedrich Herbart (1776-1841; Lehrbuch zur Psychologie; wirkte zuletzt an der Uni Göttingen). Im späten 18. Jahrhundert erkannten Gelehrte endgültig, dass Philosophieren allein nicht genügt, um die Welt zu ergründen, sondern vielmehr zur Ergänzung der Beobachtung bedarf. Der Schriftsteller und Pädagoge Karl Philipp Moritz gründete eine Zeitschrift mit Erfahrungsberichten zur Erforschung des "Gewebes der Gedanken". Er gilt als Wegbereiter der experimentellen Psychologie. Antrieb dieser Entwicklung war eine unglückliche Kindheit, die kein "Selbtzutrauen" aufkommen ließ und der Wusch, Wege zur Selbstheilung der Seele aufzuzeigen. Vgl. Steve Ayan: Seelenlehre. Die Leiden des Jungen M., in: Spektrum Spezial "Die Psychologie vergangener Kulturen" 2/2018, S. 84ff. Wilhelm Wundt (1832 - 1920) machte die weltweit ersten Lehrveranstaltungen zur experimentellen Psychologie. 1879 eröffnete er das erste psychologische Institut an der Uni Heidelberg. 1896 erschien sein Lehrbuch "Grundriss der Psychologie". Vgl. Collin, C. u. a.: Das Psychologiebuch, München 2020, S. 37. 1890 veröffentlicht der "Vater der Psychologie in den USA" William James (1842-1910) das Buch "Principles of Psychology"

Die Psychologie als Wissenschaft wurde besonders im 20. Jahrhundert im deutschsprachigen Raum geprägt. Einer der Väter ist Sigmund Freud, der in Wien geboren wurde und dort zuerst auch praktizierte (Vgl. unten). Der zweite ist einer der großen Vergessenen der Wissenschaftsgeschichte. Es ist William Stern. Er war mindestens so wichtig wie Freud. Er gilt als Erfinder des Intelligenzquotienten und prägte stark das psychologische Denken. Stern hatte jüdische Eltern und wurde in Berlin geboren (1871). Er studierte in Berlin und bekam seine erste Professur in Breslau. 1900 erschien seine Schrift "Über Psychologie der individuellen Differenzen". Es war eine Art Grundlegung des Faches. Er war gegen die Selbstüberschätzung des neuen Faches und gegen "experimentelle Scheinprüfungen" (Psychotechnik). Mit Hilfe der Methode der Naturwissenschaften kann man menschliche Individualität nicht erfassen. Diese Kritik ist heute noch aktuell. Im Dritten Reich musste Stern Deutschland verlassen (Uni Hamburg, zuerst Niederlande, dann USA).

In der Psychologie heute geht es um die Grundausstattung des Menschen (Fühlen, Wahrnehmen,  Denken, Erinnern und Vergessen, Erleben, Handeln, Verhalten). Vgl. Jordan, Stefan/ Wendt, Gunna: Lexikon der Psychologie, Stuttgart 2005. Als Lehrbuch: Cash, Adam: Psychologie für Dummies, Weinheim 2005.

Psychologie sagt uns damit, wer wir sind und wie wir sein könnten. Mit ihr können wir und erklären, wie wir die Welt konstruieren, wie wir unser Zusammenleben arrangieren und wie wir an unsere Grenzen kommen. Vgl. Oehler, R./ Bernius, V./ Wellmann, K. - H.:  Was kann Psychologie, Weinheim und Basel 2009. "Der Mensch ist ein Zwischenwirt - für Religion und Fußpilz", Gerhard Polt in seinem Programm 2016.

In jedem Beruf ist Psychologie relevant: Wir müssen uns kennen und gleichzeitig die anderen. Jeder führt und wird geführt. Man muss schwierige Situationen meistern, insbesondere Stress im Beruf bewältigen. Vgl. Boris von der Linde/ Svea Steinweg: Psychologie im Beruf, München 2009.

Vom Gottesbild zum Menschenbild (Individualismus versus Kollektivismus): Im antiken Ägypten (aber auch in Babylon oder bei den Kelten) bei den Pharaonen lautete die Selbstdefinition Gottes: "Ich bin, was da ist" (Inschrift auf einer Stehle). Gott definiert sich als das Seiende, die Natur. Der Gott Israels, der alle anderen monotheistischen Richtungen geprägt hat, wird im alten Testament wie folgt beschrieben: "Ich bin, der ich bin. Gott hat Dich bei Deinem Namen gerufen". Beim ersten Gottesbild geht es um die Ein- und Unterordnung des Menschen gegenüber der Natur. Beim zweiten Gottesbild geht es nur um die Akzeptanz der Natur in Anbetracht des Schicksals des Einzelnen. Das ist  die Grundlage des humanen Denkens. Der einzelne wird bei seinem Namen gerufen. Nicht das Kollektiv, nicht die große Zahl, sondern Gott widmet sich jedem einzelnen. Darin ist die Würde des Menschen begründet. Das ist im Kern auch die Ursache unterschiedlicher Vorstellungen über Menschenrechte im Westen und in China. China ist im Menschenbild antiker Natur-Religionen stehen geblieben. Das Menschenbild ist eine wichtige Basis der Psychologie. Es geht dabei auch um das Idealbild von einem Menschen ("neuer" Mensch). Die Ökonomen sind eher pessimistischer.

Die Psychologie als Wissenschaft gliedert sich in Spezialgebiete. Eine Einteilung lautet: 1. Behaviorismus. 2. Psychotherapie. 3. Kognitive Psychologe. 4. Sozialpsychologie. 5. Entwicklungspsychologie. 6. Differenzielle Psychologie. Vgl.  Vgl. Collin, C. u. a.: Das Psychologiebuch, München 2020

In der Ökonomie steht die Sozialpsychologie im Mittelpunkt. Sie behandelt die Beziehungen zwischen Menschen. Es geht um Soziales Lernen und Sozialisation, Motivation und soziales Handeln, soziale Vergleichsprozesse, soziale Wahrnehmung und Kognition, soziale Einstellungen, Kommunikation, Interaktion (soziale Rollen), Gerechtigkeit, Macht und Führung, Norm und Abweichung, Gruppenstruktur, Konflikt und Wettbewerb. Vgl. Fischer, L./ Wiswede, G.: Grundlagen der Sozialpsychologie, München 2009.

Der wichtigste lebende Psychologe für die Wirtschaftswissenschaften dürfte Daniel Kahneman sein (Vgl. Kahneman: Schnelles Denken, Langsames Denken, München 2012). Er ist auch Nobelpreisträger der Wirtschaftswissenschaften. Das obige Buch ist von großer Bedeutung für den Zusammenhang von Psychologie und Wirtschaftswissenschaften gewesen. Kahneman kommt von der Wahrnehmungspsychologie. In seinem Buch behandelt erfolgende Themen: 1. Zwei Systeme (automatisch und schnell; subjektives Erleben und komplexe Berechnungen). 2. Heuristiken und kognitive Verzerrungen. 3. Selbstüberschätzung. 4. Entscheidungen. 5. Zwei Selbste.

Innerhalb der Sozialpsychologie haben sich Arbeitsgebiete herausgebildet, die besonders relevant für die Ökonomie sind. Einmal die Organisationspsychologie, die alle menschlichen Aspekte der Arbeitswelt behandelt (Personal). Vgl. Lutz von Rosenstiel: Grundlagen der Organisationspsychologie, Stuttgart 2003. Zum anderen die Wirtschaft- bzw. Marktpsychologie, die stark in die Volkswirtschaftslehre und das Marketing hineinwirkt. Es werden sowohl makroökonomische als auch mikroökonomische Prozesse analysiert. Vgl. Günter Wiswede: Einführung in die Wirtschaftspsychologie, München/ Basel 1995.

Durch die Renaissance der Behavioral Economics finden immer mehr psychologische Theorien und Forschungsmethoden (Hirnforschung, experimentelle Forschung) Einzug in die Ökonomie (in deutschsprachigen Raum aktuell vor allem durch die Ökonomen Fehr und Ockenfels).

In mehreren meiner Veranstaltungen beziehe ich psychologische Grundlagen (habe Sozialpsychologie als Fach studiert)  stärker ein, allerdings immer in Bezug auf die Praxis. Das gilt für die Personalökonomik und für Psychologie und Kommunikation/ Interkulturelle Kompetenz.

"Wir wissen von unserer Seele wenig und sind sie selbst", Georg Christoph Lichtenberg.

 

Zehn Regeln der Volkswirtschaftslehre aus unternehmerischer Sicht (Grundfragen):

"Wenn eine Gesellschaft den vielen, die arm sind, nicht helfen kann, kann sie auch die wenigen nicht retten, die reich sind", John F. Kennedy, 1917-1963, US-Präsident (zitiert nach Mankiw u. a., s. unten, S. 482).

Diese Regeln bzw. Grundfragen sind folgendem Lehrbuch entnommen: N. Gregory Mankiw/ Mark P. Taylor/ Andrew Ashwin: Volkswirtschaftslehre für Schule, Studium und Beruf, Stuttgart (Schäffer  Poeschel) 2015:

1. Alle Menschen und Unternehmen stehen vor abzuwägenden Alternativen.

2. Die Kosten eines Gutes bestehen aus dem, was man für den Erwerb eines Gutes ausgibt.

3. Rational entscheidende Menschen und Unternehmen denken in Grenzbegriffen.

4. Menschen und Unternehmen reagieren auf Anreize.

5. Durch Handel kann es jedem besser gehen.

6. Märkte sind für gewöhnlich gut für die Organisation des Wirtschaftslebens.

7. Regierungen können manchmal die Marktergebnisse verbessern.

8. Der Lebensstandard eines Landes hängt von der Fähigkeit ab, Waren und Dienstleistungen herzustellen.

9. Die Preise steigen, wenn zu viel Geld in Umlauf ist.

10. Die Gesellschaft hat kurzfristig zwischen Inflation und Arbeitslosigkeit zu wählen.

"Die Lektüre von ´Volkswirtschaftslehre´ wird Sie besser verstehen lassen, welche Möglichkeiten und Grenzen der Wirtschaftspolitik gesetzt sind und wie sie auf das Verhalten von Unternehmen wirkt", Mankiw u. a. s. oben, S. XV.

 

Die Beutung der Rechtswissenschaften und der Ingenieurwissenschaften für die Ökonomie fehlt hier, weil es sehr spezielle Einsatzbereiche sind: Die Rechtswissenschaften spielen in der Volkswirtschaftslehre vor allem in der Wirtschaftspolitik eine Rolle (z. B. Wettbewerbspolitik) oder in der Betriebswirtschaftlehre etwa in der Personalwirtschaft (Arbeitsrecht). Die Ingenieurwissenschaften finden insbesondere in der Produktionslehre, der Arbeitswissenschaft (z. B. Taylor), der Logistik und der IT-Technologie ihre Anwendung.

 

Fortsetzung des VWL - Lehrbuchs auf der Seite Fallstudie/ E-Learning: hier (Volkswirtschaftslehre, Inhalt: Fallstudien, Funktionsweise, Ideologien (Ideen) und Wirtschaft, wirtschaftspolitische Grundkonzeptionen, Marktbetrachtung (Grundlagen, Finanzmärkte, Umwelt, Arbeitsmarkt), Weltwirtschaftskrise,  Wirtschaftsordnungen) und auf dieser Seite "Methode" (Methode und Wissenschaftstheorie der VWL).

 

"Es gibt in der Pfalz ein liebes Nest, das hält mein Herz und meine Seele fest", Karl May über die Villa Motzenbäcker in Ruppertsberg, Pfalz (am 30. März 1912 starb Karl May in Radebeul bei Dresden).

Der Pfälzer Dialekt bietet eine Menge von Begriffen, um die Benutzer gewisser methodischer Regeln und Verfahren humorvoll zu kennzeichnen: Dappschädel, Dibbelschisser, Dollbohrer, Griwwelbisser, Labbeduddel.

Auch für andere Kommentare gibt es hervorragende Sätze: Uffpasse! Kumm, geh fort!, Pänn mer die Gäns!, Du machst mich ganz heckewelsch, Liewer en Bauch vum Esse wie en Buckel vum Schaffe.