Werner Krämer

 Methode,Econometrics  

Wirtschaftsforschung Statistik Economics Data collection Home Impressum Sitemap

"Die gefährlichsten Wahrheiten sind Wahrheiten, mäßig entstellt", Georg Christoph Lichtenberg, dt. Schriftsteller, 1742-1799.               

Inhalt:  Übungsmodell (mit Spieltheorie); Übungs-Lern-Datenraster (Data collection: die wichtigsten Daten und Informationen mit Quellen);  Methode der Ökonomie und Volkswirtschaftslehre (VWL); Wissenschaftstheoretische Grundlagen  der Ökonomie und VWL; Betriebswirtschaftslehre/ Business Economics als Wissenschaft; Wirtschaftsgeschichte und Ökonomiegeschichte; Neuere Konzeptionen und Ansätze der Ökonomie; Rolle der Statistik bzw. ÖkonometrieZusammenhang zwischen Modell, Planspiel, Rollenspiel und Simulation; Empirische Forschungsmethoden in der Ökonomie und den Wirtschaftswissenschaften; Prognose der Weltwirtschaft bis 2033; Mathematik und Ökonomie; Statistik: Daten und Methoden; wissenschaftlich, analytisches Denken; Philosophie und Ökonomie; Psychologie und Ökonomie; Soziologie und Ökonomie;  Zehn Regeln der VWL aus unternehmerischer Sicht; Stellenwert des Internet; Ökonomische Aspekte der Präsentation im Internet; Sonstige Gebiete (Blogs,Wikis).

 

Knossos, Palast, auf Kreta. Die minoische Kultur ist die älteste Hochkultur Europas (vor über 4000 Jahren). Damit ist sie letztlich auch die Wiege unseres wissenschaftlichen, auch ökonomischen und volkswirtschaftlichen, Denkens. Der Kontinent "Europa" hat seinen Namen von jener phönizischen Prinzessin Europa, die der Göttervater Zeus in Gestalt eines Stiers nach Kreta entführte (Gründungsmythos). Die Insel beherrschte die Meere mit einer mächtigen Flotte. Die neueste Forschung berichtet aber auch von Menschenopfern und Kannibalismus. Die Minoer waren aber auch Europas erste alphabetisierte Gesellschaft. Erbgutanalysen des Max-Planck-Instituts für Menschheitsgeschichte 2017 zeigen, dass die Hochkultur von ersten jungsteinzeitlichen Bauern aus Westanatolien und Griechenland abstammt. Seit dem dritten Jahrtausend sind Handelsbeziehungen zwischen Anatolien und dem alten Ägypten nachweisbar. Kulturen gab es aber schon weitaus früher in Europa. Davon zeugt auch die Chauvet-Höhle im südfranzösischen Ardeche-Tal. Vor 36.000 Jahren wurden dort mit Holzkohle und Ocker hervorragende Tierzeichnungen hinterlassen. Noch ältere Höhlenzeichnungen hat man 2018 auf Borneo gefunden: Bis zu 52.000 Jahre alt könnten die Zeichnungen in der Höhle Lubang Jeriji Saleh sein. Methoden haben eine Schlüsselfunktion in der Kultur und Wissenschaft. Im Kern liegt ihre Bedeutung darin, Manipulationen aufzudecken, wie es das Zitat oben von Lichtenberg auf den Punkt bringt. Im Oktober 2018 ist ein Buch vom Vorsitzenden der Grünen Robert Habeck erschienen: Wer wir sein könnten. Warum unsere Demokratie eine offene und vielfältige Sprache braucht (Köln, Kiepenheuer & Witsch 2018). Das Buch beschäftigt sich mit der Bedeutung der Sprache in der Kultur. insbesondere der politischen Kultur. Sprache ist eine wichtige methodische Grundlage. Eine zentrale Frage ist, ob das Vordringen der englischen Sprache als Wirtschaftssprache das ökonomische Denken verändert.

Die Minoer beeinflussten viele Nachfolgekulturen wie Mykene, Tiryns, Midea und Theben. Die minoische Schrift wurde mit übernommen. Bis heute ist ungeklärt, wieso diese Kulturen untergingen. Die Schätze von Mykene wurden von dem deutschen Archäologen und Kaufmann Heinrich Schliemann ausgegraben. Von Dezember 2018 bis Juni 2019 läuft im badischen Landesmuseum Karlsruhe eine Ausstellung zu Mykene.

 

   Fortis fortuna adiuvat

Das Schiff hängt mehr am Ruder denn das Ruder am Schiff (Sprichwort)

Ökonometrisches Übungsmodell für Deutschland:

Gliederung: I. Basisdaten, II. Logische Struktur, III. Wirtschaftspolitische Steuerung, IV. Erläuterungen, V. Wichtige Grundlagen eines Modells und der Spieltheorie, VI. Lernhilfe.

 

I. Basisdaten  ( erhalten Sie unter anderem über die Institutionen in "Links")

Wirtschaftswachstum (BIP ), Außenwirtschaftliches Gleichgewicht (AG)

Arbeitslosenquote   (AL)

Inflationsrate    (IR)

Exporte (X) + Importe (M)

Investitionen  (I),    Konsum (C)

Leitzins (i),     Preise (P)

Wechselkurs (WK)

Löhne (L oder W)

II. Logische Struktur:  (Einfachstkonjunkturmodell als Denkstruktur)

Finanzpolitik                                                                    Wirtschaftswachstum

                        Wechselkurs           Exporte (+ M)         Außenwirtschaft

                            Löhne                                                  Arbeitslosenquote

                          Zins                      Investitionen

Geldpolitik           Preise                  Konsum                     Inflationsrate

 

III. Wirtschaftspolitische Steuerung (spieltheoretische Auszahlungsmatrix)

                                                          Finanzpolitik (Staatshaushalt)

                                               hohe HH-Defizite     geringe HH-Defizite

                  niedrige Zinssätze    sehr niedrige AL       mäßig hohe AL

                                                 sehr hohe IR             mäßig hohe IR

Geldpolitik (EZB)                      mäßig hohe I             hohe I

                  hohe Zinssätze         mäßig hohe AL          hohe AL

                                                 mäßig hohe IR           geringe IR

                                                 geringe I                    mäßig hohe I              

Hauptziel der Europäischen Zentralbank ist die Geldwertstabilität. Der Staat muss im Rahmen des Stabilitätspaktes handeln.

IV. Erläuterungen

Dieses kleine Modell soll nur die Methode der Volkswirtschaftslehre verdeutlichen. Es setzt die Kenntnis der Grundlagen der VWL voraus. Für praktische Prognose- und Analysezwecke ist es natürlich nicht geeignet. Die Variablen können spielerisch beliebig geändert werden. Empirische Informationen und Daten erhalten Sie, wenn Sie den Links nachgehen. Dies sollte aber nicht als Data-Mining ("automatisches" Durchforsten riesiger Datenmengen) gesehen werden, denn dies liefert immer mehr zweifelhafte Resultate.  Jeder Student bzw. Ökonom sollte sich sein persönliches Info - Netzwerk zulegen, da man einige wichtige Daten auch für Prüfungen parat haben sollte.  Ein komplexes Simulationsmodell finden Sie unter anderem  in Clement u. a.: Praxis der Wirtschaftspolitik, München 2001. Auch Kollege Prof. Dr. Ulli Guckelsberger bietet ein Modell der Konjunkturprognose als Download auf seiner Homepage an (Pfad: Home HS LU, Studium, Professoren). Weitere, neuere Modelle können Sie einsehen unter: www.macroeconomicbase.com .

"Der Mensch hat Hoffnung, der Wirtschaftsweise Zahlen. Und deren Botschaft ist klar: Es wird alles schlechter, wenn nicht in diesem Jahr, dann wenigstens im nächsten. Die Statistik ist die Religion der Marktwirtschaft", Martin Gerstner, in: Sonntag Aktuell, 22. 10. 2006, S. 1.

V. Wichtige Grundlagen eines Modells und der Spieltheorie

"Nichts in der Welt ist schwierig, es sind nur die eigenen Gedanken, welche den Dingen diesen Anschein geben", Wu Cheng`en.

Modell:

"Wir sehen die Dinge nicht, wie sie sind, sondern so, wie wir sind", Talmud.

Die Methoden der VWL werden in ökonomische Modelle eingebracht. Diese sind  Gedankenexperimente, die oft mit der Ceteris-paribus-Annahme arbeiten (siehe unten). Sehr bekannt sind die Produktionsmöglichkeitskurve und das Konzept des komparativen Vorteils . Ein ökonomisches Modell ist die kompakte, vereinfachte Abbildung der ökonomischen Realität (Beispiel: Wirtschaftskreislauf, vom Physiokraten Francois Quesnay, 1694-1774, "Tableau economique" erschien 1758; am bekanntesten ist das IS/LM-Modell, das durch Analyse des Zusammenwirkens von Güter- und Geldmarkt die Bestimmung des Gesamteinkommens bei gegebenem Preisniveau zeigt). Das GINFORS (Global Interindustry Forecasting System) ist ein aktuelles Modell, das auch die Umwelt einbezieht. Alle vorliegenden Modelle sind noch nicht in der Lage, alle ökonomischen Phänomene zu erklären oder zuverlässige Prognosen abzugeben. "Das ist eine Mahnung, dass jedes Modell nur eine grobe Annäherung an die Realität sein kann", Spencer Dale, Chef - Volkswirt, Bank of England.

Computable General Equilibrium Models (CGE, berechenbare allgemeine Gleichgewichtsmodelle): Auf der neoklassischen Wirtschaftstheorie beruhende, numerisch spezifizierte gesamtwirtschaftliche Modelle mit einer Gliederung  (mehr oder weniger tief) nach Märkten und Branchen.

VAR-Modelle: Vectorautoregressionen. Sie untersuchen lange Zeitreihen aus der Realität ohne bestimmten theoretischen Rahmen. Sie können auf annahmen über Präferenzen oder Entscheidungsregeln von Konsumenten verzichten.

Exogene Variable: Parameter, der in einem Modell vorgegeben ist und von dem die Lösung des Modells (Gleichgewicht) abhängt; die Akteure müssen sich an diese Parameter anpassen. Wird auch als Schock bezeichnet. Das Gegenteil ist eine endogene Variable, die im Modell bestimmt wird und u. U. von den Akteuren kontrolliert wird.

Ceteris-paribus-Klausel: Analyse eines Zusammenhangs unter der Annahme, dass sich nur die betrachtete (unabhängige) Variable ändert, während alle anderen konstant sind. Eine extreme Anwendung ist die geschlossene Volkswirtschaft (die sich nicht am internationalen Handel beteiligt, "Closed Economy"). Das Gegenteil ist eine große offene Volkswirtschaft, die Einfluss auf die Weltmärkte und insbesondere auf den Weltzinssatz hat.

Business as usual: Annahme über das Verhalten des politischen Systems in Modellrechnungen. Es wird unterstellt, dass die Politik im Simulationszeitraum gegenüber dem aktuellen Stand nicht verändert wird.

Komparative Statik: Untersucht, wie sich die Änderung exogener Größen auf die endogenen Größen eines Modells auswirken. Es ist der Vergleich zweier Gleichgewichtszustände.

Gleichgewicht: Zustand, in dem kein Akteur glaubt, durch Änderung seines Verhaltens seine Lage verbessern zu können. Die Volkswirtschaftslehre nimmt das Gleichgewicht in der Regel als Bezugspunkt. Man geht in der modernen Makroökonomik nicht mehr nur von einem stabilen Gleichgewicht aus, sondern betrachtet mehrere Gleichgewichte (multiple Gleichgewichte). Nach der Finanz- und Weltwirtschaftskrise 2008/2009 gerät der Begriff immer mehr in die Kritik. Evolutionsprozesse, die auf menschlicher Kreativität, Neugierde und Nachahmung beruhen, rücken in den Vordergrund. Zuerst in der Ökonomie hatte Thorstein Veblen (1857-1929) die Ideen von Darwin aufgegriffen. Immer wichtiger wird auch die Einbeziehung des Zeitfaktors, so dass simultane Gleichgewichte in kurzer und langer Frist unterschieden werden.

Allgemeine Gleichgewichtsanalyse: Ermittlung von Preisen und Mengen zur gleichen Zeit auf allen relevanten Märkten, wobei rückwirkende Einflüsse einbezogen werden. Sie bildet immer noch ein Herzstück der ökonomischen Theorie. Sie geht auf Ende des 19. Jahrhunderts in Lausanne wirkenden französischen Ökonomen Leon Walras zurück. "Die mathematische Ökonomie wird dadurch den Status der mathematischen Wissenschaften Astronomie und Mechanik erreichen. Und an diesem Tag wird unsere Arbeit gebührend gewürdigt werden", Leon Walras (er präsentierte 1874 sein mathematisch formuliertes Modell der Tauschwirtschaft).

Totalanalyse: Alle relevanten Zusammenhänge werden vollständig berücksichtigt. Das Gegenteil ist eine Partialanalyse (z. B. wird nur der Gütermarkt analysiert). Hier werden Gleichgewichtspreise und -mengen auf einem Markt unabhängig von den Einflüssen anderer Märkte untersucht.

Ex-ante-Analyse: Analyse einer Transaktion aus dem Blickwinkel einer Periode, die vor der Ausführung der Transaktion liegt. Dass Gegenteil ist eine Ex-post-Analyse.

Kurzfristige Analyse der geschlossenen Volkswirtschaft: dies wird nur noch zu didaktischen Zwecken gemacht (Grundstudium), weil es zu weit von der heutigen Realität entfernt ist. Die kurzfristige Analyse der offenen Volkswirtschaft ist realitätsnäher, aber formal schwieriger.

Rationale Erwartungen: die Wirtschaftssubjekte nutzen bei der Prognose zukünftiger Entwicklungen alle verfügbaren Informationen über die Wirtschaftspolitik optimal.

Repräsentativer Agent: Analyse des Verhaltens eines einzigen Akteurs in einem Modell. Damit wird die Anwendung der Mathematik einfacher.

Hysterese-Effekt: Fortdauer einer Wirkung bei Wegfall der Ursache, also ein lang andauernder Einfluss der Vergangenheit (z. B. Entstehung struktureller Arbeitslosigkeit aus der konjunkturellen).

Random walk: Pfad einer Variablen, deren Änderungen im Zeitablauf nicht vorhersehbar sind.

Steady state: Zustand eines dynamischen Systems, in dem sich die endogenen Variablen nicht mehr ändern (häufig auch Wachstumsgleichgewicht genannt).

Risiko: Hier tun sich Modelle, vor allem mathematische, sehr schwer. Der wichtigste Grund ist: Statistiken bilden die Vergangenheit ab. Was niemals vorkam, kann nicht in Berechnungen eingehen. Die Risikomodelle der Banken unterscheiden sich stark, auch in ihrer Qualität. Als gut gelten die von Goldman Sachs und der Deutschen Bank.

Beta-Faktor: Eine Konstante misst die Empfindlichkeit einer Anlage auf Marktschwankungen. Dies ist das nichtdiversifizierbare Risiko jeder Anlage. Hier kann nicht in verschiedene Projekte investiert oder Aktien vieler Unternehmen besessen werden.

Edgeworth-Box: Diagramm, das alle möglichen Allokationen zweier Produktionsfaktoren zwischen zwei Produktionsprozessen darstellt. Es ist auch auf Güter und Konsumenten anwendbar.

Varianz: Mathematisches Maß für das Risiko (Situation mit ungewissem Ausgang). Der Erwartungswert bewertet das durchschnittliche Ergebnis einer riskanten Situation (Summe der Wahrscheinlichkeitsergebnisse mal Wert).

Ockham´s Razor (Rasiermesser, Wilhelm von Ockham, 1287-1347): Es ist nicht zulässig, Theorien aufzustellen auf der Basis von Annahmen, die weder offensichtlich noch im Einklang mit den empirischen Tatsachen sind.

Heuristiken: In der Ökonomie sind dies "Daumenregeln" oder Abkürzungen, die bei Entscheidungen verwendet werden.

Aggregationsproblem: Die aggregierten Daten der Volkswirtschaftlichen Gesamtrechnungen und die Makroökonomik unterscheiden sich oft von mikroökonomisch festgestellten Entwicklungen. Eine einfache Aufsummierung mikroökonomischer Einheiten ist nicht möglich. So stellte der Nobelpreisträger 2015 Angus Deaton z. B. fest, dass der Konsum stärker schwankte als das Einkommen, weil die Menschen auf erwartete Einkommenszuwächse mit einem überproportionalen Konsumanstieg reagieren. Werden die Daten aggregiert, gleichen sich die Unterschiede zum großen Teil aus. "Ich bin jemand, der sich mit den Armen der Welt befasst, zudem damit, wie sich Menschen verhalten und was sie glücklich macht", Angus Deaton, Träger des Wirtschaftsnobelpreises 2015.

"Die Aussage, mathematische Modelle seien ideologiefrei, kann man bestenfalls als naiv beschreiben", Michael Hüther, Direktor IW, Köln.

Spieltheorie:

"Das Spiel ist die höchste Form der Forschung", Albert Einstein.

"Was die Leute das Schicksal nennen, sind meistens ihre eigenen dummen Streiche", Arthur Schopenhauer, Philosoph, 1788-1860.

Spieltheorie: Theorie oder  Methode zur Analyse und zum Verstehen menschlichen Verhaltens in strategischen Situationen (die eigenen Aktionen beeinflussen das Verhalten anderer und umgekehrt). Die Spieltheorie erlaubt die Analyse von Situationen mit zwei und mehr Entscheidungsträgern, die entgegen gesetzte Ziele verfolgen, und sich in einer strategischen Interaktion befinden. Strategisches Verhalten ist ein Entscheidungsverhalten, das die möglichen Reaktionen anderer mit einbezieht (für solche Situationen eignen sich Mathematik und Geometrie weniger). Berühmte Vertreter sind von Neumann/ Morgenstern, Harsanyi/ Nash/ Selten, Auman/ Schelling, Hurwicz/ Maskin/ Myerson. Reinhard Selten erhält als einziger Deutscher 2004 den Nobelpreis für Ökonomie für seinen Beitrag in der Spieltheorie. Selten, 1930 geboren, studiert in Frankfurt Mathematik. 1968 habilitiert er sich in VWL in den USA. Zuletzt war er Professor in Bonn. "Bei der Spieltheorie geht es um rationales Verhalten in sozialen Situationen", John  Harsanyi, 1020-2000, US-Ökonom. An der US-Elite-Uni MIT lernen Studenten das Pokerspiel ("Wie man zockt, wenn man muss"). Es steht in der Tradition des MIT-Black Jack Teams. Sie sollen so für die Karriere als Investmentbanker üben.

Logik und Spieltheorie: In den Veranstaltungen der Bachelor - Studiengänge komme ich über logische Erwägungen in der Spieltheorie nicht hinaus. Insofern schult aber die Spieltheorie hervorragend logisches Denken. Ich behandele die Spieltheorie deshalb zusammen mit einer Einführung in die Logik (samt logische Symbole).  "Das System der Logik ist das Reich der Schatten, die Welt der einfachen Wesenheiten, von aller sinnlichen Konkretion befreit", Hegel, Logik (1832).

Gefangenen-Dilemma: Situation (Prisoner`s Dilemma), in der individuelles Rationalverhalten zu einem kollektiv abträglichen Ergebnis führt. Ausgangsposition der Spieltheorie: Zwei Gefangene entscheiden unabhängig voneinander, ob sie ein Verbrechen gestehen sollen. Wenn nur ein Gefangener gesteht, wird er eine milde Strafe erhalten, der andere dagegen eine harte. Gesteht keiner der beiden, wird die Strafe milder ausfallen als bei einem Geständnis beider Gefangener. Mittlerweile wurde das Dilemma auch an realen Gefangenen getestet. Offenbar sind Häftlinge solidarischer als andere Versuchspersonen.

Park-Version des Gefangenen-Dilemmas mit öffentlichen Gütern: Vgl. Beeker, Detlef: VWL für dummies, Weinheim 2017, S. 160ff.

Spiele: Für das Verstehen der Spieltheorie ist es hilfreich, verschiedene Spiele zu kennen. So helfen Schach (Antizipation), Doppelkopf (Psychologie, Kooperation), Poker (Bluff), Skat (verschiedene Milieus; Mischung Glück und Können), Mensch ärgere dich nicht (Glück, Verlieren), Monopoly (Wirtschaft), Würfelspiel (Wahrscheinlichkeit).

Homo ludens: Der durch das Spiel sich entwickelnde Mensch. Diese Sichtweise ist nicht neu (Schiller: "der Mensch ist nur ganz Mensch, wo er spielt"). Die Digitalisierung fördert dieses Menschenbild wieder. Dahinter steckt die Vorstellung, dass Spielen die primäre Kulturtechnik ist und es der wichtigste Grund für Gesellschaften ist (das wusste schon Niklas Luhmann:  Art der Kommunikation). Heute spricht man von einer Weltgesellschaft, die in ihrer Komplexität noch nicht ausreichend erforscht ist. Das Spielerische in der digitalen Welt kann motivieren. Man spricht auch von einem Trend zur "Gamifizierung". Vgl. Manouchehr Shamsrizi, Interview in: bdvb aktuell, Nr. 137, S. 6f.

Pay-off: Gewinn (Auszahlung), den der Spieltheorie zufolge die Teilnehmer an einem Spiel erspielen. Die komplexe Darstellung der Auszahlungen wird in einer Pay-off-Matrix dargestellt (in der Regel eine Vierfeldertabelle).

Auszahlungsfunktion (payoff function): eine Funktion, die jedem Strategieprofil einen Auszahlungsvektor zuweist. Die Auszahlungen können ordinale oder kardinale Nutzenwerte sein. Der Auszahlungsvektor enthält für jeden Spieler einen  Wert (Auszahlung, Nutzen, Profit in Euro).

Common Knowledge: Die Informationen über Spielregeln und Auszahlungen, über die die Spieler vor Beginn des Spiels verfügen. Dazu zählen auch Kenntnisse über die Informationen, die die Mitspieler haben. Vgl. Diekmann, Andreas: Spieltheorie, Hamburg 2013, S. 231.

Strategie: Aktionsplan bzw. Regel für ein Spiel. Bei einer strategischen Handlung wird einem Spieler ein Vorteil verschafft, sein Verhalten aber eingeschränkt. Bei einem Spiel treffen die Spieler strategische Entscheidungen, die die Reaktionen der Mitspieler mit einbeziehen. Spiele können nach den verschiedenen Strategien unterschieden werden: Z.B. Evolutionär stabile Strategie, gemischte Strategie, Maximin - Strategie.

Dominante Strategie (dominant startegy) Eine Strategie ist dominant, wenn sie die beste Antwort auf das Verhalten des Gegenspielers ist, unabhängig davon, welche Strategie der Gegenspieler wählt. Von dieser Strategie sind dominierte Strategien zu unterscheiden: bei dominanter Strategie eines Spielers wird er keine dominierte wählen. So werden  vielmehr dominierte Strategien iterativ eliminiert.

Nash-Gleichgewicht (1951 von dem Mathematiker John Nash, geb. 1928,  bewiesen): Dieses tritt in der Spieltheorie ein, wenn kein Spieler bei einer gegebenen Strategie der anderen Spieler seine Auszahlungsfunktion verbessern kann (oft schlechteste Situation für beide Spieler). "Das Nashgleichgewicht ist ein stabiler Zustand, der sich nicht aus sich selbst heraus zerstört", (Christian Rieck). Es ist ein nichtkooperatives Spiel, in dem die Spieler keine glaubhaften und verbindlichen Vereinbarungen treffen können (pragmatisch und am leichtesten umzusetzen: nicht kooperativ und geringster Nutzen für beide Spieler). Nash erhielt 1994 dafür den Wirtschaftsnobelpreis. Der Wissenschaftler stirbt im Mai 2015 (zusammen mit seiner Frau bei einem Taxiunfall). Er machte die Spieltheorie zu einer zentralen Analysemethode in den Wirtschaftswissenschaften. "Die Realität ist immer eine Art von Fiktion, der alle zustimmen", John Nash. Nash nutzte 1950das vereinfachte Modell eines Pokerspiels mit drei Personen: Das Gleichgewicht ist erreicht, wenn alle Spieler eine individuelle Strategie gewählt haben, welche die jeweils bestmögliche Antwort auf die Strategie des Gegenspielers ist - und umgekehrt.

Informationen: Perfekte Information, bei denen jeder Informationsbezirk genau einen Entscheidungsknoten hat (der Spieler am Zug kennt immer den vorangehenden Zug des Mitspielers). Bei unvollständige Information hat mindestens ein Spieler keine vollständige Kenntnis über die Auszahlung. Gegenteil ist die vollständige Information (complete information).  ein Informationsbezirk (information set) umfasst eine Menge von knoten auf einer Entscheidungsebene. Vgl. Diekmann, Andreas: Spieltheorie, Hamburg 2013, S. 232, 233.

Wahrheit und Vertrauen: Koordination zwischen Einzelnen findet typischerweise auf Märkten durch das Aushandeln von Preisen statt. Doch sogar wo Kommunikation zwischen Beteiligten möglich ist, gibt es Fehler in der Interaktion. Die Koordination kann verbessert werden, wenn Teilnehmende an Spiel-Experimenten sich durch einen Eid zur Wahrheit verpflichten, bevor sie ins Labor gehen. Dahinter steckt die sozialpsychologische Theorie der Verpflichtung. Dieses Spiel-Experiment geht auf Robert W. Rosenthal und Reinhard Selten zurück. Vgl. Stephane Luchini: Menschen auf Märkten. können wir uns besser koordinieren, wenn wir die Wahrheit sagen? in: WZB Mitteilungen, Heft 159, März 2018, S. 38ff.

Praktische Anwendungsgebiete der Spieltheorie, insbesondere des Nashgleichgewichts (auch in Klausuren; entsprechende Aufgaben eignen sich hervorragend zur Überprüfung der Transferfähigkeit): Während des Kalten Krieges wurde die Spieltheorie militärisch verwertet (konkret etwa in der Kuba-Krise). In der Ökonomie finden sich viele Beispiele in der Wettbewerbstheorie (Markteintritt) und der Theorie der Preisbildung ("Friedhofsruhe"; ruinöser Preiskampf). Anwendungen finden sich auch in der Umweltökonomik (Begründung staatlicher Umweltpolitik; Fischerei und Wasserqualität), der Arbeitsökonomik (Tarifverhandlungen) und der Globalökonomik (Krisenlösung). Die Spieltheorie eignet sich besonders, wenn es um Fragen der Kooperation geht. Möglich ist auch die Übertragung auf den Konflikt zwischen EU und Griechenland nach dem Wahlsieg von Syriza. Die Situation entspricht dem Nash-Gleichgewicht: Keine Partei kann sich verbessern, wenn sie - als Einzige - ihre Strategie ändert (Beispiel Hasenfußrennen bei James Dean "Denn sie wissen nicht, was sie tun"). Wenn keiner ausweicht, könnten sich beide durch Strategiewechsel verbessern. Anwendbar ist die Spieltheorie auch auf die Verhandlungen zwischen EU und GB um den Brexit. So kann nachgewiesen werden, dass die EU langfristig von einer eher kompromisslosen Verhandlungsführung profitiert (Vgl. Busch/ Diermeier/ Hüther: Brexit und die Zukunft Europas - eine spieltheoretische Einordnung, in: Wirtschaftsdienst 2016/12, S. 883ff.) . Man versucht auch mit der Spieltheorie den Konflikt zwischen den USA und Nordkorea 2017 zu analysieren. "Das Spiel findet am Abgrund statt. Keiner weiß, ob nicht etwas Unvorhergesehenes passiert und in die Katastrophe führt", Benny Moldovanu, Spieltheoretiker, Uni Bonn; vgl. Handelsblatt, Mo. 09.02.2015, Nr. 27, S. 10. "Wenn die Griechen zu ihren Zusagen stehen, dann stehen die Geldgeber zu ihren Finanzzusagen. Steigt eine Seite aus, steigt auch die andere aus", Martin Schulz, EU-Parlamentspräsident.

Ein anderes Gleichgewicht ist das Bayessche. Es erhält man, wenn die Spieler ihre erwartete Auszahlung maximieren, rationale Erwartungen besitzen und die Bayessche Regel anwenden (aus der statistischen Wahrscheinlichkeitstheorie bekannt). Treffen die dominanten Strategien beider Spieler zusammen, erhält man ein dominantes Gleichgewicht. Die Baysianische Statistik hat sich in den letzten Jahren sehr stark weiterentwickelt. so gibt es eine Reihe simulationsbasierter Verfahren. Das bekannteste ist die Markov Chain Monte Carlo.

Weiterentwicklung des Nash-Gleichgewichts durch R. Selten (geb. 1930, 1994 einziger deutscher Wirtschaftsnobelpreisträger): nicht nur ein Spiel als Ganzes, sondern auch einzelne Teile erreichen ein Nash-Gleichgewicht. Vgl. Ders., Reexamination of the Perfectness Concept for Equilibrium Points in Extensive Games, in: International Journal of Game Theory, 4(1), 1975. Einer der Begründer der experimentellen Wirtschaftsforschung in Deutschland.

Teilspiel-Perfektheit: Verfeinerung des Nash-Gleichgewichts durch R. Selten (einziger deutscher Nobelpreisträger der Ökonomie). Das Gleichgewicht muss nicht nur im Spiel als Ganzem, sondern auch in all seinen Teilen bestehen. "Man weiß, was man denkt, aber man weiß nicht, warum man es denkt", Reinhard Selten.

Symmetrisches Gleichgewicht: Die Gleichgewichtsstrategien und Auszahlungen der Spieler sind identisch.

Kooperatives Spiel: Die Spieler können verbindliche Vereinbarungen treffen und sich so gegenüber Dritten oder gegenüber sich selbst glaubhaft festlegen.

Kooperation im Eigeninteresse: Die Kooperation "Wie du mir, so ich dir" ist für beide Seiten positiv (Robert Axelrod). Kooperationsstrategien können sich bei wiederholten Spielen ändern. So kann man die Entwicklung der Moral spieltheoretisch erforschen (Kenneth Binmore). Mit der Zeit kooperieren also auch Egoisten.

Einmalige simultane Spiele: Ein Spiel wird nur einmal durchgeführt, wobei die Akteure ihre Entscheidungen gleichzeitig treffen. Ein Spiel kann auch mehrfach bestritten werden, oder die Akteure treffen ihre Entscheidungen nacheinander (sequentielle Spiele).

Bei sequentiellen Spielen wird besonders der Spielbaum mit Wahrscheinlichkeiten eingesetzt (ist auch aus der Wahrscheinlichkeits-theorie bekannt). Bei der Bewertung der Alternativen spielt das Moral Hazard und das Monitoring eine wichtige Rolle. Gelöst werden sie oft durch die Methode der Backward Induction (gesucht wird die Nash-Strategie für das letzte Teilspiel).

Das Reversal Paradoxon (Umkehr-) macht deutlich, das für einen Wahlausgang entscheidend sein kann, ob eine Wahlalternative entfällt während eines Wahlprozesses. Dies gilt auch, wenn die entfallende Wahlalternative die geringste Präferenz aufweist.

Sehr wichtig ist bei Spielen die Informationsstruktur. Sind jedem Spieler alle Bestandteile des Spiels (Spielerzahl, Auszahlungen, Strategien) bekannt, herrscht vollständige (complete) Information. Konnte jeder Spieler bei jeder seiner Aktionen die bis dahin ausgeführten Aktionen der Gegner beobachten, ist die Information vollkommen (perfect).

Nach der Geschwindigkeit werden statistische und dynamische Spiele unterschieden. Beide können mit vollständiger und unvollständiger Information verbunden werden. Bei beiden können Bayessche Gleichgewichte erreicht werden.

"In einem Nullsummenspiel (zero-sum game) erhält bei jedem Ereignis ein Spieler eine Auszahlung, die der andere Spieler bezahlen muss. Damit addieren sich die Auszahlungen der Spieler immer zu null", Sieg, G.: Spieltheorie, München/ Wien 2005, S. 25.

Minimax-Regel: Sie wurde 1928 von John von Neumann formuliert: Die beste Strategie ist, bei jedem Zug den maximalen Verlust zu minimieren.

Maximin-Theorem: Der Akteur wählt jene Strategie, die ihm das (garantierte) Minimum, das ihm der Gegenspieler nicht nehmen kann, maximiert.

Commitment - Strategie (Aumann/ Schelling, Nobelpreis 2005): Alle Brücken hinter sich abbrechen, um den Verhandlungsgegner glaubhaft zu bedrohen.

Tit for Tat: eine effektive Strategie für das wiederholte Gefangenendilemma. Der Agent folgt seinem Gegner. Wenn der Gegner vorher kooperativ war, ist der Agent auch kooperativ. Wenn nicht, ist der Agent nicht kooperativ. Er kann mit kooperativen Gegnern zusammenarbeiten und unkooperative Gegner angreifen.

Mechanismus-Design (Hurwicz/ Maskin/ Myerson, Nobelpreis 2007): Zwei Kinder streiten sich um ein einziges verbliebenes Stück Kuchen. Lösung: Kind 1 teilt das Kuchenstück in zwei Teile. Anschließend wähle Kind 2 eines der beiden Kuchenteile, das andere behält Kind 1. Vgl. Hehenkamp, B.: Die Grundlagen der Mechanismus-Design-Theorie, in: Wirtschaftsdienst, 11/ 2007, S. 770.

Hochzeitsproblem (Lloyd Shapeley, Wirtschaftsnobelpreis 2012): Taucht beim Globalen Matching auf. Zwei Schemas sollen aufeinander abgebildet werden und dafür muss ein Verfahren gefunden werden. Man hat eine Liste von Männern und Frauen, wobei jeder eine Rangliste von allen Personen des anderen Geschlechts besitzt. Die Personen werden verheiratet, so dass jeder mit einem Partner verheiratet ist, der die höchstmögliche Stellung in der Rangliste hat.

Zukunftsformel: Der Spieltheoretiker Bruce Bueno de Mesquita sagt mit spieltheoretischen Formeln wirtschaftliche und politische Ereignisse voraus. In nahezu 90% der Fälle sollen seine Aussagen eintreffen.

Der Nettere und Integere siegt langfristig: In einer Welt der nicht perfekten Information gibt es eine Strategie der Disinterpretation der Signale. Diese Strategie hat zudem eine rekursive Tendenz und ist häufig mit einem Spiraleffekt verbunden. Zuletzt ist der nettere und integere Spieler am effektivsten.

Brinkmanship-Theorie: Sie beruht auf der Idee, dass ein Akteur den anderen in die Enge treibt, um ihn zu Zugeständnissen zu bewegen.

Griechenlandkrise und Spieltheorie: Der ehemalige griechische Finanzminister Varoufakis hat sich als Universitätsprofessor intensiv mit der Spieltheorie beschäftigt. Er wollte wohl auch spieltheoretisch gegen die Euroländer antreten. Allerdings scheiterte er, weil Grundregeln missachtet wurden. Strategische und psychologische Erwägungen wurden nicht zu einer guten Verhandlungsstrategie kombiniert (Selbstbindung, Delegation). Wichtigste Einsicht für die Zukunft ist, dass die Spielregeln stimmen müssen. Vgl. Ockenfels, Axel: Spieltheorie für Anfänger, in: Wirtschaftswoche 30, 17.07.15, S. 59.

US-Strafzölle und Vergeltungszölle, Handelspolitik: Die Grundstruktur entspricht dem Gefangenendilemma. Zölle bescheren dem Land A den höchsten Gewinn, wenn Land B auf Gegenzölle verzichtet. Erhebt B dagegen Zölle, sinkt der Handelsgewinn von A, und der von B steigt. Allerdings ist der Gesamtgewinn von A und B in dieser Konstellation am geringsten. Den höchsten Gesamtgewinn machen A und B, wenn sie auf Zölle verzichten. Je nach Setzen der Rahenbedingungen sind andere Konstellationen möglich.

"Die Ökonomen haben die Disziplin in eine Art soziale Mathematik verwandelt, in der analytische Schärfe alles und praktische Bedeutung nicht zählt", Mark Blaug, berühmter britischer Wirtschaftshistoriker, über weite Teile der Spieltheorie. 

Zu den Pionieren der Ökonometrie und quantitativen Wirtschaftsanalyse in den Wirtschaftswissenschaften gehört Jan Tinbergen (1903 - 1994). Er erhielt zusammen mit Ragnar Frisch den ersten neu gestifteten Nobelpreis für Ökonomie 1969. Zu seinen Hauptwerken zählt: Statistical Testing of Business Cycle Theories, 1939. Ökonometrie überprüft mit Hilfe statistischer Daten wirtschaftstheoretische Aussagen.

VI. Lernhilfe

Das dargestellte Modell eignet sich auch, um fundamentale  ökonomische Übertragungsmechanismen, die immer wieder vorkommen,  zu lernen und zu üben. Als wichtige Beispiele seien die Zinselastizität der Investitionen, "Crowding-out", Löhne und Arbeitsproduktivität, Zahlungsbilanz-Preiseffekt und der Wechselkursmechanismus genannt. So kann das Modell  durchaus auch mit der Makroökonomik einer offenen Volkswirtschaft interpretiert werden (z. B. Einfluss der Geldpolitik aus dem Ausland bei flexiblen Wechselkursen, etwa USA). In der Einbindung in die Globalisierung liegt zugleich die Schwäche aller nationalen Modelle und ein Weltmodell gibt es noch nicht. Im Hauptstudium bzw. 2. Studienabschnitt arbeite ich überwiegend mit logischen Partial - Kausalmodellen, die jeweils für bestimmte Problemstellungen konstruiert sind. Mit dem obigen Modell  kann man sich auch in die Grundzüge der Spieltheorie einarbeiten. Transfereffekte ergeben sich auch mit der Statistik: Korrelation und Regression sowie Pfadanalyse, zeitabhängige Daten (Prognosetechniken), Fehlermöglichkeiten und Grenzen statistischer Untersuchungen können beispielhaft behandelt werden. Die Übungstheoreme und das empirische Datenraster weiter unten sollten in enger Beziehung gesehen werden: sie bieten eine weitere Vertiefung in einer anderen Logik als die bekannten Lehrbücher (mit den mir zur Verfügung stehenden Ressourcen kann ich das Buch von Mankiw z. B. nicht mehr optimieren, obwohl die Umwelt hier explizit fehlt). Die ganzen hier angebotenen Bausteine sollten als Ergänzung zu Büchern und der Vorlesung genutzt werden.

Die Finanz- und Weltwirtschaftskrise, die von Ökonomen nicht vorhergesagt wurde, zeigt, dass die Modelle und Theorien der Volkswirtschaftslehre grundlegend überarbeitet werden müssen. Nicht ökonomische Motive und psychologische Faktoren (Emotionen) müssen in die Modelle eingebaut werden. Wichtige bisherige Theoriestränge sind unhaltbar.

"Alle Modelle sind falsch. Aber manche sind nützlich", N. N.

 

Experto credite!  P. V. MaroAktuellen Daten sollte man systematisch hinterher eilen (vgl. Internationale Wirtschaft bei Aktuelles)

"Die Ökonomie ist wie ein gigantischer Computer, der die numerische Lösung einer großen Anzahl von Preisgleichungen durch schrittweisen Vergleich errechnet", Wassily Leontief  (Konstrukteur der Input-Output-Analyse, Input-output economics, New York 1986).

"Gerade in wirtschaftlich schwierigen Zeiten sind einigermaßen valide Zahlen unverzichtbar. Allerdings wird die Wirtschaft immer schnelllebiger. Neue Informationen können mittlerweile schnell die Gemengelage verändern", Christoph Schmidt, Vorsitzender des Sachverständigenrats für Wirtschaft, 2019.

Empirisches Lern-Datenraster (Indikatoren, relevante aktuelle Daten, Informationen mit empirischen Quellen), Data collection, (vgl. als Muster Ostasien, Ökonometrie = Einsatz der Statistik in der Ökonomie und ihre Analyse):

Gliederung: Magisches Viereck, Parameter der Finanzmärkte, Schlüsseldaten, Grundtendenzen in der Welt, institutionelle Rahmenbedingungen, empirische Wirtschaftsforschung (mit Prognose), Messung von Wohlstand, Messung der Verteilung, Messung von Wettbewerbsfähigkeit, Messung der Freiheit einer Wirtschaftsordnung Wichtige Indikatoren im (Extra-) Ausland, Spezielle Indikatoren für China und Japan.

"Jeder hat das Recht auf eine eigene Meinung, aber nicht auf eigene Fakten", US-Senator P. Moynihan (1927-2003).

- So sollte man mindestens die Daten zum magischen Viereck (makroökonomische Grundzahlen) der Wirtschaftspolitik für die wichtigsten Länder der Weltwirtschaft parat haben: Wachstumsrate des Bruttoinlandsproduktes (BIP/ Gross domestic product, es ist der Gradmesser für den Erfolg und das Wachstum einer Volkswirtschaft. Die Wachstumsrate des Bruttoinlandsproduktes betrug 2010 in Deutschland 3,6% (höchster Wert seit deutscher Einheit). Für 2011 werden wieder 2,8% erwartet. Im Juni 2011 schrauben mehrere Institute ihre Erwartungen auf 3,7% hoch (im dritten Quartal 2011 +0,5%). Größte Komponente ist der private Konsum mit 58%, die Investitionen umfassen 18%. Der Außenbeitrag liegt bei rund 5%, die Ausgaben des Staates liegen bei 19,5%. Tatsächlich betrug die Wachstumsrate 2011 3,0%. Im letzten Quartal 2012 fällt Europa in die Rezession (Euroraum -0,6% gegenüber dem Vorquartal, auch D; noch stärker im Minus Italien und Portugal). Die Prognose für 2014 liegt bei 1,2 bis 1,5%. Absolut war das BIP 2012 2,6666 Billionen € hoch. Ermittelt wird der Wert (aktuelle Marktpreise, real: Inflationseffekte herausgerechnet) aller Waren und Dienstleistungen, die innerhalb eines Jahres im Inland hergestellt werden. Die Vorleistungen werden von den Endprodukten abgezogen. Unbezahlte Heimarbeit und Schwarzarbeit finden keinen Eingang. Früher wurde Computersoftware als Vorleistung, heute als Investitionsgüter betrachtet. Die Wachstumsraten des BIP werden international nicht einheitlich berechnet, z. B. rechnen die US-Statistiker die Zuwachsraten auf das Jahr hoch (annualisieren). Unterschiede gibt es auch in der Saisonbereinigung. Ende 2010 schlagen die Wirtschaftsweisen in Deutschland und Frankreich neue BIP-Indikatoren vor. Bei der Berechnung sind zwei Methoden am wichtigsten: Die Entstehung und die Verwendung. Die US-Statistiker haben auch einige Tricks auf Lager: Einrechnung des technischen Fortschritts, quadratische Gewichtung in der Inflation, mehr Buchung bei Investitionen (Erhöhung durch Abschreibungen), keine Qualitätsbereinigung bei Bildung, Bankdienstleistungen nicht als Vorleistung sondern Endprodukt. Das Konzept der USA wurde von Simon Kuznets 1937 entwickelt.1942 wurde es in die Praxis umgesetzt (Galbraith berechnete die erste Zahl für Deutschland). Beim Haushaltsstreit 2013 werden die volkswirtschaftlichen Akteure ausgebremst. Die US-Notenbank und die Ministerien können keine Daten mehr erheben. Kreativ gehen auch chinesische Statistiker an die Wachstumsrate. Die Provinzen schönen wie in Zeiten der Planwirtschaft, der Dienstleistungssektor wird unzureichend erfasst. Wahrscheinlich ist die offizielle Wachstumsrate einige Prozentpunkte zu hoch. Berechnet wird vom Bureau of Economic Analysis. 2013 werden einige Methoden geändert: Forschung und Entwicklung nicht mehr als Vorleistung, sondern als Investition betrachtet.  Deutschland ist mit ca. 2489,4 Mrd. € 2008 die drittgrößte Volkswirtschaft der Welt. Davon waren die Konsumausgaben mit 1,4 Bill. € der größte Batzen. Beim Pro-Kopf-Einkommen, einem internationalen Maßstab für Wohlstand, ist Deutschland auf Platz 19 unter 30 OECD-Staaten zurückgefallen. Der Umfang der Schattenwirtschaft liegt bei ca. 350 Mrd. €. Nach der Entstehungsrechnung hatte bei der Wirtschaftsleistung 2010 das stärkste Wachstum das Produzierendes Gewerbe mit 10,3%.  Das Bruttonationaleinkommen (bis 1999 Bruttosozialprodukt) wird im Rahmen der Verwendungs- und Verteilungsrechnung der VGR des StBA ermittelt und dient als Maßstab für den Wohlstand eines Landes. Über die Einkommensströme an die übrige Welt und von der übrigen Welt ist auch eine Berechnung vom Bruttoinlandsprodukt aus möglich (der Unterschied Brutto - Netto beruht auf den Abschreibungen; der Unterschied Marktpreis - Faktorkosten ergibt sich aus den addierten Subventionen minus den indirekten Steuern).  Genauer ist der Net Economic Welfare (-externe Kosten, + private Dienste). Frankreich will zukünftig die Umweltverschmutzung und den Bildungsstand einbeziehen. Das Frankfurter Zentrum für gesellschaftlichen Fortschritt hat einen alternativen Maßstab für Fortschritt entwickelt. Die Schattenwirtschaft (inoffizielle, verborgene Untergrundwirtschaft; illegal oder um Steuern zu vermeiden) wird gesondert von einigen Wirtschaftswissenschaftlern geschätzt. Dazu gehören Nachbarschaftshilfe, Schwarzarbeit, Steuerhinterziehung, Arbeiten ohne Rechnung und  Einkommen aus illegalen Geschäften (Prostitution, Rauschgifthandel). In Deutschland lag der Umfang der Schattenwirtschaft 2010 bei ca. 14,6% (353 Mrd. €) des offiziellen BIP (in Europa ist Griechenland mit 25% Spitzenreiter). 2011 lag der Gesamtumsatz der Schattenwirtschaft darunter mit 343 Mrd. € (13,4%). Grund ist die steigende Beschäftigung (Institut für angewandte Wirtschaftsforschung, Tübingen, IAW). 2013 sinkt die Schattenwirtschaft auf 13,2% des BIP (340 Mrd. €).   Arbeitslosenquote (ALQ/ Unemployment rate: Gliederungszahl mit gemeldeten Arbeitslosen im Zähler und Erwerbspersonen, d. h. Arbeitslose + Erwerbstätige, im Nenner). Zusätzlich werden als Indikatoren für Vollbeschäftigung verwendet die Zahl der offenen Stellen (ungenau, da kostenlose Meldung) und die natürliche Arbeitslosenquote (Höhe der friktionellen AL). Preissteigerungsrate, Handelsbilanz (Exporte, Importe)  für die USA, Japan, und Deutschland (je nach Problembereich auch  für die G9-Länder) sollten bekannt sein. Die Preissteigerung wird mit dem Preisindex für die Lebenshaltung gemessen. Dabei handelt es sich um die Kosten eines festen Warenkorbs (Ergebnis der Verbrauchsstichprobe, EVS) im Vergleich zu den Kosten desselben Warenkorbs in einem Basisjahr (Basisjahr der Vergangenheit, Laspeyres-Index). International nicht einheitlich werden Qualitätsveränderungen bei der Preissteigerung berücksichtigt. Die USA rechnen diese relativ stark ein, so dass bei Qualitätssteigerung, z. B. Rechenleistung eines PC, das Produkt de facto billiger wird (so genannte hedonische Preisindizes). Wegen der hohen Schwankungen der Nahrungs- und Energiepreise werden diese bei der Berechnung der so genannten Kerninflationsrate nicht berücksichtigt. Der Vermögenspreisindex wird vom Finanzdienstleister Flossbach und Storch ermittelt. Er ermittelt die Preisentwicklung von Vermögensgütern deutscher Privathaushalte. Die Gewichtung der Vermögensteile stammt von der Bundesbank. Das größte Gewicht haben Immobilien. Es folgt das Betriebsvermögen.  "Die deutsche Wachstumsrate von 2,2% im zweiten Quartal wäre nach amerikanischer Lesart - also annualisiert beziehungsweise für das Gesamtjahr einfach mit vier multipliziert - rund 9 Prozent", Axel Weber, Präsident der Bundesbank im Herbst 2010.

"Wer unsere Gesellschaften mit Hilfe des BIP lenkt, agiert wie ein Pilot ohne Kompass", J. Stiglitz und A. Sen, Nobelpreisträger.

Börse Kopenhagen,  vom Wasser aus fotografiert 2018. Die Börse wurde 1624 von König Christian IV. eingerichtet. Ursprünglich war sie auch für Schweden und Norwegen zuständig. 1998 bildeten Dänemark und Schweden wieder mit der NOREX einen gemeinsamen Index. Bis ins 19. Jahrhundert war die Börse Warenbörse. Bis 1974 dann Aktienbörse.

- Ebenso sollte man die wichtigsten Parameter der Finanzmärkte  verfolgen: Wechselkurs €/$, Leitzins in der EU (für Hauptrefinanzierungsgeschäfte) und in den USA ("federal funds rate"), Aktienkurse "Dow Jones" (NYSE) und  "DAX"  (für OAI noch "Nikkei" und "Hang Seng" sowie mittlerweile Shanghai-Index mit Shenzhen, die Anfänge gehen auf das Ende der Qing-Dynastie im Jahre 1890 zurück). Als weltweit erste Aktiengesellschaft gilt der schwedische Forst- und Papierkonzern Stora, der schon 1288 Aktien ausgibt. Momentan ist der Bovespa (Brasilien) wegen seiner Wertentwicklung besonders interessant. Er liegt Ende Oktober 2018 bei 85720 Punkten (relativ hoch).  2008 war ein Jahr der Verluste: am größten in Island und der Ukraine. Gewinne gab es nur in Ghana, Ecuador und Tunesien.  In New York war das schlechteste Börsenjahr seit 1931 (Rückgang des Dow Jones um 777,68 Punkte an einem Handelstag, Rekord, am 05.03.2013 erreicht er ein Allzeithoch mit über 14.200, später sogar über 14.500 und über 15.000 im Mai 13). Einbrüche gibt es im August 2015 wegen der schlechten Konjunkturlage in China (am 24.08.15 wieder -3,6%; danach wieder nach oben). Weitere Einbrüche erfolgen zu Beginn des Jahres 2016 (wieder sind die Volatilitäten in China die Auslöser). Die Kurse von Internet-Firmen sind im Februar 2016 besonders vom Einbruch betroffen. Platzt eine Tech-Aktien-Blase? Nach dem Brexit am 23.06.16 fällt auch der Dow Jones zunächst (steigt dann aber um 0,02%). Deutlich bricht der Index nach dem Wahlsieg von Trump ein. In der Folge erreicht er aber dann ein Rekordhoch (über 20.000). Am 05.02.18 bricht der Index massiv um 4,6% ein (-1600 Zähler; Flash Crash: höchster Einbruch seit Bestehen des Index, "Wer höher fliegt, fällt auch tiefer"). Grund dürfte die Sorge um die schneller als vermutet verlaufende Zinswende sein, aber auch eine Überhitzung (Inflationsangst). Manche vermuten eine Manipulation durch Algorithmen von Händlern (Finra untersucht). Nach über hundert Jahren fliegt 2018 GE aus dem US-Leitindex. Microsoft, Apple und Alphabet sind die wertvollsten Unternehmen 2018. Der Dow Jones verliert 2018 -5,6%. Es gibt auch einen MSCI-Welt-Aktienindex. Der Wechselkurs bzw. Devisenkurs setzt 1 € in Relation zu x$. Der Leitzins wird von der Zentralbank festgelegt und bestimmt die Konditionen, zu denen sich Banken kurzfristig Geld bei der Notenbank leihen können. Insofern achten institutionelle Investoren sehr auf diesen Index. Zusätzlich gibt es einen Dow Jones Sustainability Index World (DJSI World). Es sind die 250 nachhaltigsten Unternehmen der Welt (dazu sollen auch Nestle, Johnson&Johnson und Microsoft gehören?). Der Dow-Jones Stammindex schloss 1906 mit 100 Punkten, 1956 mit 500 und war 2006 erstmals über 12.000 Punkte. Im März 2013 geht er sogar erstmals über 14.300 und später über 15.000. Sein Ursprung kann bis zum 17. Mai 1792 zurückverfolgt werden, als das Buttonwood-Abkommen von 24 Börsenmaklern vor dem Haus Wallstreet 68 in NY unterzeichnet wurde. Ursprünglich diente er dazu, die Effizienz des industriellen Sektors in Amerika zu überwachen. Nach dem chaotischen Absturz 2010 ohne erkennbaren Grund werden Regeln gegen Panikreaktionen aufgestellt (Handelsstopp). 70% des täglichen Aktienhandels in den USA gehen auf High-Frequency-Trader zurück. Am 8. Februar 1971 wurde in New York die erste elektronische Börse der Welt gegründet, die NASDAQ (National Association of Securities Dealers Automated Quotation System). Sie ist die größte amerikanische Börse mit über 3200 Firmen. Sie hat die Handelssysteme OTC und Curb Exchange ersetzt. Der Nasdaq 100 enthält die 100 größten Unternehmen. Der Nasda Composite enthält über 3000 Aktiengesellschaften. Die Toronto Stock Exchange (TSE) in Kanada gehört der TMX Group. Der Volatilitäsindex Vix misst die Kursschwankungen des US-Börsenindex S&P 500. Er gilt als Angstbarometer der Aktienmärkte insgesamt. Eine Manipulation des Vix könnte den Februar-Absturz 2018 ausgelöst haben.

 Der DAX setzt sich aus Deutschlands 30 größten und liquidesten börsennotierten Firmen zusammen (Basiswert 1000 1987, umfasst auch Dividenden; Berechnung der Börsenzeitung fortgesetzt). Der Dax-Kursindex kann auch ohne Dividenden berechnet werden und ist so eher mit anderen Indices vergleichbar. 425 Jahre ist Frankfurts Börse alt. Schon 1605 entwickelten Kaufleute Wechselkurse für Währungen (1150 wurde erstmals die Messe Frankfurt erwähnt).  Im Mai 2011 wird der Parketthandel eingestellt. Das Xetra-System bringt es auf mehr als fünf Mrd. Euro. Im September 2018 ordnet die Deutsche Börse den Aktienindex neu: Commerzbank fliegt aus dem DAX. Der M-Dax bekommt zehn Werte mehr als bisher. Der Tec-Dax wird neu zusammengesetzt. Im Februar 2013 erreicht der DAX mit über 8000 ein Fünfjahreshoch (am 14.03. sogar drüber geschlossen). Am 07.05.13 wird ein 25 Jahreshoch erreicht (8200, später über 8500; im Oktober 13 mit über 9000 Rekordwert; dann auf über 9500). Die Krim-Krise und schlechten Daten aus den USA treiben ihn im März 2014 unter 9000. Nach der Europa- und Ukraine-Wahl 2014 wird mit über 9800 ein Allzeit - Hoch erreicht, das nach der Leitzinssenkung auf 0,15% über 10.000 geht. Die Verschärfung einiger Krisen in der Welt und Konjunktureinbrüche treiben den Dax wieder unter 9000 im August 14 und Oktober 14. Nach der Aufgabe der Kursbeschränkung für den Schweizer Franken und der Ankündigung von Anleihekäufen der EZB steigt er wieder weit über 10.000 (neues Verlaufshoch 10.810 am 27.01.15; dann Allzeit - Hoch über 11.000 am 13.02.15 und weiter über 12.000 am 16.03.15). Im April 2017 nach der Frankreichwahl wird wieder ein neues Rekordhoch erreicht mit 12.455. 2014 hat die Ausschüttung an Anteilseigner (Dividende) mit 41,7 Mrd. € einen neuen Rekordwert erreicht. Am 29.06. vor der drohenden Staatspleite Griechenlands erfolgt ein Absturz um fast 500 Punkte (auch die anderen europäischen Börsen FTSE  in London, Ibex in Madrid, CAC in Paris geben nach). Ein weiterer großer Einbruch erfolgt am 24.08.15 nach dem Kurssturz in China (vorübergehend unter 10.000 Punkte). Im September 2015 kommt erstmals eine Immobilienfirma in den Leitindex (Vonovia, ehemals Deutsche Annington). Die Manipulation bei den Abgaswerten von VW drückt den DAX Ende September 2015 insgesamt nach unten (Automobilaktien). Zu Beginn von 2016 sinkt er unter 10.000 durch die Volatilitäten in China. Am 08.02.16 fällt der DAX unter 9000 (-16% seit Jahresbeginn; schlechte Weltkonjunktur; später runter auf 8700, Bankwerte, Anleger fliehen).  Durch den Brexit am 23.06.16 kommt es zwar zu einem Minus des DAX, das aber sehr moderat ausfällt (-0,7%). Ebenso gibt es zunächst ein Minus nach dem Wahlsieg von Trump. Nach dem Beibehalten der Geldpolitik der EZB Ende 2016 erreicht der DAX mit über 11.000 Punkten ein neues Jahreshoch. Am 2. Juni  2017 kommt der DAX auf 12878. Am 12.10.17 überschreitet der DAX kurz die 13.000 Marke; am 16.10.17 schließt er erstmals über 13.000. Im Jahre 2017 ist der DAX um 12,5% gestiegen. Am 05.02.18 bricht der Index um 2,3% ein, sinkt aber nicht unter 12.000. Er folgt dem Dow Jones. Ende 2018 haben die DAX-Konzerne eine Euro-Blase: Einige haben sich bei Übernahmen übernommen. Die Quittung kommt, wenn sich die Konjunktur abschwächt. Im Dezember 2018 bricht der Dax um 3,5% ein nach der Verhaftung der Huawei Finanz-Chefin  (unter 11.000, Zweijahrestief). 2018 war kein gutes Börsenjahr: der DAX sank um über 18%. Nur noch zwei deutsche Konzerne sind unter den Top 100: SAP und Siemens.  Interessant ist in Deutschland auch der NAI (Naturaktienindex; 30 Unternehmen; aber seltsame Zusammenstellung). Ebenfalls für ökologische Geldanlagen gibt es den ÖkoDAX (seit 2007; nur erneuerbare Energien; keine Gewichtung). Sehr aussagefähig ist in Deutschland mittlerweile auch der MDax. Hier sind viele mittelgroße, exportstarke Firmen (50 Unternehmen, 62% der Umsätze im Ausland) vertreten, die gleichzeitig Weltmarktführer sind. Seit Mitte 2012 bis April 2013 ist er um 17 Prozent gewachsen. Der kleine DAX-Bruder SDax ist auch interessant (eingerichtet 1999). Viele Nebenwerte entwickeln sich besser als bei den DAX - Unternehmen. Man braucht allerdings einen längeren Atem. Der TecDAX ist der Nachfolger des Neuen-Markt-Index (NEMAX 50). Hierin sind 30 Technologie-Unternehmen. Die Deutsche Börse will ab 2018 ihre Index-Welt unterhalb des DAX umbauen. Weiterer deutschsprachiger Raum: Die Schweizer Indizes SMI (Swiss Market Index) und SLI (Swiss Leader Index). Der SMI bildet die Kursentwicklung der 20 größten Schweizer Unternehmen ab (reiner Kursindex ohne Dividenden). Allerdings werden Nestle, Novartis und Roche zu stark gewichtet. Insofern ist der SLI aussagefähiger (seit 2007; 20 große, 10 mittelgroße Unternehmen; geringere Gewichtung der drei großen). Der österreichische Leitindex heißt ATX (Austrian Traded Index). Hier sind 20 Unternehmen eingerechnet. Im CECE Composite Index in EUR sind die Leitindizes von drei osteuropäischen Ländern zusammengefasst: Der ungarische HTX, der tschechische CTX und der polnische PTX. Weiterhin gibt es Branchenindizes des Stoxx Europe 600. Es handelt sich um reine Kursindizes. Für die ganze Europäische Union gibt es Euronext: Euronext hat Zentralen in Amsterdam, Brüssel, Lissabon, London und Paris. Interessant ist auch das Angstbarometer VDAX. Es misst Kursturbulenzen beim DAX. Im Februar 2018 wurden 40% erreicht, den höchsten Stand seit 2011 (das wäre umgerechnet ein erwarteter Rückung um 1400 Punkte). Der VDAX ist besser gegen Manipulationen abgesichert als der Vix in den USA.

Der Hang Seng Index (H-Index) hat seinen Namen von Hongkongs Hang Seng Bank, die den Index 1969 ins Leben rief (chinesisch, "stets wachsend"). Der Hang-Seng hatte 2017 einen Rekordzuwachs (wie seit 2007 nicht mehr, +36%). Mittlerweile ist auch der CSI-300 in Shanghai (zusammen mit dem Component Index in Schenzhen) etabliert. Ein Index in für die Börse in Tianjin wird noch eingerichtet.  2014 legt er um 50% zu (nach dem Verbot bestimmter Finanzprodukte sackt er am 17.01.15 um 7% ab). In der Folge fällt er sehr stark (bis zu 8%; Blase platzt; Regierung nimmt Unternehmen aus dem Index). Weiterer Einbruch am 21.08.2015 um 8,5% (Sechsjahrestief; am 24.08. auch andere Weltbörsen im Abwärtstrend). Weitere Einbrüche folgen Anfang 2016 (Rückgang der Industrieproduktion). 2017 endet der CSI unweit seines Jahreshochs. Am 05.02.18 gibt er stark nach infolge des Absturzes des Dow Jones, der Trend hält eine Zeitlang an. Der Nikkei wird von der Wirtschaftszeitung Neihon Keizai Shimbum veröffentlicht und misst die Wertentwicklung der  225 wichtigsten Aktien an der Börse von Tokio (1950 eingeführt). 2015 fällt der Nikkei infolge der Euro-Krise und dem Einbruch des chinesischen Aktienmarktes. Zuletzt stark am 24.08.15. Weitere Rückgänge gibt es zu Beginn von 2016 und nach dem Brexit, ebenso nach dem Wahlsieg von Trump. 2017 liegt der Nikkei gut 19% zu. Am 05.02.18 gibt der Nikkei stark nach infolge des Absturzes des Dow Jones.  Die Talfahrt hält vorerst an. Ende 2018 kommt es noch mal zu einem Absturz um 2.8% (Zinserhöhung der Fed). Im Jahre 2018 stürzt der Nikkei um 12,1% ab.  Die älteste Börse in Asien ist die in Mumbai/ Indien. Sie geht 2017 an die Börse. Immer interessanter wird das Marktbarometer der indonesischen Börse der Jakarta - Composite - Index (402 Aktien, seit 1982). Für Asien insgesamt gibt es den Stoxx 600 Asia/ Pacific. 2014 öffnet Saudi-Arabien seine Börse für große Anleger aus dem Westen. Saudi-Arabiens Leitindex heißt Tadawul. Vorher hatte sich schon Dubai geöffnet. Hier gibt es den DFM General Index. In Griechenland heißt der Leitindex ASE. Griechenlands Börse wurde 1876 gegründet. Sie ist mittlerweile in privater Hand. 230 Unternehmen sind dort 2015 notiert. Der Wert aller Aktien liegt im August 2015 bei etwa 40 Mrd. € (allein die Deutsche Bank ist wertvoller). Am 03.08.15, als die Börse nach fünf Wochen wieder öffnet, wird er schwer gebeutelt (-16%, am Folgetag noch -4 %; viele Firmen wandern aus).  Die älteste Aktienbörse ist die Amsterdamer Börse von 1602. Der wertvollste Konzern in der Wirtschaftsgeschichte nach dem Aktienwert ist bisher Apple. Nobelpreisträger Shiller aus den USA eine eine spezielle Formel für die Bewertung von Aktien entwickelt auf Basis des Kurs-Gewinn-Verhältnisses (KGV). Ein KGV berechnet sich aus dem Börsenwert eine Unternehmens geteilt durch seinen (erwarteten) Jahresgewinn. Er soll Über- und Unterbewertungen signalisieren. Weitere Indikatoren für die Lage an den Finanzmärkten sind die folgenden: Renditedifferenz. Die Zinsdifferenzkurve zeigt die Differenz zwischen der Rendite kurz laufender und lang laufender Anleihen. Investoren orientieren sich dabei an US-Staatsanleihen mit zwei und zehn Jahren Laufzeit. Wertpapierkredite. Kaufen Anleger Wertpapiere zunehmend auf Pump, signalisiert das eine höhere Spekulationsneigung. Kurs-Buchwert-Verhältnis. Das Kurs-Buchwert-Verhältnis (KBV) zeigt, wie teuer ein Unternehmen an der Börse relativ zu seinem Buchwert oder Eigenkapital ist. Hinzu kommen die Anlegerstimmung, die Volatilität und die Marktbreite.

Wichtig sind auch die Indikatoren der Geldpolitik: Die Geldmenge M1 umfasst den Bargeldumlauf sowie täglich fällige Sichteinlagen. Er gilt als zuverlässiger monetärer Frühindikator. Die Zinsstruktur misst die Differenz zwischen den langfristigen und den kurzfristigen Zinsen.  Klettern die kurzfristigen über die langfristigen Zinsen spricht man von einer inversen Zinsstruktur, was auf das Ende einer Rezession hindeutet. Das Zentrum für Europäische Politik (CEP) hat einen Default-Index entwickelt, der die Fähigkeit eines Landes misst, Auslandskredite zurückzuzahlen. Mittlerweile gibt es einen Glaubwürdigkeitsindex, der die Reputation von Notenbanken misst. Der Ruf von Fed und EZB hat danach 2017 gelitten (Quelle: Bloomberg, DZ Bank).

2015 wird ein neuer Index für den Stress an den Finanzmärkten (WSSI) entwickelt. Konstrukteur ist das Institut für Kapitalmarktanalyse (IFK) in Köln. Experten des IFK prüfen weltweit 6500 finanzielle und konjunkturelle Indikatoren, darunter Aktien-, Währungs-, und Rohstoffkurse sowie Zinsen auf Staats- und Unternehmensanleihen. Im März 2017 lassen Protektionismus, Brexit und Rechtspopulismus die Nervosität an den internationalen Finanzmärkten steigen (der WSSI steigt merklich).

- Genauso sollte man für die wichtigsten Länder die Schlüsseldaten wie Bevölkerung und Höhe des BIP und das Pro-Kopf-Einkommen nennen können (wichtig können für spezielle Fragestellungen auch die Analphabetenrate und die Sparquote sein).

- Bei einigen Themen sollte man die Grundtendenzen in der Welt im Umriss erahnen können: Verschuldung (Haushaltsdefizit: Neuverschuldung bezogen auf das BIP pro Jahr x 100; Gesamtverschuldung; auch Euro-Konvergenzkriterien von 3,0% und 60%); Staatsquote: Verhältnis der staatlichen Ausgaben zum BIP (R. Barro fand keinen Zusammenhang mit dem Wirtschaftswachstum; setzt sich aus vielem zusammen, nicht einheitlich definiert, z. B. Sozialversicherung, Wohlfahrtseffekte der Ausgaben?).  Konjunktur (Boom, Rezession, Stagnation); Inflation (gemessen durch die Preissteigerung am Preisindex für die Lebenshaltung: hier werden laufend die Kosten eines bestimmten Warenkorbes, der eine repräsentative Güterauswahl enthält, ermittelt, die Basisperiode ergibt sich aus dem Jahr der EVS-Stichprobe). Die Inflation steht in engem Bezug zur Geldmenge:M1=Bargeldumlauf und gängiger Geldmengenbegriff, M2=M1 + Einlagen mit Laufzeit bis 2 Jahren und Kündigungsfrist von bis 3 Monate, M3=M2 + Geldmarktfonds, Geldmarktpapiere und Bankschuldverschreibungen.  Welthandel (Exporte, Importe), Welt -BIP, Direktinvestitionen (Beteiligung, Erwerb oder Bau von Produktionsstätten im Ausland), Energie/Umwelt.

- Einige institutionelle Rahmenbedingungen sollten bekannt sein: Wirtschaftsordnung (Art der Marktwirtschaft: frei, gelenkt; welches Grundmodell?), Zentralbankstatus (abhängig, unabhängig; Bank der Banken: kontrolliert die Höhe der Mindestreserven und des Zinses), politisches System (z. B. Demokratie, Diktatur), Kultur (individualistisch, kollektivistisch), Geschichte (Tradition), Wirtschaftsstruktur (z. B. Anteil tertiärer Sektor), Integration in die Weltwirtschaftsordnung (Mitglied WTO, IWF, G8).

- Es sollte auch bekannt sein, aus welchen Quellen der empirischen Wirtschaftsforschung die Daten stammen. In Deutschland legt im Januar eines jeden Jahres die Bundesregierung den Jahreswirtschaftsbericht vor (z. B. Prognose für  2011: Wirtschaftswachstum +2,25; Haushaltssaldo -2,5%; Arbeitslosenquote +7%). Für 2013 prognostiziert das Bundeswirtschaftsministerium 0,4% Wachstum des BIP. So kommt es dann auch exakt. Für 2014 werden 1,8% Wachstum erwartet (2015 2,0%). 2016 rechnet die Bundesregierung mit einem Wirtschaftswachstum von 1,7% (tatsächlich 1,9%). Das Konsumklima ist stabil. Für 2017 werden 1,4% Wirtschaftswachstum erwartet. Im Jahreswirtschaftsbericht 2019 schraubt die Regierung ihre Wachstumsprognose für 2019 auf 1,0% herunter. Im Frühjahr und Herbst eines jeden Jahres geben die Wirtschaftsforschungsinstitute (seit 1950, 8 Institute seit 2007, 2013 soll das DIW, Berlin, das IfW in Kiel ablösen), ein Gemeinschafts-Gutachten heraus. In der Gemeinschaftsprognose der acht Institute im April 2011 wird ein Wachstum von 2,8%, eine Inflationsrate von 2,4% und eine Arbeitslosenzahl von 2,89 Mio. für 2011 vorausgesagt. Im Herbstgutachten 2011 wird 2012 nur noch ein Wachstum von 0,8% gesehen (Arbeitslose 2,8 Mio., Preise +1,8%, HH-Defizit -0,6%). Das Herbstgutachten 2012 der Institute für die Bundesregierung erwartet für 2013 nur noch ein Wachstum von 1 Prozent. Die Inflationsrate wird bei 2,1% gesehen. Im Frühjahresgutachten wird nur ein Wachstum von 0,8% erwartet (2014 1,9%). Andere Daten werden wie folgt gesehen: Arbeitslose 2,87 (2,72), Anstieg der Verbraucherpreise 1,7 (2,0). Im Herbstgutachten 2013 wird ein schwacher Aufschwung 2014 erwartet (1,8%; 2013 0,4%). Etwa 33 Mrd. € stehen bis 2018 für Schuldenabbau, gerechteres Steuersystem und Investitionen zur Verfügung. Im Frühjahrsgutachten im April 2014 werden die geplanten Sozialleistungen und der Mindestlohn kritisiert. Im Herbstgutachten 2014 der Institute wird konstatiert, dass die Regierungspolitik (Rentenpaket, Mindestlohn) Arbeitsplätze kostet. Im Frühjahrsgutachten 2015 wird ein Wirtschaftswachstum für 2015 von 2,1% prognostiziert (von 1,2% erhöht; 2016 1,8%). Die Zahl der Erwerbstätigen soll auf 43,01 (2016: 43,24) steigen (2,72 Mio. AL). Im Herbstgutachten 2015 sehen die Institute gute Aussichten für die Konjunktur in Deutschland (1,8% Wachstum 2015 und 2016 wegen der großen Kauffreude).  Die zuletzt enttäuschenden Exportzahlen könnten diese Prognose noch durcheinander bringen. Im Frühjahresgutachten wird die Prognose für 2016 revidiert (nur noch 1,6%; Inflation 0,5%; ALQ 6,2%). Im Herbstgutachten 2016 wird die Prognose des BIP-Wachstums für das laufende Jahr auf 1,9% angehoben (Staatskonsum, Verbraucher). Im Frühjahrsgutachten 2017 erwarten die Forscher 1,5% Wachstum 2017. Sie sehen Risiken durch den möglichen Handelskrieg mit den USA. Im Herbst 2017 heben sie die Wachstumsprognose an: 1,9% (2018: 2,0%, 2019: 1,8%; ALQ ). Sie mahnen Änderungen in der Abgabenpolitik an. Im September 2018 (Herbstgutachten) wird die Wachstumsprognose für 2018 gesenkt (auf 1,7%). Im Frühjahr 2019 senkt man sie weiter auf 0,8% (wenn harter Brexit, noch weiter runter). Auch für 2019 wird man pessimistischer (Handelskonflikt, Brexit, Schulden Italiens; deshalb 1,9%; 2020 1,8%). Im Spätherbst erscheint jährlich das Gutachten des Sachverständigenrates für Wirtschaft (seit 1963, Vorsitzender 2013 Christoph M. Schmidt, RWI-Essen; werden auch die "Fünf Weisen" genannt, Lars Feld, Walter-Eucken-Institut Freiburg; Peter Bofinger, Würzburg; Claudia M. Buch; Volker Wieland ). Im neuen Gutachten 2011 wird für 2012 ein Wachstum von 0,9% (2011: 3,0%) erwartet. Die Arbeitslosigkeit soll 2012 im Schnitt bei 2,89 Mio. liegen (6,9%). An Inflation wird 2012 1,9% erwartet. Es wird ein Euro-Tilgungsfonds empfohlen. Im Gutachten 2012 gibt es Kritik an den jüngsten Regierungsbeschlüssen (Abschaffung Praxisgebühr, Zuschussrente, Betreuungsgeld). Es wird von den "Fünf Weisen" eine bessere Konsolidierung des Haushalts gefordert. Reformen werden bei der Unternehmensbesteuerung und der Ökostromförderung angemahnt. Das Wachstum soll 2013 0,8% betragen.  Im Gutachten 2013 warnen die "Fünf Weisen" vor Mindestlohn und Mietbremse. 2014 prognostizieren sie ein Wirtschaftswachstum von 1,6%. Die Zahl der Erwerbstätigen soll auf den Rekordwert von 42,1 Mio. steigen. Die Arbeitslosenquote wird knapp unter 7% liegen (2,95 Mio. AL). Im Gutachten des SRW 2014 wird der Regierung die Verantwortung für die schwache Konjunktur gegeben. Für 2014 wird ein moderates Wachstum des BIP von 1,2 Prozent erwartet (von 1,9% herunterkorrigiert). Das Jahresgutachten 2015 sagt für 2016 Folgendes: Wirtschaftswachstum 1,6%; Arbeitslose 6,6%; Preise +1,2%; Überschuss Staatskasse 0,2%. Im Jahresgutachten 2016 sprechen sich die Weisen für ein späteres Renteneintrittsalter und die Ausweitung des Niedriglohnsektors aus. Die Wirtschaftsweisen erhöhen im März 2017 ihre Wachstumsprognosen: 2017 1,4%; 2018 1,6%. Im Haupt-Gutachten im Herbst 2017 erhöhen sie die Prognose für 2018 auf 2,2%. Der Soli sollte Schritt für Schritt abgeschafft werden. Die Situation der Gemeinden sollte verbessert werden. Im Herbstgutachten 2018 senken die Wirtschaftsforscher die Prognose für 2018 deutlich (von 2,3 auf 1,6%). Die Abkühlung der Weltkonjunktur und der spürbare Fachkräftemangel gehen an der deutschen Wirtschaft nicht spurlos vorbei (2019: 1,5%). Die Arbeitslosigkeit geht aber weiter zurück und die Inflation steigt. Die Frankfurter Allgemeine Zeitung (F.A.Z.) erstellt regelmäßig monatlich einen Konjunkturbericht Deutschland. Am Ende eines Jahres führt das IW (Institut der deutschen Wirtschaft) im Auftrag des BDI bei den Industriebranchen eine Umfrage über die Wirtschaftsaussichten im nächsten Jahr durch. 2013 rechen für 2014  26 von 48 Wirtschaftsverbänden mit einer positiven Entwicklung (vor allem im Bau, 5 Mrd. € im Koalitionsvertrag). Ein großes Beschäftigungsplus wird nicht erwartet. Die Verbandsumfrage 2014 für 2015 zeigt eine leicht positive Stimmung.  Das Finanzministerium gibt einen Finanzbericht heraus, der viele internationale Übersichten enthält. Alle zwei Jahre gibt es den Subventionsbericht der Bundesregierung. Die EU kritisiert hier, dass die Empfänger in der Landwirtschaft nicht genannt werden. Vergleichbare Institutionen gibt es auch in den USA und Japan. Alle genannten Institutionen sind bei den Links vertreten. Von 2005 bis 2008 fährt der Bund seine Subventionen um 2 Mrd. € zurück. Darüber hinaus gibt es noch andere - zum Teil private - Institute, die Indikatoren erstellen: Das Marktforschungsunternehmen GfK konstruiert den Konsumklimaindex. Dies geschieht seit 1980 (2000 Verbraucher, 600 Interviewer, alle Ausgaben der privaten Haushalte, drei Teile: Anschaffungsneigung, Einkommenserwartung, Konjunkturerwartung). 2014 wird eine Revision des Indikators in Angriff genommen. Gesamtwirtschaftliche Aspekte wie Preiserwartungen und Arbeitslosigkeit spielen heute eine größere Rolle. Die GfK ist nicht mehr unabhängig. Sie wird von Investor KKR dominiert und umgebaut.  Im März 2011 steigt der Index auf den höchsten Stand (6,0) in Deutschland seit 2007, weil die Verbraucher mit höheren Einkommen rechnen. Er fällt danach langsam wieder (auf 5,2 im September 2011, am positivsten ist die Einkommenserwartung). Im Februar 2013 steigt der Index auf den höchsten Wert seit November 2012. Ende 2013 steigt das Barometer sogar auf 7,4 Punkte (niedrige Zinsen, Kauflaune). Das ist der höchste Wert seit August 2007. Ende Januar steigt der Index sogar auf 8,2 (Lohnerwartung, Zuversicht); im Februar auf 8,5. Im Juli 2014 erreicht er 8,9 und damit den höchsten Stand seit sieben Jahren (Schub durch niedrige Zinsen). Im August steigt er noch mal auf 9,0. Sogar Ende des Jahres 2014 ist er noch hoch wegen des niedrigen Ölpreises. Ende Januar 2015 erreicht er den höchsten Stand seit 2001. Im April werden 10,0 erwartet. Laut dem GfK-Index Ende 2015 dürfte der Private Konsum auch 2016 eine Stütze der Konjunktur bleiben. Der Index steigt sogar noch leicht an zu Beginn von 2016. Im Herbst 2016 sinkt er nach dem Brexit und dem Terror. Im Mai 2017 steigt der Index überraschend stark an (so gut wie seit 2001 nicht). Er erhöht sich dann im Juni 17 noch mal. Für Februar/ März 2018 sinkt der Index (Regierungsbildung, Börsenturbulenz, US-Handelshemmnisse). 2018 insgesamt bleibt das Konsumklima stabil auf hohem Niveau. Es steigt die Bereitschaft zu teueren Anschaffungen. Im April 2019 geht der Index gegenüber dem 1. Quartal wieder nach oben (stabiler Arbeitsmarkt, Rentenerhöhung). Im Juli 2019 sinkt der Index um 0,3 Zähler (9,8: tiefster Stand seit April 2017). Seit 2010 gibt es einen Frühindikator für die Ausgaben der privaten Verbraucher. Er wird am DIW in Berlin erstellt. Datengrundlage sind die monatlichen Umfragen der EU-Kommission (Dreger, C./ Kholodilin, K.: Forecasting Private Consumption by Consumer Surveys, DIW, Berlin Sept. 2010). Das RWI in Essen berechnet den Konsumindikator. Er besteht aus 41 Kategorien, die für private Konsumausgaben besonders relevant erscheinen.  Das RWI veröffentlicht seit 2011 alle drei Monate einen aktualisierten Indikator. Grundlage sind Google-Daten. Das Handelsblatt Research Institute veröffentlicht den HDE-Konsumbarometer. Es besteht aus sechs Fragen an repräsentativ ausgewählte Konsumenten. Erhoben werden Konsum- und Sparneigung. Das Ifo - Institut in München berechnet das Geschäftsklima. Es ist wohl der wichtigste Frühindikator in Deutschland. Jeden Monat werden 7000 Unternehmen aus dem Verarbeitenden Gewerbe, Bau, Groß- und Einzelhandel über die aktuelle Geschäftslage und die Perspektiven für die nächsten sechs Monate befragt. Den Index gibt es seit 1969 (erste Umfrage 1949; dadurch lange Reihen möglich).  Dieser erreicht im Januar 2011 mit 110,3 den höchsten Wert seit der Wiedervereinigung. Im November 2011 steigt er überraschend wieder an. Im Januar 2013 kündigt er einen Konjunkturaufschwung an. Im September 2013 steigt er zum fünften Mal in Folge. Im Januar 2014 erreicht er sogar 110,6. Im Juli 2014 sinkt der Index auf 108,0 (Konflikte in Gaza und der Ukraine). Im Herbst 2014 sinkt der Index weiter (Exportindustrie leidet aufgrund der Krisen). Ende Oktober 14 fällt er auf den tiefsten Stand seit Ende 2012. Im November 2014 geht er wieder nach oben. Ende März erreicht er den höchsten Stand seit Juli 2014. In den ersten 5 Monaten 2015 sinkt der Index leicht. Im Mai 2017 steigt der Index auf einen Rekordwert (Erleichterung nach Macrons Wahlsieg). Im April 2018 sinkt der Index im fünften Monat in Folge. Eine Rezession wird aber nicht erwartet. Trumponomics zeigt aber Wirkung. Im August 2018 steigt der Indes deutlich ("Waffenstillstand" mit Trump). Im November 2018 sinkt der Index auf 6,6 ab (von 19,6; Sorgen um Italiens Staatsschulden, Euro-Konjunktur). Im Februar 2019 sinkt er weiter ab (Brexit, Handelsstreit mit USA, weltweite Konjunkturflaute). Im März 2019 steigt der Index überraschend wieder an. Im Mai sinkt der Index weiter ab (97,9 von 99,2 im April). Das Ifo-Institut berechnet für das Handelsblatt auch das Ifo-Beschäftigungsklima (darin auch Exportklima-Index). Es handelt sich um Erwartungen von 9500 repräsentativ ausgewählten Unternehmen. Sie werden nach Planungen für die nächsten drei Monate befragt. Zu Beginn 2015 klettert es auf den höchsten Stand seit drei Jahren. Zu Beginn 2016 ist das Exportklima eher mau. Am Anfang 2017 sinkt der Index deutlich. Die Banken sehen Trump als Grund. Nach der Frankreichwahl im April 2017, die Macron gewinnt, wird der höchste Stand seit sechs Jahren erreicht (112,9). Im November 2017 steigt das Exportklima auf den höchsten Stand seit über zehn Jahren. Zusammen mit dem IAB-Arbeitsmarktbarometer indiziert es den deutschen Arbeitsmarkt in der Konjunktur.  Der Arbeitsmarkt ist eher Spätindikatoren für die Konjunktur. Der DIHK macht regelmäßig Umfragen (z. B. im Frühsommer). Die Commerzbank berechnet den Earlybird-Frühindikator für die Wirtschaftswoche. Er wurde Anfang 2000 entwickelt. Der Indikator soll früher als alle anderen Alarm schlagen. Er misst  den Kurs der Geldpolitik anhand des kurzfristigen Realzinses. Er ergibt sich aus der Differenz des Nominalzinses für Kredite mit dreimonatiger Laufzeit am Interbankenmarkt (Euribor) und dem Durchschnitt der Kernteuerungsraten (ohne Energie und Steuern). Auch die Auslandskonjunktur geht durch den Welteinkommensmagerindex mit ein (Gewicht 25%). Z. B. Januar 2010 mit 2,05 Punkte höchsten Stand seit 20 Jahren. Im Juni 2015 legt der Frühindikator deutlich zu (wieder 2,0). Im Februar 2016 rutscht der Index nach langer Zeit wieder ins Minus.  Seit 2011 arbeitet das Institut für Wirtschaftsforschung Halle (IWH) mit einem Flash-Frühindikator, der die Wirtschaftsleistung im laufenden und folgenden Quartal einschätzt. Der Bundesverband Materialwirtschaft, Einkauf und Logistik (BME) lässt den Einkaufsmanagerindex (EMI) ermitteln. Sein Vorteil ist die internationale Vergleichbarkeit. Er kommt ursprünglich aus Großbritannien. Er orientiert sich methodisch am 80 Jahre alten amerikanischen Index (ISM, Frühindikator der US-Konjunktur und Gradmesser für die gesamte Weltwirtschaft). Im Juni 2014 liegt er bei 52,4. Im Frühjahr 2015 ist er sehr positiv in der Euro-Zone und deutet auf Wachstumsschub hin. Im Oktober 2018 indiziert er, dass Europas Wirtschaft schwächelt. Bei diesen Projekten handelt es sich eher um Frühindikatoren. Etabliert und eine der ältesten Früh- Indikatoren ist der Auftragseingang, gemessen vom Statistischen Bundesamt. Hier gehen die Auftragseingänge der Industrie ein. Diese sind im August 2014 (5,7% gegenüber Juli 2014) so stark eingebrochen wie seit 5 Jahren nicht mehr. Neu ist die Mautstatistik. Sie kann als Frühindikator für die Konjunktur benutzt werden. Allerdings ist die Korrelation mit den anderen Frühindikatoren nicht besonders hoch. Neu ist auch die Nutzung der "Schwarmintelligenz" in der Konjunkturforschung. Es handelt sich um eine Konjunkturbörse, die auf die Einschätzung vieler Studenten im schnellen Internet setzt. Man spricht auch von Konjunkturschwarm. Speziell für den sozialen Bereich wird ein Sozialbericht erstellt vom Arbeitsministerium. 2009 fließen wegen der Wirtschaftskrise 754 € in Sozialausgaben (gut ein Drittel des Nationaleinkommens).

Die EU arbeitet mit eigenen Indices, in denen auch Werte für Deutschland ermittelt werden. Die EU-Kommission erhebt einen Index, der die konjunkturelle Entwicklung misst für die Eurozone und die gesamte EU. Daneben wird die Wirtschaftsstimmung und das Geschäftsklima (Auftragslage, Exportaufträge, Produktionstrends) in Indices gemessen.

Die OECD will einen Glücksindex ermitteln. Dieser soll ein Maßstab für Wohlbefinden sein. Der Vorschlag dazu geht auf einen Forschungsbericht von Joseph Stiglitz und A. Sen zurück. Vorher entstand ein solcher Index in Bhutan (Bhutan-Entwicklungs-Index, "Bruttonationalglück"). Auch in Deutschland beschäftigt sich eine Bundestagskommission mit der Frage. Die OECD arbeitet mit den Kriterien Wohnsituation, Einkommen, Arbeit, soziale Bindungen, Umwelt, Gesundheit, Verbindung von Privat- und Berufsleben. Jedes Jahr wird in Deutschland ein Glücksatlas ermittelt. Das Fach "Glück" gibt es auch als Schulfach. Zuerst in Heidelberg. Mittlerweile in 100 Schulen in Deutschland und Österreich. Glück wird als Selbst- und Kulturtechnik gelernt. Es ist auch Fach an den Universitäten Münster und München.

- Prognose: Das BIP wird jährlich und für Quartale prognostiziert. Kurzfristige Quartalsprognosen gibt es vom Statistischen Bundesamt (StBA, sechs Wochen nach Ende eines Quartals für das nächste) und von Barclays - Handelsblatt (sofort im laufenden Quartal vor dem StBA). Im Herbst 2009 wird eine Prognosebörse der Konjunktur eingerichtet (Handelsblatt, IW, TH Karlsruhe). Diese Prognosebörse EIX sagt Konjunkturdaten relativ gut voraus. Gut ist auch die Bloomberg-Umfrage unter Bankvolkswirten. Das ZEW in Mannheim ermittelt den ZEW-Konjunkturindex für mittelfristige Konjunkturerwartungen, der monatlich herausgegeben wird. Da er Finanzanalysten und institutionelle Anleger befragt (ca. 260), ist er eher ein Stimmungsbarometer für die Finanzmärkte (korreliert hoch mit der Entwicklung der wichtigsten Aktienindices; Trends bei Zinsen, Wechselkursen und Börsenindices).  Seit der Finanzkrise 2008 sinkt die Prognosekraft. Mitte 2014 steht der Index so tief wie seit Dezember 2012 nicht mehr. Achter Rückgang in Folge. Im Oktober 2017 legt der Index stark zu. Das Risiko der Überhitzung wird gering eingeschätzt. Im Januar 2018 steigt der Index so stark wie nie.  Prognostiziert werden auch die Steuereinnahmen von einem Arbeitskreis "Steuerschätzungen" (seit 1955). Unter Federführung des Bundesfinanzministerium treten 35 Fachleute zusammen (Wirtschaftsforscher, Statistisches Bundesamt, Deutsche Bundesbank, SRW, Länderfinanzministerien, Kommunale Spitzenverbände). Grundlage der Schätzung sind die Eckdaten der Bundesregierung. Für jede Einzelsteuer errechnen die Arbeitskreismitglieder Prognosen. Als nächstes werden die auf Bund, Länder und Gemeinden sowie die EU entfallenden Steuern ermittelt. Nach der Prognose des Arbeitskreises "Steuerschätzungen Ende 2013 werden in den kommenden Jahren die Steuereinnahmen kontinuierlich ansteigen. Im Jahre 2018 wird das 2012 erzielte Aufkommen um 131,5 Mrd. € überschritten. Die Steuerquote wird merklich zunehmen (inflations- und progressionsbedingt). Die Steuerschätzung 2014 geht von einem Plus bei den Steuern von 19,1 Mrd. € bis 2018 aus. Die Steuerschätzung 2015 rechnet für 2016 mit einem Minus von etwa 3 Mrd. €. 2016 gibt es fünf Milliarden Euro mehr für den Staat. Die Steuerschätzung 2016 rechnet für die nächsten Jahre mit höheren Einnahmen: 2016 696 Mrd. €, 2021 836 Mrd. €. Der AK "Steuerschätzung revidiert im November 2017 seine Prognose für 2017 vom Mai: Es werden 734,2 Mrd. € erwartet, 1,8 Mrd. mehr. Für 2022 lautet die Prognose 889 Mrd. €. In der Steuerschätzung 2018 erhöhen die Steuerschätzer ihre Prognose für 2018 (775,3 Mrd. €). Die Steuerschätzung 2019 (Mai) sagt in den nächsten fünf Jahren zurückgehende Steuereinnahmen voraus. Auch die Bundesregierung selbst erstellt jährlich eine Frühjahrsprognose. 2010 sieht die Regierung ein Ende der Krise und ein kleines Job-Wunder. Für 2011 wird mit 2,6% Wachstum (2012 1,8%) gerechnet. In der Schätzung im Herbst 2011 werden für den Gesamtstaat 16,2 Mrd. € mehr Steuern erwartet. Im April 2015 wird für 2015 und 2016 ein Wirtschaftswachstum von 1,8% erwartet. Trotz des ungelösten Handelskonflikts mit der USA rechnet die Bundesregierung 2018 mit dem kräftigsten Wirtschaftswachstum seit 2011. Es werden 2,3% erwartet (2019 2,1%). Das Plus kommt durch höhere Konsumausgaben, Exporte und den Bauboom. Konjunkturprognosenprognosen werden auch von der OECD erstellt. "Meide den, der behauptet, sowohl "was" als auch "wann" vorherzusagen", Michael Burda, Ökonom, Humboldt-Uni Berlin. Mittlerweile wird versucht, mithilfe von Internetsuchanfragen die Konjunkturprognosen zu verfeinern. Googlemetrics wird diese neue Disziplin genannt. Für Prognosen gilt: Je größer die Zielscheibe, desto besser die Schützen.

Die Prognose ist eines der schwierigsten Gebiete der empirischen Wirtschaftsforschung. Im langfristigen Durchschnitt bewegen sich die Fehler bei Konjunkturprognosen in einer Größe von mehr als einem Prozentpunkt. Die "Wirtschaftsweisen" irrten sich im Schnitt um 1,22 Prozentpunkte. Für 2013 lieferte die Deutsche Bundesbank die treffsichere Prognose (Wachstum 0,4%, Inflation 0,5%). Die Wirtschaftsforschungsinstitute, die EU-Kommission und die Banken hatten das Nachsehen. Exakte Prognosen sind im Bereich der Bevölkerung und der Ernte möglich. In der Regel sind Prognosen bedingt, d. h. sie treffen nur zu, wenn bestimmte angenommene Rahmenbedingungen eintreten. In der Statistik wird normalerweise die Trendextrapolation mit Hilfe der linearen Regression gelehrt. Im 17. Jahrhundert schrieb der Wissenschaftler Robert Boyle eine so genannte Wunschliste der Zukunft. Die meisten Vorhersagen wurden war: Krankheiten durch Transplantation heilen, fliegen können, geographische Breiten finden (Navi) und ein Schiff, das mit allen Winden segelt (Motorschiff). Konjunkturprognosen scheitern oft an einschneidenden Ereignissen (Krisen, Kriegen, Naturkatastrophen). Konjunkturprognosen werden sinnvollerweise auf der Grundlage saisonbereinigter Daten erstellt. Extreme Wetterlagen werden aber nicht richtig berücksichtigt. Oft werden Prognosen als bedingte Prognosen ausgeführt (verschiedene Annahmen), was zu verschiedenen Szenarien führt. Eine immer größere Rolle spielen politische Krisen in Prognosen. Sie gehören zu den Bedingungen, die schwer einzuschätzen sind. "Vorhersagen sind schwierig, vor allem über die Zukunft", (wird Mark Twain, Niels Bohr oder Albert Einstein zugeschrieben). Eine Studie der Universität Oxford 2015 weist nach, dass aufwendige Konjunkturprognosen nicht treffsicherer sind als kundige Schätzungen (Simon Wren-Lewis).

"Der Trend stellte sich stets schwächer dar, ich selbst wurde bald nichtlinear. Ich sah das Gedankengebäude stehn, von außen, als wär` ich exogen. Und niemals werde ich erfahren, was Ober- und Untergrenze waren. Mein Geist mir selbst der Unbekannte, vermengt ex post nun mit ex ante: Meine Gedanken sind unelastisch, mein Handeln unheilbar stochastisch". Aus "Klagelied des Nicht-Ökonometrikers" von D. H. Robertson (O. V. Trebeis: Nationalökonomologie, Tübingen 1994, S. 251f.

Das Zentrum für gesellschaftlichen Fortschritt (Stefan Bergheim) misst seit 1970 die gesellschaftliche, ökonomische und ökologische Entwicklungen in 22 reichen Ländern. In diesem Fortschrittsindex liegen die skandinavischen Länder Norwegen, Schweden und Finnland vor Japan. Deutschland liegt an 18. Stelle. Berücksichtigt werden vier Dimensionen: Bildung, Einkommen, Gesundheit, Umwelt. Die Wirtschaftswoche (zusammen mit GPRA und TNS Emnid) berechnet einen Vertrauensindex für unterschiedliche Sparten in Deutschland. Hier liegen Die Automobilbranche und Lebensmittelbranche an der Spitze. Bewertet werden Ehrlichkeit, gesellschaftliche Verantwortung, vertrauensvoller Umgang mit den Mitarbeitern, vertrauensvoller Umgang mit Kunden und Kompetenz bzw. Qualität.

Nirgendwo sind Prognosen schwieriger als an der Börse. Die alten Modelle der Banken waren nicht komplex genug. Den Berechnungen der Ökonomen fehlte die Aktualität. Nun versuchen Hedge - Fonds den chaotischen Anforderungen mit Künstlicher Intelligenz (KI) gerecht zu werden. Die ersten Versuche sind viel versprechend. Wenn die Erfolge sichtbar sind, wird sicher die Konjunkturprognose insgesamt auf KI zurückgreifen. Die Zahlen des Statistischen Bundesamtes müssten aber schneller zur Verfügung stehen und transparenter sein. Das Bundeswirtschaftministerium hat 2019 ein Projekt "Big Data und Makroökonomie" gestartet. Vgl. Losse, Bert: Die schwierige Kunst der Propheten, in: WiWo 27, 28.6.2019, S. 38f.

-Messung von Wohlstand: Immer mehr rückt man vom Bruttonationaleinkommen (oder BIP) ab. Das Bruttonationaleinkommen eignet sich nur bedingt als Indikator für Wohlstand (eine einzelne Zahl hat immer beschränkte Aussagekraft). Die Haushaltsproduktion, ökologische und soziale Aspekte, Ehrenamt, Arbeit für die Familie und Schwarzarbeit finden keine Berücksichtigung. Im Finanzsektor treiben Spekulationsblasen die Marktwerte nach oben. Das Leben ist immer mehr als Transaktionen. Der Gini-Koeffizient kann die Verteilung von Reichtum darstellen. Der ökologische Fußabdruck misst, wie viel Agrarland benötigt werden, um die Ressourcen zu beschaffen, die die Einwohner verbrauchen. Der Index der menschlichen Entwicklung (Human Development Index, HDI) wird jährlich vom UNDP der UN berechnet. Neben BIP pro Kopf gehen auch Lebenserwartung und Bildungssystem ein. 2012 liegt hier Norwegen vor Australien. Der Glücks-Index (Happy Planet Index, HPI) kombiniert Lebenserwartung, Lebenszufriedenheit und ökologischen Fußabdruck. Beabsichtigt ist auch, dass Bruttonationaleinkommen breiter zu messen: Der Konsum ist in reichen Ländern nicht mehr so sehr Glücksbringer, weil die materiellen Grundbedürfnisse befriedigt sind. Andere Wünsche rücken ins Blickfeld, wie Umwelt, Arbeitsbedingungen und sozialer Zusammenhalt. Trotzdem hängt Zufriedenheit auch immer noch von Geld ab. Interpretiert man Wohlstand Richtung Lebensqualität kommen weitere Größen dazu: Nicht-Armutsrisiko, Soziale Kontakte und Beziehungen, Bildung, Gesundheit, persönliche Aktivitäten. Mittlerweile hat sich der Nationale Wohlfahrtsindex (NWI) etabliert. Er bezieht das natürlich, soziale und wirtschaftliche Kapital ein. Entwickelt wurde er an der FU Berlin und einer Heidelberger Forschungsstätte. Wichtige Informationen zum Wohlstand in Deutschland ermittelt auch das Sozioökonomische Panel (SOEP) des DIW in Berlin. Seit 25 Jahren läuft diese Umfrage bei rund 11.000 Haushalten. Das Gegenteil von Wohlstand misst die Armutsquote. Nach der amtlichen Grenze beginnt in Deutschland unterhalb eines Einkommens von 60 Prozent des Medians die Armut. Der Median ist das Einkommen, welches von 50 Prozent der Bevölkerung über- und von 50 Prozent unterschritten wird. Wenn sich das Einkommen sehr stark erhöht, erhöht sich natürlich auch der Median. Außerdem ist das steuerlich erfasst Einkommen zu unvollkommen (Schwarzarbeit, Haushaltsproduktion). Die Quote misst also weniger die Armut als die Ungleichheit. Ab 2019 soll die Messung der Situation bei Superreichen verbessert werden. In Deutschland fehlt es an validen Informationen über die Reichenhaushalte. Bisherige Quellen waren die EVS, die Vermögensanalysen der Deutschen Bundesbank und das SOEP. Neue Projekt sind geplant: "Oversampling" der Deutschen Bundesbank, eigenes Umfrage - Panel über die Hochvermögenden. Vgl. Lösse, Bert: Blackbox Superreiche, in: Wirtschaftswoche 10, 1.3.2019, S. 40f. Healthiest Country Index: Rangliste, die vom US-Medienkonzern Bloomberg auf gestellt wird. Als Indikatoren gehen ein Ernährung, ärztliche Versorgung, Lebensart, Lebenserwartung u. a. ein. 2019 liegt Spanien an der Spitze.

Wohlstand in der EU: Gerechtigkeitsindex der Bertelsmann-Stiftung. Nach der Finanzkrise droht der EU eine soziale Spaltung: Die Bertelsmann-Stiftung hat einen EU-Gerechtigkeitsindex konstruiert: Danach hat sich das Gefälle zwischen den Staaten Nordeuropas und Südeuropas vergrößert. Deutschland liegt auf Platz sieben. Dänemark und die Niederlande an der Spitze. Auf dem letzten Platz liegt Griechenland.

Jahreswohlstandsbericht der Grünen in Deutschland: Er enthält folgende Kernindikatoren: Umwelt - Ökologischer Fußabdruck, Artenvielfalt und Landschaftsqualität; Soziales - Einkommensverteilung, Bildungsabschlüsse. 3. Wirtschaft - Nationaler Wohlfahrtsindex, Anteil von Umweltschutzgütern an den Industriewarenexporten. 4. Gesellschaft - Subjektive Lebenszufriedenheit, Governance-Index.

Die Stiglitz - Kommission (mit Sen) hat 2009 Empfehlungen gemacht, wie Wohlstand und Lebensqualität besser zu ermitteln sind. Diese Vorschläge greifen Ende 2010 die Wirtschaftsweisen in Deutschland und Frankreich auf. Sie schlagen keine weichen Faktoren wie "Happiness", aber die Aufnahme von "Lebensqualität" und "Nachhaltigkeit" vor. Im Januar 2011 nimmt eine Bundestagskommission zur Wohlstandsmessung ihre Arbeit auf. Sie ist mit 17 Abgeordneten und 17 Wissenschaftlern besetzt. Sie heißt Enquete-Kommission "Wachstum, Wohlstand, Lebensqualität" (Chefin Daniela Kolbe, SPD). Neben Lebensqualität sollen auch Verteilungsfragen, Verschuldung, Bildung, Gesundheit, Freiheit und Umwelt eine Rolle spielen. Wertschöpfung soll genauer erfasst werden (Schwerpunkt technischer Fortschritt). Schäden durch soziale Ungleichheit sind sehr umstritten. Für den Bereich "Ökologie" gibt es drei Leitindikatoren: Treibhausgase, Artenvielfalt und Stickstoffbelastung. Zusätzlich werden zehn Warnindikatoren definiert. In der dritten Gruppe von Hermann Ott einigt man sich auf "Möglichkeiten und Grenzen der Entkopplung". Dann aber ist es mit der Einigkeit vorbei. Vor der Bundestagswahl 2013 ist die Kommission erst einmal gescheitert. Die Mehrheit der Regierungskoalition ist für ein Armaturenbrett ("dashboard"), dass verschiedene Indikatoren nach Bedarf hinzunimmt als Beilage und bei der politischen Steuerung helfen soll. Im April 2013 wird der Abschlussbericht vorgelegt. Im Mai wird er im Bundestag diskutiert. Resultat könnte ein jährlicher Wohlstandsbericht sein. England und Frankreich haben ähnliche Kommissionen. Die Diskussion ist in China und Indien auch sehr stark (Industrieländer als Vorreiter!). Vgl. www.destatis.de (Startseite, "Unseren Wohlstand messen künftig zehn Indikatoren"). Neuerdings gibt es auch Ansätze, die Bevölkerungsstimmung als Indikator für das Wirtschaftswachstum heranzuziehen (vgl. Bruttel, O.: Bevölkerungsstimmung als Indikator für Wirtschaftswachstum, in: Wirtschaftsdienst 2013/ 6, S. 390-395).   "Wohlstand beginnt dort, wo der Mensch anfängt, mit dem Bauch zu denken", Norman Mailer, US-Schriftsteller.

Welthunger-Index: Nach dem Welthunger-Index 2015 hungern weltweit 795 Menschen (oder leiden an Unterernährung; Quelle: Welthungerhilfe). Eine der Hauptursache sind die bewaffneten Konflikte Der Welthunger-Index erfasst die Situation in 117 Ländern.

Index für die Vorsorgesysteme der Nationen (Melbourne Mercer Pensionsfonds Index): Am besten schneiden Dänemark und die Niederlande ab. Deutschland liegt auf dem 13. Rang. In den Indikator fließen ein Armut im Alter, Fairness, Rücklagen u. a.

-Messung der Verteilung: International vergleicht man normalerweise den Gini-Koeffizienten. Der Wert eins definiert totale Ungleichheit. Bei null besteht völlige Gleichheit. Graphisch kann dies an der Lorenz-Kurve dargestellt werden. Deutschland liegt beim Einkommen bei 0,3 (gleicher als USA, Japan, China, Großbritannien). Die USA liegen bei 0,38, Japan bei 0,33 .Dänemark hat einen Wert von 0,25 (OECD). National werden Einkommens- und Vermögensverteilung betrachtet. 2008 hatte in Deutschland das reichste Zehntel der Bevölkerung 52,9% des Nettovermögens. 1,2% des Vermögens sind im Besitz der ärmeren Hälfte der Haushalte (Quelle: EVS 2008; 4. Armuts- und Reichtumsbericht; Der Spiegel 7/2013, S. 40). 2010 gegenüber 2000 hatte das unterste Zehntel  der Haushalte bezogen auf das verfügbare Einkommen einen Rückgang von -10,3% zu verzeichnen. Das oberste Zehntel einen Zuwachs im gleichen Zeitraum von 15,5% (Quelle: SOEP, DIW Berlin). Es gibt große statistische Defizite. Das Statistische Bundesamt kann über Vermögen über 2 Millionen Euro kaum Angaben machen. Völlig unzureichend sind die Informationen über die Verteilung des Produktivvermögens. Immer wieder umstritten ist auch die Armutsgrenze (klar ist, dass sie relativ ist). Hier sind die Statistiken bei Auswertung immer schon einige Jahre alt (5 Jahre). Der Gini-Koeffizient wird auch in Deutschland beim Netto-Vermögen errechnet. 2008 war der Wert 0,75.

-Messung der Wettbewerbsfähigkeit von Staaten (und Städten): 1. Global Competitiveness Index, World Economic Forum. Hierbei führen 2013 Schweiz, Singapur und Finnland. Deutschland rückt auf den 4. Platz vor. 2016 fällt Deutschland auf Platz 5 hinter die Niederlande zurück. 2017 kann Deutschland diesen fünften Platz halten. 2018 rückt Deutschland auf Platz drei vor (hinter USA und Singapur). 2. World Competitiveness Yearbook, IMD. 2014 fällt Deutschland von Platz 6 auf Platz 9 zurück. 3. Global Innovation Index, Insead. 4. Sustainable Goverance Indicator, Bertelsmann-Stiftung. 5. Index of Economic Freedom, Heritage Foundation. 6. Doing Business Index, Weltbank. 7. Corruption Perception Index, Transparency International. 8. Lohnstückkosten (VWL): Indikator für die preisliche Wettbewerbsfähigkeit. Sie errechnen sich aus dem Verhältnis der Arbeitskosten zum realen Bruttoinlandsprodukt. Steigt die Produktivität (reale BIP je Stunde) stärker als die Arbeitskosten je Stunde, sinken die Lohnstückkosten. In gewisser Hinsicht ist auch die Exportquote ein Indikator für die Wettbewerbsfähigkeit (2012: 41,5%). Die Weltbank arbeitet mit dem "Doing-Business-Index". Er misst die Qualität der Rahmenbedingungen für Unternehmen. Es gibt 36 Indikatoren (u. a. Steuersystem, Effizienz der Gerichte) . 2012 führt Singapur vor Hongkong und Neuseeland. In letzter Zeit rücken die Energiestückkosten als Indikator für Wettbewerbsfähigkeit immer mehr in den Mittelpunkt. Umstritten sind die Berechnungsmethoden.

Im weitesten Sinne zur Wettbewerbsfähigkeit gehört auch die Innovation. Es gibt einen weltweiten Innovationsindex (Cornell University). Hierin werden ausgewählte Indikatoren zusammengefasst. Darunter spielen eine Rolle: Die Patentanmeldung in Relation zum BIP; Zugang zu Krediten; Know-how der Beschäftigten; IT - Nutzung; Bildungssystem; Cluster; Attraktivität für Investoren; Flexibilität und Stabilität.  Deutschland liegt 2014 auf dem 12. Platz. An der Spitze steht die Schweiz.

Ebenfalls Innovationen misst der Acatech-BDI-Innovationsindikator. Die innovativsten Länder sind die Schweiz, Singapur, Finnland, Belgien und Deutschland. Beim Subindikator Wirtschaft führt die Schweiz vor Süd-Korea, den USA, Taiwan und Israel (Quelle: Acatech-BDI-Innovationsindikator 2015).

Der Digital Readiness Index von Karl-Heinz Land und der Wirtschaftswoche versucht die Digitalisierung der Wirtschaft zu messen.

Der Standortindex DIGITAL des Bundeswirtschaftsministeriums: Er besteht aus 48 Indikatoren. 1. Markt (17 Indikatoren). 2. Infrastruktur (17 Indikatoren). 3. Nutzung (14 Indikatoren). Vgl. Gerpott, T. J.: Standortindex DIDITAL: Nützlich zum Erkennen von Handlungserfordernissen im IKT-Sektor?, in: Wirtschaftsdienst 2016/1, S. 26ff.

Nation Brands Index: Er misst das ansehen der Nationen in den sechs Bereichen Regierung, Exporte, Tourismus, Investment & Immigration, Kultur sowie Menschen. 2016 lag Deutschland an erster Stelle. Es folgen die USA und Japan.

Wirtschaftswoche-Zukunftsindex und Niveauranking: Bewertet werden Städte in Deutschland. Bei der Zukunft liegt 2017 Darmstadt an erster Stelle vor münchen. Beim Niveau führt München vor Ingolstadt.

-Messung der Liberalisierung einer Wirtschaftsordnung: Die Fraser Institute haben eine Messmethode entwickelt. Der Grad der ökonomischen Freiheit wird anhand ausgewählter Kategorien gemessen (10 Punkte= höchste Freiheitsstufe). Wichtigste Indikatoren sind der Umfang der Staatstätigkeit, die Arbeitsmarktregulierung und die Unternehmensregulierung. 2013 führt Hongkong vor Singapur und Neuseeland. Deutschland liegt auf dem 19. Rang.

Die Bertelsmann Stiftung lässt den Bertelsmann Transformationsindex (BTI) berechnen. 250 Experten erheben und analysieren Daten in 129 Umbruchsländern. Der BTI gibt Auskunft über Erfolge und Rückschritte auf dem Weg zur sozialen Marktwirtschaft und zur Demokratie. Indikatoren sind Versammlungsfreiheit, freie und faire Wahlen, Meinungsfreiheit, Gewaltenteilung, Schutz der Bürgerrechte.  2016 ist der Anteil der Länder, in denen religiöse Dogmen die Politik beeinflussen, auf 33% gestiegen.

-Kennzahlen im (Extra-) Ausland: Der Case-Shiller Index zeigt die Entwicklung des US-Immobilienmarktes. Er enthält auch Teilindices für die Immobilienentwicklung der wichtigsten US-Wirtschaftsregionen und wird monatlich veröffentlicht. Federal Fund Rate: Ist der Zinssatz, der in den USA für Tageskredite innerhalb des Bankensystems gilt. Sie wird von der US-Notenbank gesteuert, indem sie dem Markt Liquidität entzieht oder zuführt. Die Federal Fund Rate gilt als der Leitzins der US-Geldpolitik. Der US Einkaufsmanagerindex wird vom Institute for Supply Management (ISM) in Arizona angefertigt. 400 Einkaufsmanager (aus 20 verschiedene Branchen)  werden befragt. Er deckt auch den Euro-Raum ab. Seit 1931 wird die Befragung mit Unterbrechungen durchgeführt (Zeitkosten ca. 10 Minuten). Der Index hat eine Gewichtung (kleineren Unternehmen sind wegen ihrer Häufigkeit übergewichtet). Im Mai 2015 steigt der Index an und könnte einen Aufschwung indizieren.  Mittlerweile wird auch ein Einkaufsmanagerindex in China erstellt. Mitte 2012 sinken die Einkaufsmanagerindizes in China und Europa. Das Institut IHS Market mit Hauptsitz in London berechnet auch regelmäßig einen Einkaufsmanagerindex. Er wird für Großbritannien, Deutschland, Japan, China und die USA errechnet. Der Consumer Sentiment Index der University of Michigan misst die Konsumneigung der Verbraucher in den USA. Der Baltic Dry Index (BDI) wird von Baltic Exchange in London (Seefrachtbörse) veröffentlicht. Dabei handelt es sich um ein weltweites Maß für die Verschiffung wichtiger Frachtgüter. Zwischen Mitte Juni und Mitte Juli 2015 steigt der Index um 36 Prozent. Dabei sind die Frachtraten der  Rohstoffe Eisenerz, Kohle und Getreide auf den 26 wichtigsten Seerouten der Welt ausschlaggebend. Der Anstieg geht vor allen auf die chinesische Nachfrage zurück. Die OECD arbeitet mit dem OECD-Frühindikator. Prognos ermittelt jährlich aus 34 Einzelindikatoren (z. B. Lohnkosten, Bildungsstand, Höhe der Zölle) für 100 Länder der Welt den Freihandels- und Investitionsindex. Die Rangliste wird von der EU, Singapur, den USA und Hongkong angeführt. Der US-Dollar-Index misst den Außenwert des Greenback gegenüber einem Korb aus sechs Währungen. Er zeigt an, dass die Leitwährungsfunktion des Dollar verblasst. Die Statistikabteilung der FAO in Rom berechnet den FAO-Lebensmittelindex. Er misst die Preisentwicklung der wichtigsten Grundnahrungsmittel weltweit. Darunter ist auch der Mais als eines der wichtigsten Nahrungsmittel. Der Good Country Index misst, wie viel Gutes die Staaten für die Welt tun. Er wurde vom Briten Simon Anholt erfunden. 2014 liegt an erster Stelle Irland vor Finnland. Deutschland liegt auf Platz 13. Vgl. www.goodcountry.org . Gender Gap Index: Auf Anregung des Weltwirtschaftsforums in Davos seit 2006 erhoben. Er misst die Ungleichheit von Geschlechtern in Gesellschaften und Kulturen. Deutschland steht 2014 auf Platz 11. Kuwait ist als erstes arabisches Land auf 117. Syrien hat mit Platz 143 den drittletzten Platz. In arabischen Kulturen gibt es das Phänomen des "Taharrush gamea". Es handelt sich um gemeinschaftliche Belästigung von Frauen in der Öffentlichkeit. Es tritt in Kulturen auf, die ein Dreieck von religiösem Druck, Sex als Tabuthema und eine patriarchalische Gesellschaftsform haben. 2016 wird ein neuer Index entwickelt (Unsicherheitsindex), der misst, wie sich politische Unsicherheit auf die Wirtschaft niederschlägt. Vgl. Scott R. Baker/ Nicholas Bloom/ Steven j. Davis: Measering Economic Policy Uncertainty, November 2016.

Global Link Model: Es wird vom IHS Market Institut in  London (auch Filiale in Frankfurt)  errechnet. Mitbegründer des Instituts war Lawrence R. Klein, der 1980 den Nobelpreis erhielt. Das Modell besteht aus drei Bausteinen. 1. Data. 2. Countries and Dependencies. 3. E-Views/ Economic Simulation Engine. Es gibt drei Versionen: Standard, Enhanced und Premium. Ab 2017 wird folgendes prognostiziert: Europas Aufschwung geht weiter. Der Anteil der faulen Kredite bleibt aber zu hoch. Trumps Politik wird zu höherem Wachstum in den USA führen: 2017 2,3%, 2018 2,6%.

Internationale Verflechtungen werden unter anderem durch die Exportquote, die Importquote, den Offenheitsgrad und den Außenhandelsanteil gemessen. Ein neuer Früh-Indikator für den Welthandel ist der RWI/ISL-Containerumschlag-Index. Es sind die größten 20 Containerhäfen weltweit enthalten. Die weltweiten Frachtraten misst auch der Baltic-Dry-Index (HRI, Bloomberg, Oxford Economics). Zu Beginn von 2016 fallen die Werte rapide.

2015 hat das IW (Institut der deutschen Wirtschaft) einen Indikator konstruiert, der die weltweit verfügbaren Wirtschaftsdaten bündelt und vereinfacht - die "Konjunkturampel". Sie besteht aus drei Sektoren, die in Variablen aufgeteilt sind: 1. Produktion (Industrieproduktion, Auftragseingang, Einkaufmanagerindex). 2. Beschäftigung (Erwerbstätige, Arbeitslose, Arbeitslosenquote). 3. Nachfrage (Privater Konsum, Konsumentenverhalten, Investitionen, Exporte). Dafür wird u. a. in folgenden Räumen gemessen: Deutschland, Euro-Raum, USA, China. Als Ausprägungen der Konjunktur gibt es Verbesserung (grün), Keine relevante Veränderung (gelb), Verschlechterung (Rot).

Die weltweite Konjunktur lässt sich auch mithilfe des Kupferpreises erklären. Kupferpreis, US-Einkaufmanagerindex und Weltindustrieproduktion korrelieren hoch (so das RWI-Essen). Der Rohstoffradar misst die Volatilität ausgewählter Preise. Er stellt die durchschnittliche Abweichung vom Mittelwert der vergangenen zwölf Monate grafisch dar. Hohe Schwankungsbreiten indizieren steigende Preis- und Planungsrisiken (Quelle: dreimal jährlich in der Wirtschaftswoche).

Exporter Dynamics Database, Version 2.0: Ein System von Indikatoren. Seit Oktober 2015 die neueste Version für Deutschland. Exporteure, Dauerexporteure, Eintrittsrate, Austrittsrate, Überlebensrate. Vgl. Joachim Wagner: Dynamik der deutschen Warenexporte nach Zielländern und Gütergruppen, in: Wirtschaftsdienst 12/2015, S. 868ff. . 

Best Country Report: Durchgeführt von Wharton, U.S. News, WPP. 16.000 Menschen werden weltweit befragt. Erstmals präsentiert auf dem Weltwirtschaftsforum in Davos im Januar 2016. Kriterien sind Nachhaltigkeit, Transparenz, Menschenrechte, Einkommen, Gleichberechtigung, Im Jahre 2015 liegt Deutschland an der Spitze vor Kanada und Großbritannien.

Ranking der ökonomischen und politischen Stabilität (Sal. Oppenheim): 2016 führte Norwegen vor der Schweiz, Neuseeland, Taiwan und den Niederlanden. Die letzten Plätze belegten Italien, Brasilien und Griechenland.

Qualität eines Standortes für Direktinvestitionen: Studie jährlich seit 1998; von A.T. Kearney. Seit  Im Jahre 2017 erreicht Deutschland erstmals Platz zwei als Investitionsstandort  Platz eins belegen zum fünften Mal in Folge die USA.

Offenheitsgrad: Exporte plus Importe durch Bruttoinlandsprodukt. Es ist ein guter Indikator für die Einbindung in die Globalisierung.

FDI Restrictiveness Index der OECD: Er misst die Offenheit einer Volkswirtschaft. China liegt ganz hinten beim FDI Restrictiveness Index der OECD (Stand 2017; 0=offen, 1=geschlossen).  China hat einen Wert von 0,317. Ganz vorne liegen Deutschland (0,023) und Großbritannien (0,040). Dahinter Frankreich, Japan, USA, Russland, Indien, China.

Abhängigkeit vom Welthandel: Exporte in Prozent des BIP. Viele kleine Länder hängen extrem an der Globalisierung (kleine Länder, große Exporteure). Große Länder sind eher kleine Exporteure. Beispiele: Luxemburg 214%, Singapur 176%, Irland 124%, Niederlande 82%. USA 13%, Brasilien 13%, Japan 18%, Indien 20%.

Grubel-Lloyd-Handelsindex: Kennziffer zur Berechnung des intra-industriellen Handels eines Wirtschaftszweigs, einer Volkswirtschaft oder einer Ländergruppe. Intra=1 - (Ex -Im)/Ex+Im.

Skyscraper-Index: 1999 vom Immobilienanalyst Wasserstein entwickelt. These: Visionäre Wolkenkratzerprojekte kündigen Wirtschaftskrisen an.

Weltweite Image-Rangliste: Anholt-GfK Nation-Brands-Index. 2017 liegt Deutschland weltweit an der Spitze vor Frankreich. Der bisherige Spitzenreiter USA ist auf den sechsten Platz zurückgefallen.

Energiewende-Index ETI: Die Abkürzung bedeutet Energy Transition Index. Den Index hat McKinsey zusammen mit dem Weltwirtschaftsforum in Davos entwickelt. Es wird der Stand der Energiewende in 114 Ländern untersucht. Der Sachstand wird mit 17 Einzelindikatoren gemessen, die Ausgangsbedingungen werden mit 23 Indikatoren berechnet.

Korruptionsindex von Transparency International (TI). Es wird anhand einer 100-Punkte-Skala gemessen. 180 Länder werden untersucht. 124 Länder erreichen 2018 weniger als 50 Punkte (Durchschnitt 43). Am besten schneidet Dänemark 2018 ab (88 Punkte). Schlusslicht ist Somalia. Deutschland liegt auf Platz 11 mit 80 Punkten. .

- Spezielle Indikatoren für China und Japan:  Der Tankan-Index in Japan (Tanki Keizai Kansoku: kurzfristige Wirtschaftsbeobachtung) wird von der Bank of Japan (BoJ) in Tokio herausgegeben. Er wird vierteljährlich herausgegeben. Er gleicht dem ifo-Index. Er ist einer der wichtigsten Frühindikatoren Asiens. Er misst die Stimmung von Großunternehmen der japanischen Wirtschaft (10.000 private Firmen, Rücklaufquote 99%; seit 1974). Er beeinflusst auch den Aktienindex, den Wechselkurs und die Geldpolitik. Auch Ursachenforschung wird betrieben. Er ist kostenlos, auch in Englisch, erhältlich: www.boj.or.jp./en/statistics/tk/index.htm .

Für China entwickelt wurde der Keqiang-Index. Er wurde nach dem jetzigen Premierminister Chinas Li Keqiang benannt, der in einem Gespräch mit US-Diplomaten die offizielle Statistik des Nationalen Statistikbüros als "menschengemacht und unzuverlässig" abtat. In den Index gehen die wirtschaftliche Aktivität anhand der Variablen Energieverbrauch (Strom), Kreditvergabe und Eisenbahnfrachttonnen (Frachtvolumen) ein.

Große Bedeutung hat mittlerweile der Einkaufsmanager-Index (PMI) für die Beurteilung der chinesischen Industrieaktivitäten. Das Wirtschaftsmagazin "Caixin" veröffentlicht ihn regelmäßig. Zu Beginn 2016 führt ein Rückgang von 48,6 auf 48,2 zu Aktieneinbrüchen in Shanghai.

Sehr starke Aufmerksamkeit richtet man in China auf die Entwicklung der Erzeugerpreise (Index der Erzeugerpreise). ein deutlicher Rückgang zeigt in der Regel Konjunktureinbrüche an.

China Satellite Manufactoring Index: Er überwacht die Industrieproduktion. Per Satellit werden 6000 Industrieregionen beobachtet (Start up Space now).

 

Zur Methode der Volkswirtschaftslehre (VWL) und Ökonomie insgesamt:

"Eine Einführung in die Volkswirtschaft für Praktiker im Betrieb kann keine Anleitung dafür sein, wie man ein Geschäft oder eine Bank führt, wie man sein Geld gut anlegt oder wie man an der Börse schnell reich wird", Paul A. Samuelson nach Puhani, J.: Volkswirtschaftslehre für Betriebswirte, München 2009, Vorwort.

"Das schöne an den Wirtschaftswissenschaften ist, dass sie nur eine Denkweise darstellen, ein Faktenwissen gibt es nicht", Victor Norman, Ökonom, Norwegen.

Aufgabe der Volkswirtschaftslehre (VWL) ist die Beschreibung, Erklärung, Prognose und wirtschaftspolitische Beratung bei ökonomischen Tatbeständen und Problemen. Die Tatbestände können systemunabhängig (Knappheit, Arbeitsteilung) und systemabhängig (Wirtschaftsordnung) sein. Die Volkswirtschaftslehre widmet sich der Lösung der Probleme Ineffizienz (Marktversagen, keine gute Allokation), Instabilität (Inflation, Konjunktur, Arbeitslosigkeit) und Ungleichheit (Einkommens- und Vermögensverteilung). Die VWL orientiert sich an den Zielen "Vollbeschäftigung, Preisstabilität, Wirtschaftswachstum, Außenwirtschaftliches Gleichgewicht, Soziale Gerechtigkeit und Nachhaltigkeit" (Magisches Sechseck). Zwischen diesen Zielen können Konflikte, Komplementarität und Neutralität bestehen. Mit Modellen wird mathematisch, geometrisch, logisch (spieltheoretisch) oder verbal nach Lösungen gesucht. Um darüber hinaus bestimmte Grundausagen möglichst deutlich zum Ausdruck zu bringen, wird oft auf die so genannte Ceteris-paribus-Klausel zurückgegriffen (man dreht an bestimmten Stellschrauben und lässt alle anderen unverändert). Im Vordergrund stehen die Einflussfaktoren ökonomischer Sachverhalte (Hypothesen, Operationalisierungen und Messungen dazu). Berücksichtigt werden Interdependenzen genauso wie Gleichgewichtslösungen. Statistisch werden meist Zusammenhänge und Kausalitäten metrischer Merkmale untersucht. So wird die Korrelationsanalyse nach Bravais - Pearson oder die Regressionsanalyse eingesetzt. Zeitliche Folgen dürfen nicht mit Kausalbeziehungen verwechselt werden. Wenn die Wirtschaftspolitik (Ordnungspolitik, Prozesspolitik) durchgeführt wird, kann es zu Zeitverzögerungen (Lags) kommen. Die Geldpolitik kann schneller wirken als die Fiskalpolitik (beide gehören zur Prozesspolitik). Mit beiden Politiken werden Rezessionen bekämpft. Vorher muss die VWL erkennen, was die Rezession ausgelöst hat (Makroökonomik). Strukturelle Randbedingungen (Wettbewerb) sind zu berücksichtigen. "Die Kunst des Wirtschaftens besteht darin, nicht nur die unmittelbaren, sondern auch die langfristigen Auswirkungen jeder Maßnahme zu sehen,; sie besteht ferner darin, die Folgen jedes Vorgehens nicht nur für eine, sondern für alle Gruppen zu bedenken", Henry Hazlitt: Die 24 wichtigsten Regeln der Wirtschaft, München 2014, S. 21 (original USA, 1946).

Die Methode ist eine Verbindung von Mathematik, ökonomischer Theorie und empirischen Methoden/ Statistik. Häufig geht es um Entscheidungen darüber, ob man eine bestimmte Aktivität ein bisschen ausdehnt oder ein wenig einschränkt (Marginalentscheidungen). Die Analyse solcher Entscheidungen führt die VWL mit der Marginalanalyse durch. Insofern muss nicht immer alles 100-prozentig erfolgen, was getan werden muss. Marginale Analysen werden in der VWL mathematisch mit Hilfe der Differentialrechnung umgesetzt. Sie wurde von Gottfried Wilhelm Leibnitz (1646-1716) entdeckt. Er veröffentlichte seine Ergebnisse und auch die bessere Methode vor I. Newton. Will man das Verhalten von Menschen ändern (z. B. im Umweltbereich), so muss man Vorteile aufzeigen, die Menschen realisieren können (Anreize). Dies muss genau erfolgen:  sinkende Steuersätze sind z. B. mit den Einstellungen der Menschen, insbesondere zur Arbeit, abzugleichen. Sehr wichtig ist die Einbindung von Informationen. Die Effizienz von Finanzmärkten wird z. B. nach den benutzten Informationen beurteilt. Asymmetrische Informationen spielen in der Wirtschaftspolitik, z. B. der Umweltpolitik, eine große Rolle. Informationsgüter werden zunehmend zum Forschungsgegenstand (Eigentumsrechte, Preisbildung). Umweltschutzprobleme sind häufig die Folge unzureichend konstruierter Eigentumsrechte. Deshalb muss die Reformation dieser Rechte genau verfolgt werden. Die Einschätzung der Rationalität hat sich grundlegend verändert. Durch experimentelle Forschung rückt man vom "homo oeconomicus" ab und kommt zu realistischeren verhaltenswissenschaftlichen Folgerungen. Der Kern ist aber gleich geblieben, indem es darum geht, wie Menschen Entscheidungen treffen und wie diese Entscheidungen zusammenwirken (vgl. Großmeister Keynes unten, der es besser ausdrücken kann). Dabei müssen auch kulturelle Faktoren berücksichtigt werden (aber bitte nicht Vorurteile). Die mathematischen und statistischen Grundlagen sind im Bachelor -Studium oft  zu wenig vorhanden bzw. bekommen zu wenig Raum neben den Kernfächern (kann durch E-Learning nicht ausgeglichen werden). Die Methode sollte dann auf die problemorientierten Bereiche "Arbeitslosigkeit", demographischer Wandel", Finanzkrise" bezogen werden. Die Studenten sollten mit ihrem Wissen kommunizieren und agieren können im Zusammenhang mit praktischen Problemen im Betrieb. "Wir wollen uns lediglich erinnern, dass menschliche Entscheidungen, welche die Zukunft beeinflussen...sich nicht auf strenge mathematische Erwartungen stützen können, weil die Grundlage für solche Berechnungen nicht besteht; und dass es unser angeborener Drang zur Tätigkeit ist, der die Räder in Bewegung setzt, wobei unser vernünftiges Ich nach bestem Können seine Wahl trifft...aber oft für seine Beweggründe zurückfallend auf Laune, Gefühl oder Zufall", John Maynard Keynes.

Für die Volkswirtschaftslehre bzw. Ökonomie gilt die wissenschaftliche Methode, die schon der griechische Philosoph Aristoteles entwickelte, als Grundlinie:  Das System besteht aus drei Säulen: 1. Ethos - Die These bzw. Methode muss glaubwürdig und authentisch sein. Sie muss eine aktuelle Situation verändern können. 2. Logos - Die logische Struktur der Argumentation und Methode muss stringent sein. 3. Pathos - Empathiefähigkeit muss immer dabei sein. Eine gut gewählte Metapher verstärkt alle drei Elemente. Bedingungen sollten geklärt werden. Hypothesen sind zu überprüfen. Immer sollte auch das berücksichtigt werden, was im Rahmen des Möglichen passieren könnte. So können Denkmuster aufgebrochen werden. Ob Big Data jemals diese Denkstruktur ersetzen kann, ist doch sehr zu bezweifeln. So verringert Big Data strategische Optionen und verhindert Innovationen. Auch die Methode vom griechischen Philosophen  Sokrates gilt bis heute und kommt als 4. Punkt dazu, nämlich wissenschaftliche Autoritäten nicht einfach zu akzeptieren, sondern sie kritisch zu prüfen. Kritikfähigkeit ist nicht nur in der Ökonomie eine der wichtigsten Eigenschaften.

"Es ist noch viel zu tun, bis wir die Fragen der Fiskalpolitik beantworten können", US-Ökonomen auf dem Jahrestreffen mit der FED in Jackson Hole 2009.

Das Handelsblatt führt regelmäßig ein Ranking durch über die forschungsstärksten VWL - Fakultäten im deutschsprachigen Raum.  Es werden die Top 20 ermittelt. Im Jahre 2017 liegt die Uni Zürich an der Spitze vor Mannheim und der ETH Zürich.

Vgl. auch folgende Homepages: Netzwerk "Plurale Ökonomie e. V."

und  Was ist Ökonomie? (Berliner Studenteninitiative) .

 

Wissenschaftstheoretische Grundlagen der Volkswirtschaftslehre und Ökonomie insgesamt:

"Die Nationalökonomie entstand als eine natürliche Folge der Ausdehnung des Handels, und mit ihr trat an die Stelle des einfachen, unwissenschaftlichen Schacherns ein ausgebildetes System des erlaubten Betrugs, eine komplette Bereicherungswissenschaft", Friedrich Engels, MEW 1, S. 499 (Marx-Engels-Werke, Berlin, Dietz-Verlag, 1956 - 1990, 43 Bände).

"Die ganze Wissenschaft ist nichts anderes als eine Verfeinerung des Alltagsdenkens", Albert Einstein. Einstein wird auch das Bonmot nachgesagt, er sei Physiker geworden, weil ihm die Sozialwissenschaften als zu schwierig erschienen.

Das Vorgehen in der VWL ist oft deduktiv, d. h. der Schluss erfolgt vom Allgemeinen auf das Einzelne (es gibt auch induktive Methoden). Meist stammt das Wissen über existierende Dinge aber aus der Erfahrung (Empirismus). Dabei kann sich die Eigenschaft einer Aussage bei empirischer Überprüfung als falsch erweisen (Falsifizierbarkeit; nach Popper unterscheidet sich hier die Wissenschaft von der Nichtwissenschaft). Wird ein Theorem versuchsweise als wahr angenommen, spricht man von einer Hypothese. Axiome (nicht zu beweisende Annahmen) sollten vermieden werden (Gegenposition von M. Friedman). Häufig wird abstrahiert mit Modellen (vereinfachtes Bild einer sehr komplexen Realität, Komplexitätsreduktion), wobei mit Aggregation, Isolierung ("Ceteris paribus-Klausel") und  Mechanisierung (Verhaltensannahmen, "homo oeconomicus") gearbeitet wird. Dies sollte nicht zu Modellplatonismus (H. Albert) führen. Methodologischer Individualismus, rationales Verhalten und Knappheit sind zentrale Ausgangspunkte. Nach der Krise rücken "animal spirits" in den Vordergrund, die mehr psychologische Realitäten im Menschenbild berücksichtigen. Das Denken in Gleichgewichten (komparative Statik) verkürzt oft die Möglichkeiten. Eine ökonomische Situation ist im Gleichgewicht, wenn Menschen durch andere Handlungen nicht besser gestellt werden können. Zeitlich sind sowohl ex-post als auch ex-ante Betrachtungen (z. B. Prognosen) legitim. Die VWL geht nicht von einem Absoluten aus, d. h. sie kennt keine Wirklichkeit in höchster Vollkommenheit. Aber sie arbeitet mit Idealzuständen (z. B. vollständiger Wettbewerb). Kern ist die Analyse, bei der eine Sache verstanden werden soll, indem man sie zerlegt. Kausalitätszusammenhänge dominieren, Alternativen müssen geprüft werden (z. B. Chaostheorie für Finanzmärkte). Die VWL hat ihr eigenes Begriffssystem, in dem die Worte bestimmte Bedeutungen haben. Dialektik (These, Antithese, Synthese) und Dualismus (z. B. Kern- und Randbelegschaft) sind häufige Denkschemata. "Nimm es als Vergnügen, und es ist Vergnügen! Nimm es als Qual, und es ist Qual" aus Indien.

Ohne Ethik (die philosophische Reflexion über die Frage, welches Leben wir führen sollen) kommt die VWL nicht aus. Es geht immer auch um Gerechtigkeit, so dass jeder seinen fairen Anteil erhält. Wir dürfen nicht Alles nur vom Ökonomischen her denken. Dies darf aber nicht zum Überwiegen der Werturteile führen in der Wissenschaft. Effizienz knüpft in der VWL an Gerechtigkeit an, wenn alle Möglichkeiten genutzt werden, Menschen besser zustellen, ohne das andere schlechter gestellt werden (Pareto - Optimum). Für ethische Fragen hat die VWL aber noch keine gute Sensorik. Geldgeber und Topjournals versuchen diese aber zunehmend einzufordern (Minimal-Norm: Nicht lügen). Gerade in der Finanzkrise zeigte sich, dass viele Wirtschaftswissenschaftler eigene finanzielle Interessen verheimlicht hatten. Deshalb fordern immer mehr wissenschaftliche Gremien und auch Zeitschriften, Interessenkonflikte offenzulegen. "Denn man weiß wohl, dass ein rohes Volk nicht zuerst von Verbesserung der Sitten auf nützliche Gewerbe, sondern umgekehrt, von diesen auf jene kommt", Johann Jacob Meyen, deutscher Ökonom, 1769.

Meinungsverschiedenheiten zwischen Ökonomen entstehen häufig durch durch die Frage nach den Vereinfachungen und über die Werturteile. Letzteres kann in einer normativen Wirtschaftswissenschaft münden. In der Wirtschaftspolitik, einem Teilgebiet der Volkswirtschaftslehre, ist es besonders wichtig, zwischen parteipolitischen Positionen und wissenschaftlicher Analyse zu unterscheiden. Auch in der Finanzwissenschaft, einem weiteren Teilgebiet der VWL, darf durch die Nähe zur Politik die wissenschaftliche Distanz nicht verloren gehen. In der positiven Wirtschaftswissenschaft wird das Funktionieren der Wirtschaft analysiert. Trotzdem kann es auch hier zu Irrtümern kommen: die unbeabsichtigten Folgen von Politik sind einzurechnen, Löhne sind auf Arbeitsproduktivität und Stücke zu beziehen. Verallgemeinerungen sollten ganz vorsichtig verwendet werden (z. B. Überbevölkerungsproblem in der Welt, Protektionismus bei ausländischer Konkurrenz). Es muss immer die Bereitschaft vorhanden sein, aus Irrtümern zu lernen (Markt als begrenzter Lösungsweg; zu starke Deregulierung auf den Finanzmärkten). ...der geneigte Leser möge sich entscheiden, ob er einfache oder nützliche Antworten auf seine Fragen wünscht - beides ist hier ebenso wie in anderen wirtschaftlichen Fragen nicht möglich", Joseph A. Schumpeter, 1932.

Im Zuge der Finanzkrise hat die Volkswirtschaftslehre an Ansehen weltweit verloren. Sie muss sich dringend reformieren. Sie muss ihre Frühwarn- und Prognosefähigkeit erhöhen, neue Theorien entwickeln (Ideen wichtiger als Mathematik) und das Verhältnis zur Politik verbessern. Die Realität ist mit Modell-Mathematik oft schön gerechnet worden oder man hat mit hohen Anleihen aus der Soziologie und Psychologie ("Alltagspsychologie") sich mit fremden Federn geschmückt. Die Mikroökonomik liefert daraus wichtige Erkenntnisse, aber damit lassen sich keine makroökonomischen Prinzipien ableiten. Makroökonomische Theorien können genauso wenig aus der Mikroökonomik aggregiert werden. Es ist aber auch ein Wandel in der Motivation im Wissenschaftsbetrieb festzustellen. Karrieredenken rückt immer mehr in den Vordergrund vor der Freude an wissenschaftlicher Arbeit und der intellektuellen Auseinandersetzung. Die Medien beschleunigen diese Entwicklung, in dem sie Volkswirte nach ihren Karriere-Positionen und nicht nach ihren Forschungsergebnissen konsultieren.  "Kein Gedanke ist so alt oder absurd, daß er nicht unser Wissen verbessern könnte. Anything goes...", Paul Feyerabend: Wider den Methodenzwang, Frankfurt 1986, S. 55.

Selbst folge ich seit über 40 Jahren einer Forschungsrichtung, die sich als Behavioural Economics bezeichnet. Im Deutschen bezeichnet man dies als verhaltenswissenschaftliche Ökonomie. Sie beschäftigt sich mit der Frage, wie rational Menschen wirklich handeln und welche ökonomischen Folgen daraus erwachsen. Dabei bedient sie sich der Erkenntnisse der Psychologie und Soziologie. In Deutschland wurde diese Richtung maßgeblich von Günter Schmölders an der Uni Köln in die Volkswirtschaftslehre eingeführt. Vgl. hierzu auch meine ausführlichere Darstellung bei Research. Zunächst werden über den Untersuchungsgegenstand Hypothesen entwickelt (Werturteile nicht, Selektionsproblem). Dies geschieht mit induktiven und deduktiven Schlussfolgerungen (siehe oben). Dann kommt die empirische Überprüfung, die die vorläufige Bewährung ergibt (keine Wahrheiten!) oder zur Falsifizierung führt. "Der Rationalist ist einfach ein Mensch, dem mehr daran liegt, zu lernen als recht zu behalten", Karl Popper. In dieser Forschungsrichtung verschwimmen die Grenzen zwischen Volks- und Betriebswirtschaftslehre wie im angelsächsischen "Economics". Unabhängig von dieser ökonomischen Richtung werden die Einzeldisziplinen sowieso an Bedeutung verlieren,  so dass in Zukunft die Unterscheidung von VWL und BWL keine Rolle mehr spielen wird. "Grau, teurer Freund, ist alle Theorie, und grün des Lebens goldner Baum", Goethe in Faust.

"Ich bin. Aber ich habe mich nicht. Darum werden wir erst", Ernst Bloch (1885-1977, geboren in Ludwigshafen).

 

Betriebswirtschaftslehre als Wissenschaft (wissenschaftstheoretische und -soziologische Betrachtung):

2016 findet wieder eine intensivere Diskussion über den Inhalt und das Konzept der Allgemeinen Betriebswirtschaftslehre (ABWL) statt. Vgl. Köhler, Richard: Allgemeine Betriebswirtschaftslehre - ein tragfähiges Konzept? , in: DBW 6/16, S. 131ff. In der gleichen Ausgabe: Backhaus, Klaus/ Carlsen, C: Das Allgemeine in der Allgemeinen Betriebswirtschaftslehre, S. 424ff. Meine Inhalte auf der Seite "Economics/basic" stellen eine Mischung von Mittelstandsökonomik und ABWL dar und sind stark subjektiv geprägt von eigenen Erfahrungen. Das Hauptbetätigungsfeld von Betriebswirten sind nicht börsennotierte Konzerne, sondern Familienunternehmen, KMU und Start-ups. BWL und VWL werden und müssen in Zukunft noch stärker zusammenwachsen und auf Problem lösen ausgerichtet werden. Auf die Folgen von Digitalisierung muss stärker eingegangen werden, ebenso mehr auf den Klimawandel und den Machtkampf zwischen den USA und China (Globalisierung). All das versuche ich, auf der Seite "Economics/basic"  umzusetzen und das erklärt die starken Abweichungen von Standardlehrbüchern (die größtenteils veraltet sind bzw. das Lehrbuch hat als Medium ausgedient). Vgl. auch Jörg Rocholl, Aus zwei mach eins, in: Wirtschaftswoche 27/ 30.6.2017, S. 42.

Die klassische BWL scheint auch in einer Sinnkrise zu sein. Sie ist zu wenig praxistauglich, vor allem im Hinblick auf Gründen und Digitales. IT - Kenntnisse müssen sehr verstärkt vermittelt werden. Routineaufgaben wie Controlling, Teile der Personalwirtschaft und des Marketings werden zukünftig von Maschinen übernommen werden. Folge könnte ein BWL - Prekariat sein. Auch dem versuche ich mit der innovativen Konzeption Rechnung zu tragen. Vgl. Guldner/ Losse/ Scmidt: Bedingt praxistauglich, in: Wirtschaftswoche 43/ 13.10.17, S. 18ff. Ganz negativ zur BWL vgl. Axel Gloger: Betriebswirtschaftsleere, 2016.

Die WiWo bringt im Januar 2019 eine Liste der forschungsstärksten Betriebswirtschaftsprofessoren im deutschsprachigen Raum: Es führen Helmut Krcmar, TU München und Nils Boysen, Uni Jena vor Martin Bichler, TU München. Vgl. WiWo 4 18.1.2019, S. 40. Grundlage waren die 860 Fachzeitschriften.

Die BWL in Deutschland müsste folglich dringend erneuert werden: 1. Das Bild des Betriebswirts in der Gesellschaft muss aufpoliert werden. Er gilt oft als skrupelloser Profit - Maximierer. 2. Die Struktur an Hochschulen mit Lehrstühlen ist hoffnungslos veraltert. 3. Das föderale deutsche Bildungssystem gleicht einem Flickenteppich. Es führt nicht mehr zu mehr Wettbewerb, sondern zur Ausbildung von Betriebswirten als Fachidioten, die nicht mehr "über den Tellerrand hinausschauen können". Im Wettbewerb mit den USA, Japan und China werden andere Ökonomen gebraucht. Vgl. Siegers, R.: Die BWL erneuern, in: HBM Juni 2019, S. 48ff.

"Es ist nicht genug, zu wissen, man muss auch anwenden; es ist nicht genug zu wollen, man muss auch tun", Johann Wolfgang von Goethe.

 

Wirtschaftsgeschichte und Geschichte der Ökonomie sowie Zusammenhang:

"Nichts macht konservativ-reaktionärer als entweder nur die Vergangenheit oder nur die Gegenwart zu kennen", das Zitat wird J. M. Keynes zugeschrieben, Quelle nicht bekannt. Ähnlich ein Zitat von ihm aus dem Jahre 1935: "Die Schwierigkeit liegt nicht in den neuen Ideen, sondern darin, den alten zu entkommen".

"Wer die Vergangenheit nicht ehrt, verliert die Zukunft. Wer seine Wurzeln vernichtet, kann nicht wachsen", Friedensreich Hundertwasser (Quelle: Plakat im Hundertwasser-Museum, Wien; der ehemalige israelische Ministerpräsident Perez soll das auch gesagt haben; das "Urheberrecht" ist also unklar).

"Was Erfahrung aber und die Geschichte lehren, ist dieses, dass Völker und Regierungen niemals etwas aus der Geschichte gelernt und nach Lehren, die daraus zu ziehen gewesen wären, gehandelt haben", Georg Wilhelm Friedrich Hegel (1770-1831), deutscher Philosoph, der mit seiner Dialektik stark auch Karl Marx beeinflusst hat. Diese pessimistische Einschätzung bezog sich auf die ganze bis dato bekannte Weltgeschichte. Wahrscheinlich gilt sie auch heute noch. Hegel liegt in Berlin Mitte auf dem Dorotheenstädtischen Friedhof begraben (dort ruht ebenso B. Brecht, der direkt daneben auch gewohnt hat).

Staatliche Seidenmanufaktur Nr. 1 in Suzhou, China ("Venedig Chinas", Ende des Kaiserkanals). Diese Stadt im Südosten Chinas gilt als Geburtsort der chinesischen Seidenkultur. Seide war viele Jahrhunderte eines der wichtigsten Exportgüter des Landes auf der Seidenstraße, der Verbindung nach Europa. Die Herstellung der Seide war geheim, bis das Verfahren später von Japanern geklaut wurde (einer der berühmtesten Fälle von Industriespionage). Suzhou war Ausgangspunkt des Kaiserkanals, auf dem die Seide in der ersten Etappe gut transportiert werden konnte.

Vor etwa 70.000 Jahren verlässt Homo sapiens Afrika und breitet sich rasch aus. Wahrscheinlich beginnt Ökonomie als analytische Sichtweise mit der Sesshaftigkeit der Menschen. Das war zuerst in Mesopotamien (vor 12.000 Jahren; Klima beruhigte sich; Pleistozein ging zu Ende). Damit entstanden Arbeit und Arbeitsteilung sowie Tausch. Das sind die Kernphänomene jeder Ökonomie. Die Sumerer brauchten für die Buchführung und Registrierung der landwirtschaftlichen Produkte  eine Schrift. Sie entstand aus einer  Notwendigkeit. Etwas später bildeten sich die Jiahu -Schrift am Gelben Fluss in China und die ägyptischen Hieroglyphen   Der Berliner Archäologe Friedrich von Delitzsch entdeckte bei seinen Ausgrabungen in Mesopotamien (babylonische Funde, Babel) Schrifttafeln, auf die denen die Paradiesgeschichte der Bibel ("Garten Eden", Genesisgeschichte) 800 Jahre vor der Bibel auftauchte. Die Paradiesidee ist in Bibel, Thora und Koran enthalten. Sie wurde wohl abgeschrieben und verfremdet. In der Bibel findet sich eine negativere Darstellung der Rolle der Frau: Sie ist Sünderin und Verführerin. Das dürfte das Frauenbild in den Religionen nachhaltig beeinflusst haben. Als Delitzsch seine Entdeckung publik machen wollte, wurde er von Kaiser Wilhelm II. auf Druck der Kirche zurückgepfiffen. Delitzsch hatte die Vermutung, dass die Paradiesfabel die Zeit verklärt, als die Menschen noch nicht sesshaft waren (Jäger und Sammler). In der Bronzezeit entstand auch in Europa eine Kultur der Sesshaftigkeit. Es gibt große Ähnlichkeit mit unserer heutigen Kultur (Hygiene, Essen, Handwerk). Sehr viel über diese Zeit zeigen die Ausgrabungen von Egtved in Dänemark. In der Fundstelle fand man auch das berühmte Mädchen von Egtved. Die neue archäologische Technik der Jonen-Strontium-Analyse beweist, dass das Mädchen mindestens zweimal vom Schwarzwald nach Egtved hin und her gewandert ist. Offenbar bestand eine hohe Mobilität von Frauen. Sie war wohl Hohe Priesterin oder Handelsagentin. Der Handel zwischen den Netzwerken regionaler Siedlungen war offenbar sehr ausgeprägt. Aus dem Norden exportierte man Bernstein, aus der Mitte Kupfer und von außen (GB, Asien) Zinn. Bronze bestand zu 90% aus Kupfer und zu 10% aus Zinn. Es gab auch Landwirtschaft (Schafe, Getreide: Emmer, Dinkel). Es gab auch schon das erste gebraute Bier. Es entstand ein ausgeprägtes Textilhandwerk, was die Lederbekleidung ablöste. Die Gesellschaft war schon hierarchisch und differenziert, aber ohne staatliche Ordnung. 

Viele Jahrtausende betrug die Lebenserwartung etwa 25 bis 30 Jahre, Hunger und Krankheiten bedrohten das Leben, über dreißig Prozent der Neugeborenen erlebten nicht ihren fünften Geburtstag. In den letzten 250 Jahren hat sich dies alles geändert. Der Lebensstandard konnte enorm wachsen. Dies war u. a.  durch technischen Fortschritt, Bildung, Patentrechte, Demokratie, bessere Arbeitsteilung und neue Rechtsformen (z. B. beschränkte Haftung) möglich. Es ist sehr lehrreich, sich diese Ursprünge der Wirtschaftsgeschichte immer wieder vor Augen zu halten, um die Leistung moderner Wirtschaften zu würdigen. Natürlich leitet sich daraus eine hohe Legitimation für das Fach ab, was sich mit der Funktionsweise von Wirtschaften beschäftigt, nämlich die Volkswirtschaftslehre. Die historische Methode hat neben der Mathematik, Statistik, Logik, Experimenten u. a. eine gleichberechtigte Stellung in der Volkswirtschaftslehre.  "Die Geschichte hat keinen Sinn - aber der Mensch kann ihr einen Sinn geben", Karl Popper.

Ebenso viele Jahrtausende prägten Kaiserreiche die Geschichte. Eine der ersten Dynastien waren die Pharaonen in Ägypten. Sie wurden von Eliten getragen. Diese forderten den Nachweis der politischen und sakralen Legitimität. Monumentale Bauwerke, Inschriften und Reliefs demonstrierten auf symbolischer und realer Ebene die politische Macht der Herrscher. Die Pharaonen identifizierten sich mit Göttern des traditionellen Mythos vom Sonnenauge und begründeten so ihre geistliche Machtstellung. Die Natur war in der Antike durchdrungen von übernatürlichen Kräften. Gottheiten bildeten in der Weltsicht die oberste Ebene auf der ganzen Welt. Magische Praktiken sollten Leben schützen und im Alltag helfen (Fingergesten, Befragung der Götter durch Orakel). Mächtige und große Kaiserreiche hatten die Perser (Darius), die Makedonier (Alexander der Große, starb 323 v. Chr. erst 32-jährig am Guillain-Barre-Syndrom) und die Mongolen (Dschingis Khan, gestorben 1227 n. Chr.). Auch europäische Monarchen begründeten ihre weltliche Macht, indem sie sich als Stellvertreter Christi auf Erden inszenierten (Bewahrer der gottgewollten Ordnung). Sie fanden immer wieder Wege, sich neben den Papst zu stellen (notfalls war das Reich heilig wie bei Barbarossa). Noch im 19. Jahrhundert gab es zahlreiche große Herrschaftsgebiete, an deren Spitze Monarchen standen: Das Osmanische Reich. Das Österreich-Ungarische Reich. Das Russische Reich des Zaren Nikolaus II. Das Deutsche Reich Wilhelm II. Das Herrschaftsgebiet des englischen Königreichs mit Viktoria an der Spitze. Im Kaiserreich China regierte die Kaiserwitwe Cixi in einem Reich, das seit 2000 Jahren bestand. Der Kaiser von Japan, Meiji, galt immer noch als göttlich. Die Herrscher hatten für Stabilität, Sicherheit und Gerechtigkeit zu sorgen. Dafür bekamen sie die Loyalität der Menschen. Irgendwann hatten die Systeme eine Größe und Macht erreicht, dass Menschen sie nicht mehr absetzen konnten. Erst der 1. Weltkrieg, der die industrialisierte Kriegsführung mit sich brachte, zeigte, dass absolute Herrschaft viel zu gefährlich war. Nach und nach mussten die meisten der Herrscher abdanken und es bildeten sich Demokratien mit allgemeinem Wahlrecht. Vgl. John Higgs: Alles ist relativ und anything goes, Berlin 2016, S. 69ff.

Wirtschaftsgeschichte und Geschichte allgemein haben generell in Asien einen höheren Stellenwert. In Mesopotamien, im Zweistromland, entstand das erste Wirtschaftssystem der Geschichte. Zwei Sprünge waren dafür entscheidend: Sprache (mit Schrift) und Überschuss. Die schriftliche Verbuchung der Erntemengen steht am Beginn der Erschaffung von Schulden und Geld. Besitzrechte an Getreidevorräten wurden auf Muscheln oder ersten Metallmünzen notiert. Entscheidend war der Glaube an den Tauschwert dieser Einheiten (Glauben = Credere). Eine kollektive Institution (Staat) wachte darüber. In Mesopotamien (das Land zwischen den Flüssen: Euphrat und Tigris). Drei der wichtigsten Zivilisationen sind dort entstanden: Sumerer, Babylonier, Assyrer. In vielerlei Weise waren die Mesopotamier ihrer Zeit voraus: Frauen galten aus Individuen mit eigenen Rechten, besaßen Land, konnten sich scheiden lassen und Geschäfte führen. Die erste Stadt Uruk bedeutet den Anfang von Schrift, Architektur und Städtewesen. In China wird immer wieder darauf verwiesen, dass das Land bis Mitte des 19. Jahrhunderts die größte Volkswirtschaft der Erde war und das viele technologische Errungenschaften aus China kommen. Das Land verfügt über eines der ersten Schriftsysteme der Welt (Jiahu - Schrift, 6600 v. Chr., am gelben Fluss). Schon 4000 vor Christus begannen die ersten Bauern in Südchina, Nutzpflanzen wie z. B. Reis zu kultivieren . In den Lehrbüchern der Wirtschaftsgeschichte oder überhaupt in der Geschichte werden in der Regel die Vorgänge in China ausgeblendet. Das ist verwunderlich, weil das Land von 800 n. Chr. bis ins 18. Jahrhundert die größte Volkswirtschaft der Erde hatte. Entsprechend einflussreich waren die Ereignisse in China für Asien und die ganze Welt. Frühe chinesische Münzen bestanden oft aus Bronze und Kupfer und hatten ein Loch in der Mitte. China war wie alle Reiche dieser Zeit eine Agrarwirtschaft, konzentrierte sich aber allein auf seine Binnenwirtschaft und verteidigte seine Außengrenzen (chinesische Mauer; geringer Handel über die Seidenstraße). Diese wirtschaftliche Ausrichtung änderte sich grundlegend in der Ming-Dynastie (Herrschaftsepoche von 1368-1644).  Die Ming perfektionierten das Steuersystem im Inneren und schufen ein Tributsystem mit den Nachbarstaaten. Sie setzten sehr stark auf den Außenhandel, zunächst in Asien und später mit dem maritimen Europa (Exporte: Porzellan, Seide, Tee). In diese Epoche fallen auch die Fahrten von Eunuch Zheng He über fast die ganze Welt. Sogar kulturell und technisch will man von Innovationen aus Europa profitieren (Aufnahme von Jesuiten, z. B. Matteo Ricci; Astronomie; als "Sohn des Himmels" musst der Kaiser die Zeit im Griff haben). Venedig war zu der Zeit eine Weltmacht im globalen Handel und hatte nahezu ein Monopol im Handel mit China. Aus China importiert wurde Seide und Porzellan. Nach China exportiert wurden Textilien, Schmuck, Gewürze, Lederwaren, edle Hölzer, Pelze. Die Polos hatten Kontore am Ural. Sie betrieben Handel über die Seidenstraße zur Zeit der "Goldenen Horden" der Familie Khan. Marco Polo soll Kublai Khan, den Enkel von Dschingis Khan in Dunhuang oder Shangdu getroffen haben. Der machte ihn zu seinem Präfekten. Marco Polos Lieblingsstadt in China soll Hangzhou gewesen sein. Auf dem Seeweg reiste Polo zurück (von Quanzhou aus, der Partnerstadt von Neustadt Weinstraße).  Marco Polo (1271-1295; in genuesischer Gefangenschaft schrieb er seine Erlebnisse auf; das Erfolgsbuch prägte vor den Jesuiten das Chinabild der Europäer) Er reiste, berichtete und brachte viele Produkte und  Erfindungen aus China, das zu der Zeit die technologische Führungsmacht der Welt war, nach Europa. An den Erzählungen Marco Polos zweifelten schon die Zeitgenossen. 17 Jahre will er das Land bereist haben. Beim Schreiben half ihm der Mitgefangene Rustichello da Pisa. Das Buch heißt "Il Milione". Es wurde in zahlreiche Sprachen übersetzt. Die Dogenrepublik hatte in ihrer Blüte die Kontrolle über Konstantinopel, große Teile der Türkei und Griechenlands einschließlich der Insel Kreta. Venedig war im vierzehnten Jahrhundert die wichtigste Handelsstadt Europas und wohl auch der Welt. Mit der Entdeckung Amerikas 1492 begann der Abstieg der Dogenrepublik. Venedig konzentrierte sich dann auf das "Terra ferma", das Hinterland. Sehr fortschrittlich war das Regierungssystem der streng oligarchisch strukturierten Republik. Adelsfamilien hatten ein perfektes System der zeitlichen Arbeitsteilung von Regierung und Gerichten entwickelt. Führend waren in der Zeit auch viele wichtige Künstlerpersönlichkeiten (Bellini, Canova, Giorgione, Palladio, Tizian, Tintoretto).

Damit läuft hier etwas ab, was sich ab Ende der Achtzigerjahre des vorigen Jahrhunderts wiederholt. Interessant ist die Frage, warum China im 18. Jahrhundert den Anschluss an die führenden Ökonomien im Westen verlor. Hierzu hat der deutsche Ökonom Werner Sombart wichtige Faktoren des Kapitalismus beschrieben: Wettbewerb der Länder durch Kriege und durch Prestigekonsum.  Metropolen sind immer Fixpunkte der Weltwirtschaft gewesen. Viele sind irgendwann grandios gescheitert: So etwa Brügge in Belgien, Lübeck in Deutschland, Venedig in Italien  oder Turku in Finnland. Sie scheiterten an verschiedenen Faktoren: Kein Zugang mehr zum Meer, Handelswege änderten sich, falsche Investitionen, politischer Wandel.

Die Menschheit machte den größten Fortschritt ihrer Geschichte durch landwirtschaftliche Revolutionen. Zuerst in Mesopotamien um 9000 v. Ch. (die Wiege unserer Zivilisation, die ab 2014 systematisch vom IS zerstört wurde, z. B. Nimrud), dann in China um 7000 v. Ch., später in Nordafrika, Mittel- und Südamerika und Europa. In Mesopotamien kommen sieben wichtige Erfindungen: die Schrift, die Monarchie, die Medizin, das Rechtswesen, das Geld, die Zeitmessung und das Rad. Einen weiteren großen Fortschritt brachte die Spezialisierung (z. B. nur Getreide, Produktivitätssteigerung, dann Tausch der Produkte mit anderen Menschen).  In Lydien wurden um 600 v. Chr. die ersten Münzen der Welt geprägt (in Sardis unter König Krösus; hier trafen sich die wichtigsten Handelsströme der damaligen Welt und der Tauschhandel musste vereinfacht werden; Kurantmünzen mit festen Regeln nach Gewicht und Reinheit; die Münzen waren aus einer Gold-, Silber-Legierung). Vorher waren in Indien Kaurimuscheln ein Zahlungsmittel. Der wissenschaftliche und technische Fortschritt aus Ägypten,  Persien und Arabien fasst zunächst in Europa auf der Insel Kreta Fuß.  Die ersten großen Reiche der Erde, angefangen von Mesopotamien über die Qin-Dynastie in China und das Römische Reich waren Kooperationsnetzwerke, die sich eine Ordnung mit Werten gegeben haben. 1776 v. Ch. war Babylon die größte Stadt der Welt (das Rechtssystem war der Kodex Hammurabi). Die Sumerer erfanden das erste Datenverarbeitungssystem der Geschichte, das ca. 5000 Jahre alt ist. Sie nannten es Schrift (hier wurde zum ersten Mal Information gespeichert und verbreitet; die Tontafeln waren auch Empfangsquittungen). Sie verfassten auch den ältesten Mythos der Menschheit, das Gilgamesch-Epos. Es geht im Kern um den Sieg des Menschen über den Tod. Der Feldzug Alexander des Großen über Persien und Indien nach Afghanistan im vierten Jahrhundert vor Christus brachte viele Hoch-Kulturen zusammen. Alexander ließ Münzen prägen aus Silber. Er brauchte die Münzen als Sold für seine Soldaten; die Münzen waren aber in der ganzen damaligen Welt gültig (das meiste Silber dafür eroberte er in Persien: 9 Mio. kg = heute 4 Mrd. €). Vor den Römern beherrschten die Kelten Europa (sie besiegten 387 v. Chr. die Römer an der Allia, Nebenfluss des Tiber; Anführer Brennus; Rom kauft sich mit 1000 Pfund Gold frei; "Vae victis"; Geschichtsschreiber Livius). Sie waren technologisch (Waffentechnik) überlegen, zerfielen aber in viele Stämme. Die Römer und später Karl der Große schafften  schon ein erstes Großeuropa (Vorläufer der EU). Von großem Einfluss auf die wirtschaftliche Entwicklung der Erde waren die Wikinger (von vrikingr - "Seekrieger auf langer Fahrt"). Sie erlebten ihre Blütezeit Ende des 8. Jahrhunderts an bis in die Mitte des 11. Jahrhunderts. Sie verwüsteten im 800 Jhrdt. einerseits das damalige "Silicon Valley" in Nordostengland (Kloster Lindisfarne, Jarrow; die Klöster lagerten Gold); andererseits verbreiteten sie die Kultur und prägten die Entwicklung der englischen Sprache, die heute Weltsprache und Wirtschaftssprache ist und stellten die Technik für Schiffbau und Weltreisen zur Verfügung (auch noch im 11 Jhrdt. als Normannen). Die Beutezüge waren wahrscheinlich Initiationsriten für junge Krieger, denn die Wikinger waren reich. Grundlage war eine Sklavengesellschaft (Sklaven als Geiseln der Raubzüge oder als Waren und Arbeitskräfte). Ihre technischen Errungenschaften sind heute noch sichtbar (Langboote, Langhäuser, Häuser aus Torf). Sie verehrten noch die Götter Odin, Thor und Freya. Sie reisten über Flüsse und Meere nach Istanbul, Bagdad und Russland. Von der Wikingerbezeichnung "Rus" kommt das Wort Russland. Eine wichtige Handelsstation war Nowgorod. Die Wikinger entdeckten auch Amerika (Neufundland: L´ance Au Medows, Point Rosee waren Siedlungen mit Eisenverarbeitung). Ihr Anführer dabei war Leif Erickson um 1000 n. Chr. Von ihren Reisen berichten die Sagas. Die Indianer vertrieben die Wikinger wieder, auch weiter aus dem Süden (New Brunswick). Um 900 n. Chr. verbreiteten die Wikinger den arabischen Dirham (Münze). Berühmt wurde auch König Blaubart (er ist Namensgeber heute für Bluetooth; 2018 wird ein Schatz von ihm auf Rügen gefunden; er musste vor seinem Sohn fliehen; er liegt im Dom von Roskilde begraben). Berühmte Wikinger Handelsplätze kann man noch heute besichtigen (Haitabu/ Weltkulturerbe; Ribe; Roskilde; Aarhus). Frauen hatten bei den Wikingern eine stärkere Rolle als im Christentum (Erbrecht, Scheidung, Haushaltsführung während der Reisen der Männer). Die Wikinger traten zum Christentum über, um ihre Handelspartner nicht zu verlieren. Man weiß nicht viel über die Wikinger, weil sie keine schriftlichen Überlieferungen hinterlassen haben (sie waren wohl nicht so grausam wie überliefert, das Wort Berserker steht für leicht bekleidete Kämpfer). Im Jahr 1500 n. Chr. lebten 500 Mio. Menschen auf der Erde, heute sind es fast 8 Mrd. Vor dem 16. Jahrhundert hatte noch nie ein Mensch die Erde umrundet, was sich 1522 mit Magellan änderte (1492 wurde Amerika durch Kolumbus angesteuert und für wirtschaftliche Zwecke genutzt: Edelmetallausbeutung und Handel mit Tabak, Baumwolle u. a.; vorher waren die Wikinger schon da, s. o.). Von 1500 bis 1800, also dreihundert Jahre, wurden Sklaven von Afrika nach Amerika und Asien transportiert, um die arbeitsintensive Landwirtschaft ausbauen zu können. Die meisten Sklaven kamen aus Ghana (Cape Coast). Die meisten waren junge Männer, die in den Heimatländern schmerzlich vermisst wurden. Bis zu 20 Mio. Sklaven wurden transportiert. Die Profite blieben in den europäischen Kolonialländern (Spanien, Portugal, Niederlande, Großbritannien, Deutschland). Es waren die ersten großen Wertschöpfungsketten (Rohstoffe aus Amerika, Sklaven nach Amerika, Waffen nach Afrika). So vermischten sich ganze Kulturen (erzwungene Migration in großem Ausmaß). In den vergangenen fünf Jahrhunderten schafften es die Europäer am besten, Wissenschaft, Kapital und Imperialismus zu verknüpfen und schufen sich ein Weltreich (Vgl. Yuval Noah Harari: Eine kurze Geschichte der Menschheit, München 2013, S. 134ff.). In der industriellen Revolution wurden die fossilen Energiequellen optimal genutzt und verarbeitet. Industrieproduktion schaffte Wirtschaftswachstum, wälzte das Alltagsleben um und änderte die Menschen (Verstädterung, Jugendkultur, Niedergang des Patriarchats, Schwinden der Familie, weniger Gemeinschaft). 1857 bricht die erste Weltmarktkrise aus, eine Krise der Überproduktion. Karl Marx, der in London zu der Zeit lebte, sieht sich in seinen Vorhersagen bestätigt, Friedrich Engels verliert die Hälfte seines Vermögens.  Seit Beginn des 21. Jahrhunderts verliert der Nationalstaat an Boden. Kein Nationalstaat ist mehr vollständig souverän in dem Sinne, dass er eine eigenständige Wirtschaftspolitik machen kann. Weltmärkte, Multis und NGO zeigen Grenzen auf und beeinflussen. "Iß nun das Brot, O Enkidu, denn das gehört zum Leben. Trink auch vom Bier, wie es des Landes Brauch", Gilgamesch-Epos. Vgl. Tomas Sedlacek: Die Ökonomie von Gut und Böse, München 2013, S. 33ff.

Der Kapitalismus als Wirtschaftssystem, das auf der Idee basiert, aus Geld Geld zu machen (Zugewinn im Mittelpunkt), entsteht um 1300 in Italien (um 600 v. Chr. wird im kleinasiatischen Lydien erstmals Geld verwendet). Der Markt ist das Herzstück. In Florenz und anderen Städten Mittel- und Norditaliens entstehen Banken (Bankwesen) und das System der doppelten Buchführung (der Mönch Luca Pacioli beschreibt dies erstmals in einem Lehrbuch 1494). Die Zisterzienser, ein Orden, waren im Mittelalter wirtschaftlich über vier Jahrhunderte außerordentlich erfolgreich. Sie entwickelten ein System der Betriebswirtschaftslehre. Sie scheiterten an Gegensätzen zwischen Laienmönchen und Hauptmönchen, die sehr privilegiert waren. Je komplexer der Handel und je ausgeprägter die Arbeitsteilung, desto wichtiger wird das Geld (um Güter nicht direkt gegeneinander zu tauschen, auch der Kredit). Um 1250 gibt es die ersten Banken, die Kaufleuten Darlehen für die Geschäfte ermöglichen. Später entstehen bargeldlose Zahlungsmittel, Aktien, Schuldscheine. 1324 n Chr. kommt es zu einer der ersten und berühmtesten Inflationen der Geschichte: Mansa Musa, König von Mali und damals reichster Mann der Welt, macht seine Reise nach Mekka und gibt dabei soviel Gold aus, dass der Goldpreis weltweit verfällt und 20 Jahre braucht, um sich wieder zu erholen. Von Mitte des 12. bis Ende des 17. Jahrhunderts bildete sich das bedeutendste wirtschaftliche Netzwerk im nördlichen Europa, die Hanse. Sie steht für die Blüte des Fernhandels.  In Lübeck zeigt das Europäische Hansemuseum Aufstieg und Niedergang der Kaufmannsvereinigung. 1531 entsteht in Antwerpen die erste feste Börse, um das Kapital zu kontrollieren. Um 1750 erfasst der Kapitalismus verstärkt die Produktion von Gütern. Immer mehr Anleger beteiligen sich auch an Unternehmen. Dann kommt die industrielle Produktion ab 1800, die alle Lebensbereiche verändert. Die industrielle Revolution ist die größte ökonomische Umwälzung der Geschichte nach der Sesshaftwerdung. Zu Beginn des 17. Jahrhunderts tragen niederländische Kaufleute den Kapitalismus in die Welt. Sie gründen die Vereinigte Ostindien-Kompanie (VOC) für das profitable Gewürzgeschäft (um das Monopol der Portugiesen zu brechen). Die Fahrten zu den Gewürzinseln in Südostasien dauerten Monate (mindestens acht) und waren teuer, so dass Investoren Anteile zeichneten. Vgl. Geo Epoche: Der Kapitalismus, Nr. 69, 2014. Der Kolonialismus wurde auch rassistisch begründet (Überlegenheit der Europäer). Eine zentrale Frage des Kapitalismus ist, woher ursprünglich das Kapital kommt, was sich so famos vermehrt (Sündenfall). Marx führt die ursprüngliche Akkumulation auf Verbrechen zurück. Als Beispiele nennt er im "Kapital" den Raub der Kirchengüter oder den Raub von Gemeindeland in GB (Schottland), der den Bauern die Lebensgrundlage entzieht. Eine wichtige Frage ist, ob Privateigentum notwendigerweise zum Kapitalismus gehört (in China nur Volkseigentum mit Nutzungsrechten).   "Jeder Manager, der erfolgreich sein will, muss den Kapitalismus als dauernden Umbruch und Neubeginn begreifen", Dieter Schnaas, Immer mit der Ruhe, in: Wirtschaftswoche 1/23.12.2015, S. 77.

Geld bzw. Kapital als gesammeltes Geld ist die größte Antriebskraft und eine wichtige Quelle allen Fortschritts in der Wirtschaft und auch des Kapitalismus, gleichzeitig ist Geld ein Schmiermittel, das Milliarden wirtschaftlicher Transaktionen begleitet. Der direkte Handel (Barter Trade, Tauschhandel; 10.000 v. Chr. - 3000 v. Chr.) war zu ineffizient, Münzen und Tontafeln (vor 4000 Jahren Babylon) waren zu unbequem. Also entstanden Banknoten (in China, von Quittungen hergeleitet) und der Zahlungsverkehr in den Banken. Geldsysteme entstanden mit der Finanzierung von Kriegszügen, z. B. bei den Römern oder im Mittelalter für die christlichen Kreuzzüge. In Oberitalien entstanden im 12. Jahrhundert die ersten Seehandelskredite, die indisch-arabische Zählweise wurde übernommen und es wurden in Florenz die ersten modernen Banken gegründet. Im 15. Jahrhundert wird dort die doppelte Buchführung eingeführt (siehe oben).  Mit der Entdeckung Amerikas und dem Seeweg nach Indien beginnt ein Aufschwung des Fernhandels und der Kapitalgesellschaften. Edelmetalle, an die das Geld lange Zeit gebunden ist, gelangen in großen Mengen nach Europa. 1531 wird in Antwerpen im heutigen Belgien der erste öffentliche Finanzplatz der Welt eröffnet (Van der Beurze). 1618 stürzt der Dreißigjährige Krieg Deutschland ins Chaos. Der Konfessionskrieg wird zum Kampf um die Vormachtstellung in Europa. Er entwickelt sich zu einer Art Urkatastrophe. Zahlreiche Dokumente belegen Folter, Mord und Vergewaltigung an der Zivilbevölkerung. Hungersnöte und harte Winter verschlimmern die Lage. Für Traumatisierungen gibt es keine Belege. Wahrscheinlich bot die Religion Erklärungsmodelle und auch Möglichkeiten, mit der Krise umzugehen. Im 18. Jahrhundert lösen Aktien von John Law die erste Spekulationsblase aus (Law verkaufte Aktien für die Mississippi Compagnie, aber es gab kein Gold in Louisiana; manche gehen auch vom holländischen Tulpenwahn 1637 aus). Damit gilt John Law auch als einer der "Erfinder" des modernen Kapitalismus. 1716 erhält er per königlichem Dekret die Erlaubnis, in Paris die Banque Generale zu gründen. Um sich Gold zu beschaffen, beteiligt Law das Volk (er verkauft Aktien). Die erste große Gelddynastie waren die Medici in Florenz. Es folgten die Fugger in Deutschland und die Rothschilds in Frankfurt, Paris, London und New York. Vgl. Sonderheft Nr. 4 des Spiegel: Geld, 2009. Die erste große Krise der Weltwirtschaft in der Neuzeit war 1857. Sie wurde von der Ohio Life Insurance Company ausgelöst. Sie hatte zu viel Geld in spekulative Anleihen für Eisenbahngesellschaften investiert. Diese Krise war allerdings rasch überwunden. Geld beruht auf zwei universellen Prinzipien: Es ist universell tauschbar. Mit Geld lässt sich fast alles umwandeln bzw. kaufen (Loyalität, Gesundheit, Wissen, Gerechtigkeit). Geld schafft Vertrauen. Geld kann Menschen immer dazu bringen, zusammen zu arbeiten. In der heutigen Welt ist die physische Präsens des Geldes nicht mehr notwendig, es könnte auch ausschließlich in digitaler Form existieren.

Ganz wichtig sind auch die technologischen Errungenschaften der Menschheit für die Ökonomie. Technikos bedeutete im Griechischen Handwerk, Kunstfertigkeit. Schon seit 2,5 Mio. Jahren vor Christus gab es einfache Steinwerkzeuge. 1,5 Mio. Jahre vor Chr. kam das Feuer. Erste Speere werden auf 400.000 v. Chr. datiert. Pfeil und Bogen kamen um 20.000 v. Chr. 9000 v. Chr. konnte man die ersten Metalle verarbeiten. 7000 v. Chr. lernte man das Fertigen von Keramiken. 5.500 v. Chr. wurde der erste Pflug erfunden. 5000 v. Chr. hatten die Ägypter schon Bewässerungssysteme am Nil. 3.500 v. Chr. wurde das Wagenrad erfunden. 1.800 v. Chr. gab es Windmühlen in Babylon. 400 v. Chr. nutzten die Chinesen den ersten Kompass. 150 v. Chr. wird in Rom der erste Beton verbaut. Um 650 n. Chr. wird Schwarzpulver in China oder Byzanz entdeckt. 868 n. Chr. machen die Chinesen den ersten Buchdruck (Holztafeldruck). 1712 gab es die erste Dampfmaschine. 1993 beginnt die Zeit des für alle zugänglichen Internets. Vgl. Lesch, h./ Kamphausen, K.: Dei Menschheit schafft sich ab, München 2018, S. 136ff.

Die Gedanken und Ideen der einflussreichsten Ökonomen waren auch durch die Zeit, in der sie lebten, geprägt. Der Ökonom Atonio Serra in Venedig abstrahierte 1613 eine Wirtschaftspolitik zur Theorie, die Jahrhunderte lang praktiziert worden war (vgl. Erik S. Reinert: Warum manche Länder reich und andere arm sind, Stuttgart 2014, S. 3). Adam Smith (1723 bis 1790, gilt als "Urvater" der Volkswirtschaftslehre) entwickelte das Wettbewerbskonzept der "unsichtbaren Hand". Er bricht mit der bis dahin herrschenden dirigistischen Wirtschaftsform des Merkantilismus (Zölle, Exportsubventionen). Als Zollbeamter liegt sein Focus auf Kauf und Verkauf grenzüberschreitend. James Watt, der Erfinder der Dampfmaschine (und damit Begründer der ersten industriellen Revolution), war zwar ein guter Bekannter.  Aber die Industrialisierung spielt in der Theorie von Smith noch kaum eine Rolle. Ein Freund war der Philosoph David Hume (Watt, Hume und Smith kannten sich vom Studium an der Uni Glasgow). Werte stehen auch im Zentrum der Theorie von Smith. David Ricardo (1772-1823) plädierte mit seinem Konzept der komparativen Kosten für internationalen Handel (die Unterscheidung zu den absoluten Kosten war revolutionär; auch Arbeitswertlehre). Als weitere Klassiker gelten Thomas Robert Malthus (1766 - 1834, Bevölkerungsmodell) und Jean Baptiste Say (1767 1832, Angebotshypothese). Karl Marx (1818 bis 1883) analysierte den Kapitalismus und knüpfte an die Arbeitswertlehre von Ricardo an. Die ersten 30 Jahre seines Lebens verbrachte er in Trier, Bonn, Köln, Berlin, Jena, Paris, Brüssel), die nächsten Jahre als Staatenloser im Exil in London, wo er auch in Highgate begraben ist. Alfred Marshall (1842 bis 1924) führte das Angebots-Nachfrage-Modell (Marshall-Diagramm) ein und begründete die Wohlfahrtsökonomie.  Leon Walras (1834 - 1910), Hermann Heinrich Gossen (1810 - 1858) und William Stanley Jevons vervollständigen, was die Ökonomen heute neoklassische Mikroökonomik nennen. John Maynard Keynes, ein Schüler von Marshall und wohl größter Ökonom des 20. Jahrhunderts (1883 bis 1946), baute ein neues makroökonomisches Modell, um Weltwirtschaftskrisen zu bekämpfen (Dominanz und Unterstützung der Nachfrage, staatliche Programme, zweites umfassendes makroökonomisches Modell nach Karl Marx). Milton Friedman (1912 bis 2006) wies auf die einmalige Rolle des Geldes hin (Monetarismus). Walter Eucken, Ludwig Erhard und Alfred Müller-Armack bauten die Wirtschaftsordnung der Sozialen Marktwirtschaft in Deutschland nach dem 2. Weltkrieg theoretisch und praktisch auf. Reinhard Selten bekam als einziger deutscher Ökonom für seinen Beitrag in der Spieltheorie den Nobelpreis (lehrte lange in den USA, zuletzt wieder in Deutschland an der Uni Bonn). Berühmte deutschsprachige Ökonomen (Österreicher), die auch in den USA lehrten und in Englisch veröffentlichen, waren J. Schumpeter (1883-1950, "dynamischer Unternehmer"). Er erfand die Vierphasentheorie des Konjunkturzyklus. Kapitalismus ist für ihn "ein Prozess der schöpferischen Zerstörung". Es ist für ihn auch weniger ein Wirtschaftssystem als eine "Kulturform". Gedanklich hat er so Disruption vorweggenommen. F. A. von Hayek (1899-1992, liberales Denken, Nobelpreis) ist ein weiterer international wirkender bekannter deutschsprachiger Ökonom. Als Gründervater der modernen Volkswirtschaftslehre gilt Paul Anthony Samuelson (1915-2009), der das erste weltweite Lehrbuch verfasste und einer der letzten Generalisten war. Mit seinem Faktorpreisausgleichstheorem prägte er eine Denkweise, an die Globalisierung heranzugehen (weltweit für Alle ist Außenhandel von Vorteil) . Die andere Denkrichtung verweist darauf, dass freier Handel die Einkommensschere zwischen reichen und armen Ländern vergrößern kann (z. B. so der schwedische Ökonom Gunnar Myrdal).  Zur Zeit ist für die Allgemeine Volkswirtschaftslehre das Lehrbuch von N. G. Mankiw (Economics) wegweisend (wenn auch zu wenig formal). Inzwischen gibt es eine Kurzfassung das Buches (auch in Deutsch, 2015), die besser ist. "Ökonomieexperten arbeiten für den Applaus ihrer eignen Kollegen", Paul Samuelson an die New York Times, 1974.

Aber auch vor den großen Ökonomen und ihren Theorien gab es ökonomische Analysen im Rahmen der Philosophie. Wichtige Elemente finden sich bei den klassischen griechischen Philosophen Sokrates (Ethik), Platon (Aufbau der Gesellschaft, idealer Staat) und Aristoteles (z. B. Allmendeproblem; Eigentum Privatbesitz; Logik; Wohlergehen). Xenophon kann als der größte ökonomische Denker der antiken Philosophie bezeichnet werden. 400 Jahre vor Christus schildert er wichtige Grundlagen (Gespräch über die Haushaltsführung; Mittel und Wege, dem Staat Geld zu verschaffen; Gewinnmaximierung; auf ihn soll auch die Verbindung von Oikos und Nomos zurückgehen als Kunst der Haushaltsführung). Hesiod kann als erster bekannter Ökonom überhaupt benannt werden. Er lieferte Grundideen für die moderne Chaostheorie und definierte Arbeit als Quelle allen Guten für die Menschen. 100 Jahre später liefern Thales (Olivengeschäft), Archimedes und Pythagoras (Geometrie) wichtige mathematische Grundlagen. Das mittelalterliche Denken, vor allem Augustinus (Der Gottesstaat), haben einen Beitrag geleistet (z. B. kanonisches Zinsverbot, "gerechter Preis", Asketismus). Thomas von Aquin (Scholastik) bereitet mit seiner Weltzugewandtheit, seinen Gedanken über die Natur des Menschen, seine Auseinandersetzung mit der Vernunft den Boden für ökonomisches Denken. Zusammen mit seinem Lehrer Albertus Magnus in Köln  bereitete er auch die Ideenwelt des Aristoteles für den lateinischen Westen auf. Er war im Mittelalter der erste Denker, der sich mit wirtschaftswissenschaftlichen Fragestellungen befasste (Summa contra gentiles; Gerechtigkeit; ethische Grundlagen der Ökonomie; wirtschaftliche Aspekte menschlichen Zusammenlebens). Mitte des 12. Jahrhunderts beginnt die Geschichte der Hanse. Es war eine Schwurgemeinschaft von Fernhandelskaufleuten, um die langen  und gefahrvollen Handelsreisen nach England, Skandinavien und Russland bestehen zu können. "Eng wohnen, weit denken" war der Wahlspruch der Hansekaufleute (in der Altmark gab es die größte Dichte von Hansestädten). Die Vorstufe der EU brauchte, um erfolgreich zu sein, kein von Wissenschaftlern gemachtes Fundament (wie so oft im Geschäftsleben und in der Geschichte). "Es ist das gemeinsame Wohl, das die Städte reich macht", Niccolo Machiavelli, 1469-1527. 1485 betreibt Heinrich VII. eine strategische Wirtschaftspolitik in England (Ausfuhrzoll). Heinrich VIII führte von 1542-1551 eine Abwertung durch, indem er den Silberpenny nur noch zu einem Viertel aus Silber prägte (drei Viertel Kupfer). Als die Spanier jährlich 350 Tonnen Silber aus Potosi (Bolivien) nach Europa importierten war eine Jahrhundert-Inflation die Folge (1540-1640).    Fugger finanziert ab 1505 eine portugiesische Indien-Expedition. Die wachsende Nachfrage nach Gewürzen und die Hoffnung auf Gold und andere Edelmetalle trieb damals Seefahrer auf die Weltmeere.  Große süddeutsche Kaufmannsfamilien wie die Fugger und die Welser profitierten von der ersten Welle der Globalisierung. Martin Luther wetterte gegen die "Ökonomisierung aller Lebensverhältnisse". Er hatte Vorbehalte gegen Geld und unternehmerische Freiheit. Als Beispiel hatte er besonders die Familien Fugger, Tucher und Welser vor Augen, die ihr Geld in Übersee scheffelten (Venezuela, Indien). Sogar die Kaiser waren von ihnen finanziell abhängig. Es gab Staatsschulden, Spekulanten, Globalisierung, Konzentration von Finanzkapital - genau wie heute. Luther stand in seiner Einstellung zur Wirtschaft in der Tradition von Aristoteles und Thomas von Aquin. Konkret störte Luther besonders die kirchliche Sündenverwaltung über Ablass. Er sprach von Mammonismus. "Höchst geschäftig soll ein Christ nicht im Umgang mit Geld, sondern allein gegen den nächsten sein", Martin Luther. Insofern ist die Max Weber-These kurios. Er behauptet ja, dass die protestantische Ethik zur Wirtschaftsgesinnung und damit Entwicklung des Kapitalismus geführt habe. Um 1630 befürwortet Thomas Mun eine merkantilistische Politik. Josiah Child beschreibt 1668 den Freihandel.  William Petty zeigt 1682, wie die Wirtschaftsleistung gemessen werden kann. Der Ire Richard Cantillon (1680 - 1734) analysiert Wohlstand, Handel und internationalen Zahlungsverkehr. Der Franzose Francois Quesnay und die Physiokraten erstellen 1758 Das "Tableau economique" (geht auf William Harvey von 1628 zurück). Die großen Rationalisten (Descartes), die großen Empiristen (Hume) und die revolutionären Denker und Aufklärer in Frankreich (Voltaire, J. J. Rousseau) liefern Beiträge und haben Einfluss. Descartes liefert mit seinem Denken die Wurzeln zum Homo oeconomicus. Der Mensch als Maschine ("Cogito, ergo sum") handelt rational (Reduzierung des Menschen). Bernard Mandeville (The Fable of the Bees; or Privat Vices, Public Benefits, Oxford 1924) erweitert diese Konzeption und schafft den Gedanken, dass wir Gier als Antriebskraft in der Ökonomie brauchen. In Cambridge entsteht ab 1900 die Analytische Philosophie, die zur einflussreichsten Philosophenschule des 20. Jahrhunderts wird. Hier wirken G. E. Moore und Bertrand Russell, die Ludwig Wittgenstein und J. M. Keynes und später Popper in ihrem Denken prägen. 

Die großen deutschen Ökonomen (gemessen an der praktischen Relevanz und Bekanntheit im Ausland) finden in Deutschland eher weniger Beachtung (lieber beruft man sich auf US-Wurzeln ohne die notwendige wissenschaftliche Distanz; man muss ja in US-Zeitschriften rein, um Karriere zu machen). Die Tradition der deutschen Ökonomie geht bis ins 17. Jahrhundert zurück: Veit Ludwig von Seckendorff (1626-1692), Philipp Wilhelm von Hörnigk (1640-1714; beide kameralistische Wirtschaftspolitik),  Simon Peter Gasser (1646-1716) und Jacob Bielfeld (1717-1770; am Hofe Friedrich des Großen, Hauptwerk: Institutions Politiques) sind hier als kleine Auswahl zu nennen. Hinzufügen kann man noch Gottfried Wilhelm Leibnitz (1646-1716) und Christian Wolff (!679-1754), die auf der Naturrechtstradition beruhen und die moderne Staatstheorie prägten. Johann Heinrich von Thünen (1783-1850; Der isolierte Staat, 1826; vier konzentrische Kreise; Begründer der Wirtschaftsgeographie) hat stark die amerikanische Volkswirtschaftslehre beeinflusst, von wo die Erkenntnisse wieder nach Deutschland kamen (z. B. Neue Ökonomische Geographie, P. Krugman). Karl Marx (von der Ausbildung her Jurist und Philosoph) ist heute noch in China ein Held. Sein Buch "Das Kapital" ( aber auch das Kommunistische Manifest) gehört zu den meistgelesenen der Welt. Viele Ökonomen und vor allem Chinesen verehren auch Friedrich Engels, der Marx ideell und materiell unterstützte. Seine Umrisse zu einer Kritik der Nationalökonomie sind auch heute noch lesenswert. Die Chinesen pilgern zu seinem Geburtshaus in Wuppertal. Engels unterstützte Marx auch indirekt, indem er Artikel schrieb, die Marx unter seinem Namen in der New York Tribune viele Jahre veröffentlichte. Dadurch schieb Marx zu allen aktuellen Ereignissen der Zeit (z. B. Opiumkrieg), was zu den vielen Praxisbeispielen im "Kapital" beitrug. "Welche Elastizität, welche historische Initiative, welche Aufopferungsfähigkeit in diesen Parisern! Nach sechsmonatlicher Aushungerung ... erheben sie sich, unter preußischen Bajonetten ... Die Geschichte hat kein ähnliches Beispiel ähnlicher Größe", Karl Marx. Im gleichen Jahr wie Marx, nämlich 1818, wurde Friedrich Wilhelm Raiffeisen geboren. Von seiner Wirkung auf die Ökonomie her ist er nach Marx der größte deutsche Ökonom (eigentlich Sozialrevolutionär und Verwaltungsbeamter). Seine Idee prägt heute die Sharing Economy und ist stark auf dem Vormarsch im Zeitalter der Digitalisierung.  Zwei Kerngedanken waren revolutionär: Kredite und Geschäftsanteile sind soziale Bindemittel; auch bei knappen Gütern können Menschen partnerschaftlich zusammenarbeiten. Seine Konzeption ist außer in Deutschland sehr erfolgreich in Japan, Indien,  Brasilien und mittlerweile auch in den USA. Sehr bekannt in Asien ist noch Friedrich List, einer der führenden Theoretiker des Protektionismus.  Er lebte von 1789 bis 1846 (erschoss sich). Geboren wurde er in Augsburg, wo man mehr über ihn erfahren kann. Promoviert hatte List wie Marx in Jena. Er war der weltweit wichtigste Zolltheoretiker (Erziehungszoll!). Er war auch Entwicklungstheoretiker (Kritiker von Malthus, Innovation bewältige jedes Bevölkerungswachstum; er kritisiert auch überzeugend die Arbeitswertlehre; lebt auch eine Zeitlang in den USA). Während er heute in Deutschland relativ unbekannt ist, gilt er in Entwicklungs- und Schwellenländern als einer der größten deutschen Ökonomen (auch in Japan). Einen wesentlichen Einfluss auf die ökonomische Entwicklung hatte in Deutschland die Reformation. Sie löste einen Bildungsschub der Bevölkerung aus. Auch wesentlich später noch im 19. Jahrhundert lagen Schulbesuch und Bildungsniveau in protestantischen Gegenden höher als in katholischen. Das prägte die ökonomische Entwicklung positiv. Eine herausragende Bedeutung hat in Deutschland der "Verein für Socialpolitik". Durch die Industrialisierung entstand im 19. Jahrhundert in Deutschland ein Millionenheer von Arbeitern, die für Hungerlöhne in den neuen Fabriken schufteten und in Slums hausten. Der Verein beschäftigte sich als erster damit und schuf die Grundlagen der modernen Wirtschafts- und Sozialstatistik und machte die Probleme der Gesellschaft sichtbar. Die ersten Vertreter wurden als "Kathedersozialisten" (Begriff stammt vom Ökonomen Heinrich Oppenheim) beschimpft, obwohl der Verein gutbürgerlich war. Er schuf auch das Know-how für die Sozialversicherung von Bismarck. Einer der bekanntesten Vertreter war Gustav von Schmoller (wurde 1908 für seine Verdienst geadelt; Hauptvertreter der Historischen Schule). Er vertrat eine normative Sozialwissenschaft und eine staatliche Sozialpolitik zum Abbau von Klassengegensätzen. Zeitlose ökonomische Gesetze lehnte er ab. Carl Menger, der von 1840 bis 1921 lebte und in der österreichisch-ungarischen Monarchie geboren wurde, schrieb grundlegende Werke (Grundsätze der Volkswirtschaftslehre, Untersuchungen über die Methode der Sozialwissenschaften und der Politischen Ökonomie). Der größte Wissenschaftler dieser Zeit war wohl Werner Sombart. Er begründet eine Typologie diverser Formen des Kapitalismus und verweist auf wichtige Elemente in der Entwicklung des Kapitalismus (Der moderne Kapitalismus, endgültige Ausgabe 1928 in sechs Bänden). Berühmt wurde auch Ernst Engel, der einen Zusammenhang zwischen Konsum und Einkommen analysierte ("Je ärmer eine Familie ist, ein desto größerer Anteil von der Gesamtausgabe muss zur Beschaffung der Nahung aufgewendet werden", 1857; Engelsches Gesetz). Er baute das erste deutsche Statistische Büro in Berlin auf. Der Belgier Adolphe Qetelet hatte schon 1830 damit begonnen, die Gesellschaft mathematisch und statistisch zu erfassen ("Gesetz der großen Zahl"). Nach dem Zweiten Weltkrieg entwarfen deutsche Ökonomen die Soziale Marktwirtschaft für Deutschland. Der Begriff Neoliberalismus geht auf den deutschen Ökonomen Alexander Rüstow (1885-1963; studierte Ökonomie, Philosophie, Jura und Physik) zurück. Er propagierte eine ordnungspolitisch eingebundene Form des freien Wirtschaftens. Im Mittelpunkt standen die Verhinderung von Konzentration und Macht. Im Dritten Reich war er in der Türkei im Exil. Heute wird auch oft der Begriff "ordoliberal" als synonym zu "neoliberal" gebraucht. Walter Eucken und Ludwig Ehrhard konstruierten dann die konkrete praktische Ausführung mit dem GWB.  "Das Gros der Ökonomen verschanzt sich hinter einer Trutzburg aus mathematischen Formeln und Universaltheorien", Ferdinand Knauß: Wie konnten Ökonomen nur die Geschichte vergessen", in: Wirtschaftswoche 36, 2.9.2016, S. 32f.

Die Wirtschaftsgeschichte als Fach und Teilgebiet der Volkswirtschaftslehre ist in Deutschland auf dem "absteigenden Ast". Immer mehr Lehrstühle stehen vor der Schließung. Ganz anders ist die Entwicklung in den USA. Carmen Reinhardt, Ken Rogoff, Harold James, Niall Ferguson, Daron Acemoglu, Michael Bordo  u. a. haben auch großen Einfluss auf die aktuelle Wirtschaftspolitik und ihre Bücher waren oder sind Bestseller. Die Universitäten Göttingen, Jena und Marburg bieten das Studienfach "Wirtschafts- und Sozialgeschichte" in Deutschland an. Die Anfänge des Faches reichen bis ins 19. Jahrhundert zurück. Mit der Gründung des "Vereins für Socialpolitik" 1872 und der Gründung der Zeitschrift "Vierteljahresschrift für Sozial- und Wirtschaftsgeschichte" 1903 begann der Aufschwung. Die erste Dozentur wurde 1909 an der Kölner Handelshochschule eingerichtet.

"Wer die Vergangenheit kontrolliert, kontrolliert die Zukunft. Wer die Gegenwart kontrolliert, kontrolliert die Vergangenheit", George Orwell, "1984".

 

Neuere Konzeptionen und Ansätze in der Ökonomie:

"It`s the Economy, stupid", Friedrich Engels.

"Die einzigen Räder, die der Nationalökonom in Bewegung setzt, sind die Habsucht und der Krieg unter den Habsüchtigen, die Konkurrenz", Karl Marx, MEW, 40, S. 511.

"...Kernthese lautet, dass unsere Wirtschaftsexperten die Krisenerscheinungen der Gegenwart deshalb nur unzureichend erfassen und deuten, weil sie zu einer besseren Analyse schlicht und einfach nicht in der Lage sind. ... Die Ursache ihres Nichtkönnens liegt vielmehr in einer gewohnheitsmäßig tradierten, unhinterfragt angenommenen und insofern überaus starren, viel zu engen Forschungsperspektive", Frank Niessen: Entmachtet die Ökonomen! Marburg 2016, S. 14.

Vorbemerkung: Ein theoretisches Fundament ist für die empirische Forschung und die Politikberatung unabdingbar. Wichtige Fragen müssen entschieden werden, bevor eine Datenbasis vorhanden ist. Überprüfungen zeigen, dass beim Nachrechnen empirischer Studien oft etwas anderes herauskommt. Nichts ersetzt eine gute Theorie am Anfang. Vgl. Hanno Beck/ Alois Prinz: Nichts ersetzt eine gute Theorie, in: FAZ 8. Februar 2016, S. 18. Theorien verhindern auch Scheinkorrelationen (z. B. Zusammenhang zwischen Zahl der Störche und Zahl der Geburten kann nur durch Theorie als Scheinkorrelation entlarvt werden).

Es gibt noch einen anderen Grund für die Suche nach einem guten und fruchtbaren Ansatz: Die Ökonomie ist als akademische Disziplin hoch ideologieanfällig. Das kann den Blick auf die ökonomische Realität verzerren. Die Ökonomie sollte so objektiv wie möglich agieren, eine klare Sprache wählen (so dass möglichst viele Menschen die Erkenntnisse verstehen) und auch den relevanten Forschungsfragen folgen. Wirtschaftspolitische Empfehlungen beruhen selten auf einer Eins-zu-eins-Umsetzung wissenschaftlich erzielter Erkenntnisse. Meist gibt es eine Mischung von Theorie, Empirie und auch Ideologie. Das ist nichts Schlimmes, muss aber immer transparent gemacht werden. Dazu muss man erstmal einen Überblick über die Ansätze haben.

Wenn man nach innovativen Konzeptionen sucht, sollte zunächst der "Mainstream" charakterisiert werden: Das Menschenbild des Homo Oeconomicus steht im Mittelpunkt. Der methodologische Individualismus herrscht vor. Das Denken zeigt sich in theoretischen Modellen. Der formal-mathematische Ansatz überwiegt. Grundannahme ist Markteffizienz und Marktgleichgewicht. Dazu gehören auch rationale Präferenzentscheidungen, Geld als neutrales Tauschmittel, BIP-Wachstum als wichtigster Indikator des Fortschritts. "Universitäten sind Misthaufen, auf denen manch schöne Blume blüht", Albert Einstein (dieser Spruch erklärt sich aus seiner Biographie; er trifft aber voll auf die Mainstream-Ökonomie an den Unis zu).

Einige solcher neuer Ansätze, die in die Zukunft weisen können, sollen vorgestellt und behandelt werden. Dabei ist Theorievielfalt angesagt (auch bei mir im Unterricht). Man sollte heute in der VWL auf Pluralität bauen und die Studenten in die Lage versetzen, nach Kriterien selbst eine Auswahl zu treffen.

Meine eigene Position kann ich nicht einem der Ansätze allein zuordnen, sondern ich verorte mich vorwiegend in der Verhaltensökonomik, der Entrepreneurial Economics und der Pluralen Ökonomik. Faktoren wie Nachhaltigkeit, Emotionen, Kontext, Innovationen und Gemeinwohl sind sowieso dabei, so dass man dafür keine eigenen Ansätze braucht. Vgl. auch die Diskussion dazu im Wirtschaftsdienst 2017/12, S. 835ff.

Trotzdem sollte auch der Ökonom immer die Grenzen seines Ansatzes und Denkens kennen und benennen. Die großen Philosophen Sokrates und Laotze wussten schon beide, dass das Bewusstsein des Nichtwissens am wichtigsten ist. Am besten hat dies Kohelet um 300 v. Chr. (besser unter Prediger bekannt) ausgedrückt: "Den Wissenden und den Unwissenden trifft dasselbe Schicksal". Die Erkenntnis des Nicht-Wissens ist die Zierde des Wissenschaftlers. Der Mensch ist im Kosmos bedingt. Insoweit hatte auch Marx mit dem Denken als Überbau recht. Kohelet drückt es so aus: "Alles ist Windhauch und Luftgespinst". Insofern ist jeder Ansatz der Ökonomie auch nur Windhauch im Lauf der Geschichte. Man sollte es als Ökonom nur zugeben.

Seit der Welt-Finanzkrise 2008 ist die Ökonomie in einem großen Umbruch. Die Ökonomie ist von der Dogmatik abgerückt (in Deutschland vor allem an den Fakultäten in Freiburg und Köln). Marktversagen ist mehr ins Blickfeld gelangt, wenn auch Marktlösungen weiterhin staatlichen Vorgaben meist überlegen sind. In der Welt haben die USA unter Trump sich von der alten Weltordnung verabschiedet. China strebt nach der ökonomischen Dominanz und wird die USA ab 2030 irgendwann überholen. Der dynamische Wechsel kennzeichnet heute die Entwicklung in allen drei Bereichen der Ökonomie: in Umwelt, Arbeit und Globalökonomik. Die entscheidende Frage für den Menschen dabei ist: Kann in dieser Entwicklung die Freiheit gewahrt bleiben? Diese aktuellen Trends müssen in einem ökonomischen Ansatz der Zukunft berücksichtigt werden.

Ökonomische Phrasendrescherei: "Geldhähne aufdrehen, Märkte fluten, Rettungspakete schnüren, an der Zinsschraube drehen, Konjunkturmotor ankurbeln".

Verhaltensökonomik (Behavioral Economics): Diesen Forschungsbereich gibt es schon sehr lange in der Volkswirtschaftslehre, vor allem wenn man die Klassiker einschließt. In Deutschland wurde diese verhaltensökonomische Forschung nach dem 2. Weltkrieg von Günther Schmölders in Köln aufgebaut. In den Neunzigerjahren wird die Forschungsrichtung in den USA wieder populärer, insbesondere nach der Finanzkrise (bekannter Vertreter Robert Shiller). Emotionen (Gefühle allgemein) und das soziale Umfeld spielen eine größere Rolle als die Rationalität. Gerade an den Finanzmärkten haben irrationale und ineffiziente Elemente (Herdentrieb, Überschätzung) eine große Bedeutung. Kritik an der Verhaltensökonomie kommt auf, weil sie sich zu sehr auf Experimente konzentriert und dabei Testpersonen bewusst "aufs Glatteis führt". Es fehlt sicher eine aussagefähige und konsistente Theorie (vgl. Hanno Beck: Der Mensch ist kein kognitiver Versager, in: FAZ Mo. 11.02.13, Nr. 35, S. 18; auch Ders.: Behavioral Economics, N. Y., Heidelberg, Wiesbaden 2014). Nudge (Nudging) als zentrales Element: Zentraler Fachbegriff aus der Verhaltensökonomik. Er wurde von R. H. Thaler (Nobelpreis 2017) and C. R. Sunstein eingeführt (vgl. Dieselben: Wie man kluge Entscheidungen anstößt, 2009/ USA 2008; ebenso D. Kahnemann: Schnelles Denken, langsames Denken, München 2012, USA 2011). Kahneman führt folgende Bausteine ein: Zwei Selbste, Econs und Humans, Zwei Systeme. "Nudge" ist das Gegenteil eines Verbots oder eines Befehls. Es geht um kluge, durchdachte Entscheidungshilfen und -anstöße.  Damit ist die Kraft, Menschen zu beeinflussen, größer. Beispiele bei Thaler sind eine Fliege im Urinal oder Obst in Griffnähe. Bei total freien Märkten kann Nudge zum Desaster führen, weil die Menschen keine guten Entscheider sind (Argument für die Regulierung von Gesundheitsmärkten). Der Begriff spielt heute auch in der Marketing-Kommunikation eine große Rolle. Die bekannteste Art von Nudges sind Standardvorgaben, die Defaults. Diese sollen Menschen in eine bestimmte Richtung "stupsen". Nudges können die Entscheidungen von Menschen verbessern, wie sie in Form gut aufbereiteter Informationen angeboten werden. Sie können auch die Selbstbindung verstärken (Selbstkontrollprobleme reduzieren; z. B. durch Wetten). In der Praxis kann Nudging in der Wirtschaftspolitik (Gefahr: Verwaltungsfreude, Obrigkeitsdenken), bei Konsumente (Gefahr: Manipulation), in der Alterssicherung und beim Verbraucherschutz bewusst eingesetzt werden. So gesehen ist es sanfter Paternalismus und verhaltensökonomisch fundierte Ordnungspolitik. Die Frage ist, ob unvollständige Rationalität eine hinreichende Begründung ist. Zur Kritik an Nudge werden meist die folgen Argumente angeführt: 1. Der Eigenwert irrationalen Verhaltens wird negiert. 2. Bestimmtes Menschenbild liegt zugrunde (Kahnemann: Menschen sind nicht imstande, kurzfristiges Tun mit langfristigen Interessen abzugleichen). 3. Framing ist an konkretes Ziel gebunden (auch ideologisch). 4. Sozialer Druck wird erhöht. 5. Nudging als Illusion ("optische Täuschung"). Vgl. Schnaas, Dieter: Gütiger Himmel, in: Wirtschaftswoche, Nr. 13, 23.03.15, S. 38f. 

Digitale Ökonomie (Internetökonomie): Machtkonzentration und Totalitarismus durch die Digitalisierung: In der Internetökonomie liegt eine große Gefahr, das Private abzuschaffen und Menschen effektiv zu kontrollieren. Am Anfang steht oft Freiwilligkeit (wie in der Share Economy), dann kommt Profit in der Regel durch Werbung und am Ende Machtakkumulation (alle Informationen über das soziale Leben). Teilweise erhöhen Unternehmen mit diesen Informationen den Druck auf die Menschen (z. B. wenn Versicherungen einen Bonus zahlen, wenn man sein Verhalten kontrollieren lässt). Die Internetunternehmen versuchen auch, an immer jüngere Nutzer heranzukommen. Ein Beispiel ist die Streaming-Plattform "YouNow". Danach muss sich auch die Wettbewerbspolitik neu ausrichten. Sicher gilt in der digitalen Ökonomie zwei Gesetzmäßigkeiten: 1. Information entwickelt sich zum wichtigsten Rohstoff zur Welterschließung ("Informationskapitalismus" löst den "Finanzkapitalismus" ab). 2. Der Mensch selbst wird zur Information und zum Rohstoff. Die Rolle de Menschen verändert sich: Er ist gleichzeitig Datenkonsument und Datenproduzent (große Gefahr der modernen Sklaverei). Er lässt sich aber auch zurichten (Empfehlungen von Streaming - Diensten, Follower). Monopole, insbesondere die aus dem Silicon Valley, gewinnen an Bedeutung (sie werden als Garant des Fortschritts beworben). In der Preisbildung wird das Image immer wichtiger (Beispiel Apple: macht den Preis nicht der Markt). Informationsdienste - etwa Google - streben eigentlich die Integration aller Marktzugänge an. Digital-industrielle Komplexe ersetzen die Gesetze von Angebot und Nachfrage. Vgl. Douglas Rushkoff, Present Shock, Orange Press, 2015; Yvonne Hofstetter, Sie wissen alles, 2015. Deutschland und Europa haben fast kein Internetunternehmen unter den Top 20 der Welt (SAP Ausnahme). Damit fehlt die Schnittstelle in der Wertschöpfung. Die digitale Ökonomie besteht aus mindestens folgenden Bausteinen: Produktion 4.0, Internet der Dinge (kommunizierende Geräte), digitale Transformation (vor allem Dienstleister mit Plattformen), Breitbandausbau. Sie beeinflusst insbesondere folgende Branchen (Rangfolge): Technologie, Medien/ Unterhaltung, Handel, Finanzen, Telekom, Bildung, Gastgewerbe, Fertigung, Gesundheit.  Im internationalen Vergleich ist die deutsche Digital-Wirtschaft nur Mittelmaß. Sie hat großen Nachholbedarf (Studie von TNS Infratest und ZEW 2015). "Wir wissen, wo du bist. Wir wissen, wo du warst. Wir wissen, was du denkst", Alphabet-Chairman Eric Schmidt (Google). "Wir erfüllen eine soziale Mission, indem wir die Welt offener, vernetzter und transparenter machen", Facebook-Chef Mark Zuckerberg 2015.

Entrepreneurial Ökonomie (Managerial Economics): Die Rolle der Unternehmer in der Volkswirtschaft steht im Mittelpunkt. Die "unternehmerische Ökonomik" gilt als Gegenentwurf zu unrealistischen, klassischen Gleichgewichtsmodellen. Die ideengeschichtliche Schule von Joseph Schumpeter steht dabei in der Regel im Vordergrund. Es sollen aber alle ideengeschichtlichen Schulen behandelt werden (zusammen mit Kulturgeschichte, Philosophie und Soziologie). Ich selbst folge diesem Ansatz ganzheitlich und gebe die Trennung von Volks- und Betriebswirtschaftslehre auf. Die Wirtschaft muss immer als Teil der Gesellschaft gesehen werden (Vgl. zu meiner Konzeption die Seite "Dozentenprofil").  Dafür tritt auch eine große Studentengruppe an der Uni Köln ein. Sie nennt sich "Oikos". An der Hochschule für Wirtschaft und Recht in Berlin findet ab 26.11.15 eine dreitägige Konferenz mit dem Titel "Ökonomische Lehre im 21. Jahrhundert" statt. Entrepreneurial Design ist ein künstlerischer Prozess, der ökonomisch, ökologisch und sozial denken voraussetzt. Hinzu kommen die Aspekte "Sympathie, Aufmerksamkeit und Authentizität". Mit den Rahmenbedingungen Fantasie, Mehrfachnutzungen, in Komponenten denken, Ernstbedingungen testen und stimmig zum Markt schließt das Konzept. Am Ende könnte eine Citizen Entrepreneurship stehen. Die wachsenden Probleme unserer Zeit sind nur noch durch tragfähige Unternehmenskonzepte zu lösen. Vgl. Günter Faltin: Wir sind das Kapital. Erkenne den Entrepreneur in Dir. Aufbruch in eine intelligentere Ökonomie, Hamburg 2015. "Wir haben eine Chance, eine bessere Welt zu bauen. Liebevoller, witziger, feinfühliger und künstlerischer, als es jemals zuvor möglich gewesen ist. Aber wir müssen selbst in den Ring steigen, es selbst in Gang bringen, es selbst unternehmen. Es nicht der bloßen Gewinnmaximierung überlassen", Günter Faltin (Text auf dem Umschlag).

Plurale Ökonomie (Heterodoxe): Netzwerk von Ökonomen. An vielen Universitäten vertreten. Gegen den Dogmatismus der VWL. Beschäftigung mit Hunger, Umweltzerstörung, Klimawandel, soziale Ungleichheit und Arbeitslosigkeit. Berücksichtigung von historischem und kulturellem Kontext. Mehr Analysen mit qualitativen Methoden. Mehr praktischen Bezug auf die Gesellschaft. Vgl. zu mehr die Homepage: https://www-plurale-oekomik.de . (auch Berliner Studenteninitiative "Was ist Ökonomie?" www.wasistoekonomie.de ). 2015 ist Lisa Großmann Vorsitzende des Netzwerks. Parallel zum Treffen des Vereins für Sozialpolitik in Münster 2015 findet in der Nachbarschaft ein eigener Kongress statt. Die pluralen Ökonomen nennen sich auch Heterodoxe. Wahrscheinlich lässt auch folgendes Buch dieser Richtung zuordnen: Frank Niessen: Entmachtet die Ökonomen! Marburg 2016. Die Plurale Ökonomik steht auf fünf Säulen: Theorienpluralismus, Methodenpluralismus, Historische Fundierung, Wissenschaftstheoretische und ethische Reflexion, Inter- und Transdisziplinarität. Vgl. Ehnts, Dirk/ Zeddies, Lino: Die Krise der VWL und die Vision einer Pluralen Ökonomik, in: Wirtschaftsdienst 2016/10, S. 769ff. Vgl. auch Till van Treeck, Sozialökonomie Universität Duisburg. 2017 erscheint das erste Lehrbuch der Pluralen Ökonomie: Core (Curriculum Open Access Resources Economics, kostenlos nutzbares Online-Lehrbuch der Volkswirtschaftslehre; University College London, Wendy Carlin, unterstützt von George Soros). Vgl. auch Gesellschaft für Sozioökonomische Bildung & Wissenschaft (2016 gegründet in Tutzing, 80 Wissenschaftler aus dem deutschsprachigen Raum).

Marxistische Ökonomie: 1. Die Niederlage des Kapitalismus ist historisch vorbestimmt. 2. Gier und Egoismus determinieren die Kulturen. 3. Von Einkünften aus Kapital profitieren nur die Reichen. 4. Kapital entsteht durch Ausbeuten der Arbeitskraft. 5. Die relative Verelendung der Arbeiter führt zu einer Revolution. 6. Die Diktatur des Proletariats schafft die Grundlagen des Kommunismus, in dem alle Menschen gleich sind. 7. Eigentumsrechte sind abgeschafft und müssen nicht mehr auf Märkten gehandelt werden (Volkseigentum). Marx sah viele Probleme des Kapitalismus voraus, die noch heute eine Rolle spielen (und von Rechtspopulisten behandelt werden). Er sah sich auch sehr genau die Arbeiterklasse und die Kapitalisten an. Managergehälter (einschließlich Pensionsfonds und Lebensversicherungen) kosten die Eigentümer von Unternehmen Abermillionen. Er beschrieb die Folgen der Ausbeutung der Arbeiter. In seiner Krisentheorie spielt das Gesetz von der tendenziell fallenden Profitrate eine große Rolle. Das Kapital vermehre sich schneller als die Arbeit. Irgendwann werde die Rendite der Unternehmen zu gering. Sie würden keine Investitionen mehr wagen. Diese These ist wieder hoch aktuell. Mit zwei Dingen hat Marx richtig gelegen: Mit der Prognose der Globalisierung und der Fragilität der Finanzmärkte (deshalb wurde er auch 2008 wieder aktuell). Im Kern ist auch die Analyse des Kapitalismus richtig: Märkte werden von Unternehmen und Geld dominiert. Unternehmen koordinieren die Produktion und schöpfen den Mehrwert ab. Dafür bieten sie der Gesellschaft Arbeitsplätze an. Preise sind zuverlässige Indikatoren für verdichtete Informationen. Big Data, Künstliche Intelligenz verändern die Spielregeln heute, sie können Angebot und Nachfrage besser zusammenbringen. So stellt sich wieder einmal die Frage, was bleibt von Marx heute (verstärkt im Marx-Jahr 2018!).  Durch die Zusammenbrüche bzw. die Transformation der großen Planwirtschaften in China und Russland, die sich theoretisch mit dem Marxismus legitimierten, haben sich Berührungsängste in der Wissenschaft herausgebildet. Vgl. als aktuelle Literatur auch: Katja Kipping: Wer flüchtet schon freiwillig, Frankfurt/Main 2015. In der Vergangenheit habe ich immer wieder Vorträge zu Karl Marx gehalten (Bedeutung in China, "Keynes meets Marx" bei der Keynes-Gesellschaft u. a). Vgl. auch folgende Biographie: Jürgen Neffe: Marx. Der Unvollendete, München 2017 (Bertelsmann). Neffe erklärt auch die ökonomischen Theorien in verständlicher Form und konfrontiert sie mit der Realität. Er teilt die Gedankenwelt von Marx in folgende Abschnitte ein: Arbeit und Entfremdung, Herrschaft und Eigentum, Kollektiv und Plan, Welt und Gott, Kopie und Original, Kapitel 8.  "Sein Fazit: Marx ist nicht tot, er ist aktueller denn je" (Quelle: Ebenda, Umschlagtext).

Innovative und lernende Ökonomie: Der Anstieg des Lebensstandards beruht in erster Linie auf Produktivitätserhöhungen. Wir müssen lernen, wie wir die Dinge besser machen können. Politische Eingriffe sollten darauf gerichtet sein, das Lernen in der Volkswirtschaft anzuregen. "Es kann nicht angenommen werden, dass Märkte Wissen und Lernprozesse effizient erzeugen und verbreiten. Im Gegenteil: Es ist anzunehmen, dass Märkte nicht effizient sind" (Joseph E. Stiglitz/ Bruce C. Greenwald: Die innovative Gesellschaft, Berlin 2015, S. 47). Die Theorie des komparativen Vorteils muss heute neu definiert werden: Heute sind Wissen und Lernfähigkeit entscheidend. So muss gelernt werden, Organisationen und Gesellschaften zu führen. Ebenso müssen die Fähigkeiten und Lernen erlernt werden. Der Prozess des Lernens umfasst "Learning by Doing", Lernen durch Lernen, Lernen von anderen, Lernen durch Handel, Technologie verbessern. Lernen hängt ab von Lernfähigkeit, Zugang zu Wissen, Katalysatoren, Kontakten, kognitivem Rahmen und Kontext. Lernen hat Spillover-Effekte. Vgl. ebenda S. 92ff.

Barfuß-Ökonomie: Sie wurde von dem chilenischen Ökonom Manfred Max-Neef entwickelt. Sie stellt ein System von Thesen dar. Kern ist die Kooperation und das Motto "Small is beautifull" . Der deutschstämmige Wissenschaftler lebte lange in Slums bei Kleinbauern. Er übernahm auch die Genossenschaftsidee von Raiffeisen. Diese soll 2016 von der UNESCO als Kulturstandard zum deutschen Weltkulturerbe ernannt werden.

Zivilkapitalismus: "Zivilkapitalismus bedeutet, dass der verantwortungsvolle Bürger sich die Ökonomie aneignet, als Ganzes, als Gestaltungsmittel, als Instrument zur Weltverbesserung", s. Wolf Lotter, Zivilkapitalismus, Wir können auch anders, München 2013, Umschlagtext. Kapitalismus ist ein Kind der Aufklärung. Nichts hat die Lage der Welt so verbessert wie er. Es ist die einzig bekannte Methode zum Erzielen von Wachstum und Gerechtigkeit. Er hat sich in allen Kulturen durchgesetzt. Aber der Kapitalismus befindet sich in einer Krise. Deshalb sollte sich der Bürger Ökonomie als ein Mittel der Befreiung, zur Selbständigkeit und zur Wahrung der Menschenwürde aneignen. "1. Wir sind erwachsen, 2. Wir sind selbst bestimmt, 3. Wir ermöglichen Zugänge, 4. Zivilkapitalisten gehören sich selbst, 5. Zivilkapitalismus ist eine Graswurzelbewegung, 6. Zivilkapitalismus ist Realwirtschaft, 7. Zivilkapitalismus ist Interesse am anderen, 8. Zivilkapitalismus stärkt die Übersichtlichkeit, 9. Zivilkapitalisten sind fortschrittlich, 10. Was zu tun  ist; ebenda, S. 209ff.

Gemeinwohl-Ökonomie: Das Konzept wurde vom österreichischen Attac-Mitbegründer Christian Felber entwickelt. Im deutschsprachigen Raum gibt es etwa 1400 Unternehmen, überwiegend kleinere, die sich dem Konzept verpflichtet fühlen. Ein Drittel legt jährlich eine entsprechende Bilanz vor. Langfristig wird angestrebt, eine solche Bilanz gesetzlich verpflichtend zu machen. Unternehmen mit einer guten Gemeinwohlbilanz sollen von niedrigeren Steuern, günstigeren Krediten und Bevorzugung bei der Auftragsvergabe profitieren. Manche zählen auch die Sozialunternehmen dazu. So etwa "morethanshelters" (2012 von Daniel Kerber gegründet). Das Unternehmen betreut soziale Projekte, wie etwa das Flüchtlingscamp Saatari in Jordanien., das modulare Zeltsystem Domo und eine Innovations- und Planungsagentur. Hier gehen auch Crowdfunding - Gelder und Fördergelder ein.

Solidarische Ökonomie: Sie wurde 2008 ins Leben gerufen als Arbeitsgemeinschaft in der Stiftung Ökumene. Es geht um Alternativen zur kapitalistischen Wirtschaftsweise. Entwickelt werden Modelle einer lebensdienlichen, solidarischen und zukunftsfähigen Ökonomie. Vgl. www.akademie-solidarische-oekonomie.de . Vgl. auch: Simon, Klaus: Zwickmühle Kapitalismus. Auswüchse und Auswege, Marburg (Tectum-Verlag) 2014. Solidarische Ökonomie stellt nicht den eigenen Vorteil und das Profitstreben in den Mittelpunkt (Bedürfnisse der Mitarbeiter und Gemeinschaft; nicht konkurrieren, sondern kooperieren; eigene Initiative und Selbstorganisation). Im Brennpunkt stehen Commons (Gemeinschaft entsteht durch Gemeingüter). Entscheidenden Einfluss auf diese Richtung dürfte das Standardwerk von Elmar Altvater von 2005 gehabt haben: "Das Ende des Kapitalismus, wie wir ihn kennen". Hier plädiert Altvater ("der profilierteste undogmatischer Marxist der Bundesrepublik", Der Spiegel, 19/2018, S. 133) schon für eine solare und solidarische Gesellschaft. Altvater ist 2018 gestorben.

Konzept des Zivilen Ungehorsames (Revolution ohne Gewalt):  Maßnahmen von NRO, Ökoräten und Institutionen der direkten Demokratie: 1) Steuerboykott: Möglichst auf Massenbasis. In Deutschland keine Straftat. Der Staat kann aber die Steuerschuld zwangsweise eintreiben. 2) Wahlboykott: Als Mittel zivilen Ungehorsams, weil heutige Parteien, Parlamente und Regierungen die Probleme der Umweltzerstörung, Klimawandels und geplanten Obsoleszenz sowie des Zockerkapitalismus nicht lösen. 3) Konsumverweigerung, Produktstreik und Produktumstellung: Wirkt nur organisiert als Massenphänomen. 4) Generalstreik: Wirksamstes Mittel. Vgl. Jürgen Bruhn: Die Bestie zähmen. Wege aus dem Raubtierkapitalismus in eine Neue Ökonomie, Marburg 2015.

Kontextuale Ökonomie: Sie betrachtet wirtschaftliche Prozesse im Zusammenhang mit gesellschaftlichen, kulturellen und historischen Entwicklungen. Es ist also eine sozialwissenschaftliche Ökonomie. Sie steht in einem ständigen Dialog mit Historikern, Psychologen und Soziologen.

Emotional Economics: Dynamische, zeitabhängige Prozesse bei den Auswirkungen von Arbeitsbelastung. Insbesondere Folgen von psychischem Stress. Auch Zusammenhänge zwischen Emotionen und ökonomischem Verhalten, insbesondere auch im finanziellen Bereich. Vgl. www.emotional.economics.uni-mainz.de; (auch Vertreterin an der Uni Heidelberg).

Postwachstumsökonomie (ökologische Ökonomik): Alternative zum Denken in Wachstumskategorien und zur neoklassischen Volkswirtschaftslehre, die die Finanzkrise 2008 nicht vorhergesehen hat.  Wachstumskritik. Vertreter: Niko Paech. Vgl. Felix Rohrbeck, Der Verstoßene, in: Die Zeit, Nr. 11, 09. März 2017, S. 28. Der Nachhaltigkeitsaspekt sollte eigentlich Bestandteil jeder Volkswirtschaftslehre sein, insofern ist der Begriff tautologisch. Eine ökologische Priorität ist sowieso unerlässlich für das Überleben der Menschheit. Paech will die gesamte Wirtschaft schrumpfen. Er will das sogar im Alltag vorleben. Der britisch Ökonom Tim Jackson rechnet sich auch der Bewegung zu (im Englischen "Degrowth"). Gegner dieser Bewegung verweisen immer wieder darauf, dass man Wachstum braucht, um einen Sozialstaat zu finanzieren (Umverteilung). Vgl. Katharina Matheis: Es reicht jetzt, in: Wirtschaftswoche 1/2 2018, 05.01.18, S. 62f. Paech entwirft eine Konzeption, um institutionelle Innovationen politisch zu flankieren: Bausteine sind 1. Suffizienz. 2. Subsidenz. 3. Regionale Ökonomie. 4. Globale Arbeitsteilung. Zur Postwachstumsökonomie hinzu kommen müssen eine Reduzierung der Arbeitszeit auf 20 Stunden und ein entkommerzialisierter Bereich. Vgl. Paech, Niko: Befreiung vom Überfluss. Auf dem Weg in die Postwachstumsökonomie, München 2012. "Souverän ist nicht, wer viel hat, sondern wenig braucht", Niko Paech (Umschlagsrückseite).

Kate Raworth: Die Donut-Ökonomie, München (Hanser) 2018. Die englischsprachige Originalausgabe ist 2017 in London erschienen: Doughnut Ecomomics. Seven Ways to think Like a 21sr-Century Economist. "Das Wesen des Donuts: ein gesellschaftliches Fundament des Wohlergehens, unter das niemand abstürzen sollte, und eine ökologische Decke des planetarischen Drucks, über die wir nicht hinausgehen sollten. Zwischen beiden Bereichen liegt ein sicherer und gerechter Raum für alle", S. 20. Wenn das Ziel der Menschheit im 21. Jahrhundert darin besteht, in das Innere des Donuts zu gelangen, welche ökonomische Denkhaltung eröffnet uns dann die besten Chancen, dies zu erreichen?", S. 20.  "Das machtvollste Werkzeug in der Ökonomie ist nicht das Geld, auch nicht die Mathematik. Es ist der Bleistift. Denn mit einem Bleistift kann man die Welt neu zeichnen", S. III. Vgl. www.kateraworth.com . Ihr Konzept besteht aus sieben Denkansätzen: 1. Das Ziel ändern. Der Donut. 2. Das Gesamtbild erfassen. Eingebettete Ökonomie. 3. Die menschliche Natur pflegen und fördern. Sozial anpassungsfähiger Mensch. 4. Den Umgang mit Systemen lernen. Dynamische Komplexität. 5. Auf Verteilungsgerechtigkeit zielen. Von vornherein Verteilungsgerechtigkeit anstreben. 6. Eine regenerative Ausrichtung fördern. Von vornherein regenerativ ausrichten. 7. Eine agnostische Haltung zum Wachstum einnehmen. Agnostisch gegenüber  Wachstum.

Feministische Ökonomik : Feministische Ökonomik scheitert oft schon bei der Definition. Geht es um die Interessen der Frauen oder um weiblichere Techniken und Strategien bzw. um Ökonominnen. Der Begriff ist oft ideologisch besetzt.

Volkswirtschaftslehre 4.0: Volkswirtschaftslehre steigt in ihrer Bedeutung mit der Digitalisierung und Globalisierung stark an. Das zeigt sich auch konkret darin, dass die großen Tech - Firmen, insbesondere im Silicon Valley, ihre volkswirtschaftlichen Abteilungen massiv ausbauen. Sie sollen bei der Suche nach neuen Geschäftsmodellen helfen. Auf der anderen Seite bieten die Datenflut und die Plattformen Ökonomen neue Möglichkeiten, Theorien und Hypothesen zu testen. Die vorrangigsten Aufgabe der Volkswirte ist aber, Muster zu erkennen (Algorithmen), Szenarien durchzuspielen und neue Start - ups in ihren Strategien auszurichten. Die angewandten Hochschulen in Deutschland (frühere Fachhochschulen, oder die dualen Hochschulen) haben auf diesen Trend noch nicht reagiert. Sie handeln anti-zyklisch. Die Mechanismen der Selbstverwaltung sind zu stark politisch (durch Finanzen) gegängelt und zu stark an den eigenen Berufszielen (oft Lebensqualität) ausgerichtet. Vgl. Buhse, Malte: VWL 4.0: Wie Wissenschaft und Techunternehmen voneinander lernen, in: Wirtschaftswoche, 50/ 2.12.16, S. 40f.

Narrative Economics: 2019 wird das gleichnamige Buch von Robert Shiller (Yale; emeritiert; Wirtschaftsnobelpreis 2013) erscheinen. Er meint damit eine neue Erklärung für Krisen und wirtschaftlichen Erfolg gefunden zu haben. Es ginge bei der Wirtschaft um Geschichten. Erzählungen können die Wirtschaft maßgeblich beeinflussen. Besonders einflussreich seien Geschichten mit Moral. Als Beispiele nennt er Trump und die Geschichte um Blockchain. Im Januar 2017 stellt Shiller sein Konzeption auf dem Treffen der Ökonomen in Chicago vor. Geschichten müssen nicht unbedingt wahr sein, um Wirkung zu entfalten (Laffer - Kurve). Vgl. Buchter, Heike: Erzähl mir was! in: Die Zeit Nr. 45, 31. Oktober 2018, S. 30. Es ist im Zuge dieser Richtung auch zu einer Veränderung von Narrativen gekommen. Die neoklassische Grundidee, dass Unternehmen nach Gewinnmaximierung streben, wurde in den Anspruch auf eine Mindesteigenkapitalrendite entsprechend dem Marktdurchschnitt transformiert. Dadurch gewannen Kapitalmärkte an Bedeutung und verzeichneten auch Wertzuwächse, die das Wachstum der Wirtschaftsleistung übersteigen.

Pragmatischer Problemlöseansatz: Statt Modelle stehen Probleme und Projekte im Vordergrund. Es geht um Kita - Plätze, Organspenden, Rettung von Korallenriffen und ähnliches. Datenanalysen, Labor- und Feldexperimente sollen als Werkzeugkasten konkrete Probleme lösen. Ökonomen sehen sich als Marktingenieure.  Vorreiter dieser Richtung ist der Nobelpreisträger Alvin Roth (2012), der über "Matching" forschte  (Zusammenbringen von Angebot und Nachfrage auf Märkten ohne Preise). Vgl. Elke Pickartz: Plötzlich nützlich, in: Wirtschaftswoche 42/06.10.17, S. 66f.

Verschwörungstheorien: Sie beseitigen den Zufall und geben dem Einzelnen eine Chance, eine simple Erklärung für etwas zu finden, was ihn nervt oder verängstigt. Man kann sich aus der Masse hervorheben und als einziger verstehen, "wie der Hase läuft". Ursachen sind oft Verunsicherung und Marginalisierung. Seit dem Wahlsieg von Trump in den USA sind die Verschwörungstheorien wieder auf dem Vormarsch, auch in der Volkswirtschaftslehre. Häufig wird eine Verbindung eingegangen mit Populismus. Letztlich führt dies zu Fragmentierungen in der Gesellschaft, die gefährlich für die Demokratie sein können.

"Der Prozess der schöpferischen Zerstörung ist für den Kapitalismus wesentliches Faktum..., der unaufhörlich die Wirtschaftsstruktur von innen heraus revolutioniert, unaufhörlich die alte Struktur zerstört und unaufhörlich eine neue schafft", J. A. Schumpeter: Kapitalismus, Sozialismus, Demokratie, New York 1942; S. 137f. (nach der deutschen Ausgabe, München 1980).

 

Zur Rolle der Ökonometrie/ Statistik in der Ökonomie:

Zwischen Mathematik, Statistik und Ökonomie finden wir eine neue Disziplin, die man Ökonometrie nennen könnte", Ragnar Frisch, Norwegen, (1895-1973). Er begründete in den 1930er-Jahren diese Disziplin. Die erste quantitative Wirtschaftsanalyse im großen Stil veröffentlichte Gregory King 1696: Natural and Political Observations.

"Gerade in wirtschaftlich schwierigen Zeiten sind einigermaßen valide Zahlen unverzichtbar. Allerdings wird die Wirtschaft immer schnelllebiger. Neue Informationen können mittlerweile schnell die Gemengelage verändern", Christoph Schmidt, Vorsitzender des Sachverständigenrats für Wirtschaft, 2019.

Der Abakus ist eine uralte Rechenmaschine. Er ist in einigen Ländern Wahrzeichen der Statistik (auch in Deutschland). Dieser Abakus auf dem Bild steht in einem Park in Xi ´an, der alten, zentralen  chinesischen Kaiserstadt. Noch heute wird in ländlichen Gegenden Chinas oder in Sibirien in kleinen Läden an der Kasse mit dem Abakus gerechnet.

In der Ökonometrie werden statistische Methoden und mathematische Testverfahren und Daten auf Zusammenhänge der Volkswirtschaftslehre angewendet. Oft werden historische Daten in mathematische Modelle eingesetzt, um Wechselwirkungen zwischen ökonomischen Parametern abzubilden und Verhalten zu prognostizieren. Meist wird mit Computersimulation auch eine Prognose von Wachstum, Inflation oder Beschäftigung erstellt. Der Schwerpunkt liegt aber immer auf Ergebnisgrößen der Volkswirtschaft (Wachstum, Schulden). Dabei sind Ursache und Wirkung schwer zu trennen. Letztendlich soll eine statistische Basis geliefert werden, mit der sich Theorien beweisen oder widerlegen lassen. "Lass Vergangenes nicht dein Leben diktieren, doch nutze es als Ratgeber für deine Zukunft", aus China.

Die Volkswirtschaftslehre muss somit Vorstellungen vermitteln über die Wirkungen wirtschaftspolitischer Maßnahmen. Es muss eine Wirkungsschätzung erfolgen, so dass eine Bewertung der Wirtschaftspolitik mittel eines Modells möglich ist. Am wichtigsten sind dabei die Multiplikatoren (Haavelmo-Theorem, Investitionsmultiplikator). Je nach Situation müssen unterschiedliche praktische Konsequenzen aufgezeigt werden. Im Grundlagenunterricht stelle ich ein stark vereinfachtes IS-LM-Modell (nach Keynes in der Version von Hicks) in den Mittelpunkt. Dabei gehe ich von der Verwendungsgleichung aus und setze den Staat und das Ausland ceteris paribus. Damit kann ich mit leichtem mathematischen Aufwand den Multiplikator und das güterwirtschaftliche Gleichgewicht ableiten. Lernziel sind dann die beiden Fallen bei Keynes: die Liquiditätsfalle und die Investitionsfalle. Anhand der Funktionsweise der Fallen kann man gut aktuelle Situationen analysieren (z. B. die Wirtschaftspolitik in Japan). "Volkswirte dienen dem Volk, nicht der Politik. Doch hören die Politiker ihnen nur zu, wenn es auch das Volk tut", Hans-Werner Sinn 2016 (zitiert nach Capital, Ausgabe 2/ 2016, S. 66.

Ein großer Irrtum ist aber, dass empirische ökonometrische Analysen klare Antworten auf wirtschaftspolitische Fragen geben können. Es gibt immer Alternativen und einen Bewertungsspielraum. Die Entscheidungen treffen Regierungen und Parlamente. Der Wissenschaftler muss Transparenz und Offenheit wahren, so dass dieser Spielraum immer erkennbar ist. In der Politikberatung sind in der Regel immer gegensätzliche, oft auch parteipolitische, Gegensätze im Spiel. Insofern müssen den Grundlagen Aussagen über die Rahmenbedingungen, Nebenbedingungen und die Abhängigkeiten hinzugefügt werden. Gerade im Fall der Rechenfehler bei Reinhart und Rogoff zeigt sich, wie wichtig es ist, Daten und Rechenwege offen zulegen. Vergangene Theorie garantieren auch nicht, dass die Märkte sich in Zukunft genauso verhalten. Alle erdenkbaren Variablen können nie berücksichtigt werden. Absolute Gewissheiten kann es in der Ökonomie nicht geben (wenn dies jemand behauptet, ist Misstrauen angebracht). "Vieles von dem, was wir über ökonomische Phänomene wissen wollen, lässt sich ohne technische, ganz zu schweigen von mathematischen, Verfeinerungen der üblichen Denkweisen und ohne ausgefeilte Behandlung statistischer Zahlen entdecken und feststellen", Joseph Schumpeter, The Common Sense of Econometrics, Econometrica 1, Nr. 1 (1933), S. 5-12.

Die ökonomische Theorie kann auch keine klaren Aussagen zur Lösung wirtschaftspolitischer Probleme liefern. Wird ein gegenteiliger Eindruck von Wissenschaftlern erweckt, handelt es sich um Ideologie oder Manipulation (deshalb sprechen Politiker auch oft von "so genannten Experten"). Da aber die Theorie immer Basis statistischer Modelle ist, können diese nicht mehr. Insbesondere psychologische Faktoren sind schwer einbaubar und messbar. Mangelndes Vertrauen in die Schuldenfähigkeit der EU in der ganzen Welt (USA, Asien) ist auch ein Schlüssel, die Krise in Euroland zu verstehen. "Die Methode der rechtzeitigen Fehlerkorrektur ist nicht nur eine Weisheitsregel, sondern geradezu eine moralische Pflicht: Es ist eine Pflicht zur dauernden Selbstkritik, zum dauernden Lernen, zu dauernden kleinen Verbesserungen unserer Einstellung", Karl Popper.

Insofern sollte die Volkswirtschaftslehre Objektivität wahren, indem die Regeln der Wissenschaft eingehalten werden (dies muss notwendig zum Selbstverständnis gehören, vgl. oben). Vorrangig muss Transparenz (auch Offenlegung der Bezahlung), Offenheit, Zuverlässigkeit und Gültigkeit  gewährleistet sein. Werden diese Regeln nicht eingehalten, werden die Volkswirte ihren Einfluss, der ohnehin gering ist in der Wirtschaftspolitik und in den Institutionen der Wirtschaftspolitik gegenüber den Juristen, noch mehr verlieren. Die Unabhängigkeit von Ökonomen könnte besser abgesichert werden. "Und der schlimmste von allen menschlichen Schmerzen ist der, große Einsicht zu haben und keine Macht", Herodot (aus der Rede des Persers Attaginos).

Großen Schaden für das Renommee der Ökonometrie richten Wirtschaftsberichte an, die nur Instrumente im Parteienstreit sind. Die Instrumentalisierung der Statistik hat erheblich zugenommen. Große Zahlen werden systematisch in der politischen Argumentation eingesetzt und sollen Sicherheit suggerieren (z. B. Beschäftigungseffekte von Mindestlohn und TTIP; vgl. Die Zeit, Nr. 5, 30.01.15, S. 23: Petra Pinzler, Nützliche Ideologien). Fundamental ist immer die Frage, wer das Institut finanziert (z. B. IW  Wirtschaft und Unternehmerverbände, deshalb auch Vorsicht bei Stellung zum Mindestlohn). "Kostprobe" 2015: "Stimmt es, dass die Kluft zwischen Armen und Reichen wächst? Schauen wir uns die Vermögensverteilung an, so ist in längerer Frist keine Veränderung festzustellen", Michael Hüther, Direktor des IW 2015 (Handelsblatt, Nr. 19, Mittwoch 28.01.15, S. 2). Kein Kommentar! Oder folgende Antwort: "Er war nicht reich, er verfügte nur über unerschöpfliches Taschengeld", Bodo Kirchhoff, Dichter, geb. 1948. Das gilt vor allem beim Einmischen in Wahlkämpfe (Beurteilung der Vermögensteuer durch ZEW).  Systematisch werden in diesen Berichten bestimmte Aspekte ausgeklammert (starke Vereinfachung). Wer z. B. niedrige Steuern, mehr Investitionen und weniger Schulden fordert, sollte auch den ökonomischen Weg dahin aufzeigen. Eine besondere Instrumentalisierung kann man bei Prognosen beobachten. Ständige Wirtschaftsprognosen dienen nur noch interessengeleiteter Politik (immer Institutionen wie Destatis oder Eurostat bevorzugen bei der Info-Abfrage). Bei vielen wichtigen Fragen sind viele Institute auch nicht mehr nur Informationslieferanten und Erklärer, sondern sie machen selbst Politik. Vgl. zu anschaulichen Beispielen: Mark Schieritz, Wahlen mit falschen Zahlen, in: die Zeit Nr. 30, 18. Juli 2013, S. 8. Ohne die ökonomischen Analysemethoden kann man aber auf der anderen Seite komplexe Wirtschaftsbeziehungen national und international weder verstehen noch steuern.  Das "Abwägen von Alternativen" (M. Burda, Quelle: Die Zeit 39/19. Sep. 2013, S.33) sollte ebenso wie maximale Transparenz (was ist Wissen, was ist Vermutung) im Vordergrund stehen. Gerade hierbei sieht man, welch hohes Gut die institutionelle Unabhängigkeit von Professoren und Hochschulinstituten ist. Vgl. Christoph M. Schmidt: Kodex für Politikberater, in: Die Zeit Nr. 40, 26. Sep. 2013, S. 39. Auch: Expertenwissen im politischen Prozess - Nutzen, Grenzen und Gefahren, in: Wirtschaftsdienst 2017/ 4, S. 239ff.  "I strongly feel that the chief task of the economic theorist or political philosopher shoud be to operate on public opinion to make politically possible what today may be politically possible what today may be politically impossible", F.A. von Hayek (Denationalisation of Money, London 1977).

Für die Hochschulen oder andere Institutionen, die mit empirischen Daten arbeiten, ist der Zugang gut und wird immer besser, aber die Kosten sind oft zu hoch. Gerade kleinere Einheiten und einzelne Professoren können sich größere Datensätze nicht leisten.  Weiterhin fehlen Daten hinsichtlich der Evaluierung von Gesetzen. Zum Beispiel beim Mindestlohn  können entsprechende Daten zur Versachlichung beitragen. An der Hochschule ist der Statistikunterricht oft veraltet. Gebraucht werden weniger Rechenqualitäten (hier sind die Computer nicht zu schlagen), sondern mehr Anwendungs - Einschätzungen (welche Methode ist die beste?) und  Interpretationsfähigkeiten. "Statistical Literacy"  nennt man die Allgemeinbildung zur Interpretation von Statistiken. Behauptete Zusammenhänge sollten auch immer kritisch gesehen werden. Vgl. Gerd G. Wagner: Neue Offensive, in: Die Wirtschaftswoche, Nr. 7, 10.02.14, S. 42 und "Mehr Transparenz wagen", Interview mit Monika Schnitzler, Vorsitzende des Vereins für Sozialpolitik, in: Wirtschaftswoche, Nr. 36, 1.9.2014, S. 40-42.. "Es ist erwiesen..., dass die Dinge nicht anders sein können, als sie sind, denn da alles zu einem Zweck geschaffen worden ist, muss es natürlich zum besten Zwecke sein", Professor Pangloss aus dem Roman "Candide" von Voltaire.

Der Einfluss von Wirtschaftswissenschaftlern in den Medien und auf die Wirtschaftspolitik kann nur schwer gemessen werden. Immer wieder wird als Indikator das FAZ-Ökonomenranking genannt. Es besteht aus drei Teilbereichen: Forschung, Medien und Politik. Daneben gibt es eine Gesamtwertung. Vgl. Haukamp, J./ Thomas, T./Wagner, G. E.: Welchen Einfluss haben Wissenschaftler in Medien und auf die Wirtschaftspolitik, in: Wirtschaftsdienst 2015/1, S. 68ff. In letzter Zeit geraten Ökonomen und Politiker immer häufiger aneinander. Das mag damit zu tun haben, dass die meisten "Main Stream" - Ökonomen Neoliberale sind und in der Großen Koalition Gerechtigkeitsfragen wieder mehr Gewicht gewinnen. Ökonomen bringen immer mehr ihre politische Überzeugungen und Grundhaltungen ein. Sie lösen sich damit vom kritischen Rationalismus (Popper) und werden politisch abhängig (vgl. Petra Pinzler, Die Zeit, a. a .O), befriedigen damit aber zumindest ihre Eitelkeit (nicht seltene Eigenschaft bei Professoren). "Der Einfluss der Ökonomen war noch nie so groß wie heute", Clemens Fuest (zitiert nach Capital, Ausgabe 2/ 2016, S. 68).

Ein großes Betätigungsfeld für empirisch - ökonometrische Studien wäre die Evaluationsforschung. Sie könnte untersuchen, ob politische Projekte wirklich erfolgreich sind. Das wäre eine Art TÜV für die Wirtschaftspolitik der Bundesregierung. Vgl. Monika Schnitzer, in: Wirtschaftswoche 20/ 08.05.2015, S. 42.

Für den Normalbürger ist es nahezu unmöglich, alle Daten zu verstehen. Gleichzeitig ist er abhängig von Daten. Einziger Ausweg ist, den Daten zu vertrauen. Insofern wird Vertrauen immer wichtiger. Die gesellschaftlichen Institutionen müssen die Datenverarbeitung kontrollieren. Das ist aber nicht kostenlos zu haben. Vgl. Colin Crouch, Die bezifferte Welt, Frankfurt/ Berlin (Suhrkamp) 2015. "Fakten allein machen keinen Sinn", Deirdre Mc Closkey, Uni Chicago, emeritiert.

Durch Big Data wächst die Bedeutung empirischer Studien. Es gibt aber immer mehr Statistikfehler und frisierte Daten. Immer wichtiger wird daher die Überprüfung vorliegender Studien. Replikationsstudien sind aber umstritten ("Forschungsparasiten").

"Ökonomen sind moralisch gesehen keine schlechteren, aber auch keine besseren Menschen als der Rest der Welt", Gebhard Kirchgässer, in: FAZ, 26. Oktober 2012, Seite 12 (Zur Rolle der Ökonometrie in der wissenschaftlichen Politikberatung, Thünen-Vorlesung beim Verein für Sozialpolitik). Vgl. auch: Wo sind die Ökonomen?, in: Die Zeit, Nr. 23, 29. Mai 2013, S. 21.

 

 

Zusammenhang "Modell, Planspiel, Rollenspiel und Simulation":

"Des Menschen Auge sieht weit, des Menschen Verstand sieht weiter", Dschingis Khan.

Das Modell ist ein vereinfachtes Abbild eines Stückes der Realität. In der Volkswirtschaftslehre ist das Denken in Modelle eine übliche Vorgehensweise. Das Abbild ist immer subjektiv geprägt. Wenn man mit einem Modell arbeitet, das über Zahlen definiert ist und damit Vorgänge nachahmt, und das zusätzlich noch eine dynamische Betrachtungsweise hat, spricht man von Simulation. Meist wird der formulierte Spielrahmen heute am Computer berechnet. Sind in dieses Simulationsmodell Menschen mit ihrem Verhalten als Entscheidungsträger eingebaut, nennt man dies Planspiel.  Vgl. Matischiok, G. M.: Denken in wirtschaftlichen Zusammenhängen, Stuttgart 1999, S. 21. Beim Rollenspiel wird ein Planspiel in sehr kompakter Form in der Regel als Theaterstück vor einem Publikum vorgespielt. Dies kann persönlich ablaufen oder vorher in einem Video aufgenommen sein. Vgl. als Veranstaltung hierzu "Psychologie &Kommunikation".

 

Empirische Forschungsmethoden in den Wirtschaftswissenschaften (insbesondere für Bachelor- und Masterabschlussarbeiten).

Die Wahrheit finden wollen, ist Verdienst, wenn man auch auf dem Wege irrt", Georg Christoph Lichtenberg, deutscher Philosoph.

Bei den Methoden der Datenerhebung wird bei Bachelor- und Masterarbeiten (Stichprobe ist gebildet aus von mir betreuten Arbeiten) noch in der Hauptsache mit Interviews gearbeitet. Quantitative Interviews werden heute überwiegend im Internet (häufig auch über soziale Netzwerke) durchgeführt. Dazu stellt die Hochschule eigene Software zur Verfügung (z. B. Qualtrics an der HS Lu).  Der Trend geht zu qualitativen Interviews, insbesondere bei explorativen Fragestellungen (vor allem in Masterthesen). Die qualitativen Interviews werden noch überwiegend persönlich vorgenommen. Komplexe statistische Auswertungsmethoden finden hier meist keine Anwendung (vgl. unten). Schwierig ist die Bedingung der Zuverlässigkeit hier zu erfüllen, weil oft der individuelle Datenschutz gewährleistet sein muss.

Immer mehr wird auf die Methode der Inhaltsanalyse zurückgegriffen. Das hängt mit der sehr starken Bedeutung des Internets zusammen. Homepages von Firmen oder von anderen Organisationen sind eine bevorzugte Quelle (z. B. bei Arbeiten über CSR, Ethno-Marketing, Ethik, Diversity). In der Regel erfolgt die Analyse qualitativ. Die Inhaltsanalyse kann auch auf das Intranet der Unternehmen ausgedehnt werden (Datenschutz und Geheimhaltung beachten; die Firmen wollen oft anonym bleiben). Auch auf andere, vergleichbare empirische Untersuchungen, kann mit der Inhaltsanalyse zugegriffen werden.

Die Beobachtung ist traditionell wichtig. Fallstudien, Praktika oder Jobs im Betrieb bieten eine hervorragende Quelle. Gerade Praktika im Ausland (z. B. in Unternehmen in China) sind ergiebig. So liegt normalerweise eine teilnehmende Beobachtung vor. Sie ist sehr nützlich bei seltenen kulturellen Phänomenen (z. B. Matriarchat). Andere Formen, wie die nicht teilnehmende Beobachtung, sind selten. Die Studenten nutzen die Chancen der Beobachtung noch zu selten.

Kaum arbeiten Studenten mit dem Experiment. Laborexperimente können im Marketing, in der Marktforschung oder Werbung Anwendung finden. Neuerdings arbeitet man in der Emotional Economics zunehmend mit Laborexperimenten (z. B. Entscheidungen unter Stress). Die Aussagen sind allerdings oft eingeschränkt, weil Studenten (Freunde, Bekannte, Kohorte) als Versuchspersonen eingesetzt werden. Die Stichprobengröße ist meist sehr gering, so dass die Repräsentativität nicht hoch ist. Alle relevanten Faktoren sind schwierig zu kontrollieren. Natürliche Experimente sind nützlich in der Volkswirtschaftslehre. So erzeugte die historische Parallelwelt der DDR einzigartiges Datenmaterial für die deutsche Volkswirtschaftslehre. Ein einzigartiges Experiment ist auch die Entwicklung in China. Vgl. Ökonomen lernen vom Sozialismus", in: Handelsblatt, Nr. 124, 5.11.12, S. 12. "Wir müssen sehen, wo uns die Geschichte ein Experiment anbietet", Davide Cantoni, Uni München, s. ebenda).

Bei den Methoden der Datenauswertung steht das Programm SPSS im Vordergrund (ist an der HS Lu vorhanden). Grundauszählungen müssen immer gemacht werden. In der Volkswirtschaftslehre wird oft mit Regressionen und Korrelationen gearbeitet. In der Betriebswirtschaftslehre hängt die Auswertung stark vom Thema ab. Hypothesentests und  Diagramme kommen meist vor. Die Tabellenanalyse sollte mehr eingesetzt werden. Problematisch dabei ist oft, dass meist keine Zufallsstichproben vorliegen, die Studenten aber multivariate Methoden und Hypothesentests anwenden wollen. Die Statistik bietet hier Normwerte für n an (z. B. n=30). Bei qualitativen Untersuchungen, aber auch quantitativen Analysen explorativer Art, sind statistische Hypothesentests oft nicht möglich oder sinnvoll. Bei den Qualitätskriterien Gültigkeit und Zuverlässigkeit müssen bei den Arbeiten der Studenten oft Abstriche gemacht werden (Zeitdruck, Anonymität u. a.). Dem Wunsch der Unternehmen nach Anonymität sollte entsprochen werden (kann auf Kosten der Zuverlässigkeit gehen). Außerdem versuchen die Firmen manchmal, Einfluss auf die Ergebnisse zu nehmen (Objektivität in Gefahr!). Besonders wichtig ist mir, dass die Grenzen der empirischen Forschung erkannt werden und die Ergebnisse kritisch diskutiert und gewertet werden (Relativierung).

Als gute Basis muss eine gründliche theoretische Analyse mit plausiblen und sinnvollen Hypothesen vorhanden sein. Die theoretische Analyse mündet also in den Hypothesen oder zumindest Forschungsfragen als Ergebnis. Vorher sollte der Forschungstand klar beschrieben werden. Überprüfungen vieler empirischer Studien zeigen, dass beim Nachrechnen oft etwas anderes herauskommt. Insofern brauchen empirische Arbeiten mehr Kontrolle. Die beste Kontrolle erlaubt aber eine saubere methodische Arbeit. Nichts ersetzt eine gute Theorie. Vgl. Hanno Beck/ Alois Prinz: Nichts ersetzt eine gute Theorie, in: FAZ 8. Februar 2016, S. 18.

"Mit Statistik kann man alles beweisen, sogar die Wahrheit. Also bin ich für Statistik", Marcel Reich-Ranicki, Literaturkritiker, gestorben 2013.

Ludwig von Mises war der Ansicht, dass empirische Methoden nicht auf die Sozialwissenschaften angewendet werden sollen.

 

Die Zukunft der Wirtschaft (Prognose der Weltwirtschaft 2013 bis 2033)

"Viele leben zu sehr in der Gegenwart: die Leichtsinnigen; andere zu sehr in der Zukunft: die Ängstlichen", Arthur Schopenhauer (Die Welt als Wille und Vorstellung; er war ein Wegbereiter der Moderne).

Methode: Prognosen sind immer bedingte Prognosen, in dem Sinne, dass sie von Randbedingungen abhängen. Meist werden die Zusammenhänge von heute auch in Zukunft vorausgesetzt.  Prognosen sind immer in ein Gesamtsystem eingebettet. Die Analyse dieses Systems ist hochkomplex. Bestimmende Trends der Gegenwart werden prolongiert, wie z.B. Klimawandel, Globalisierung, technischer Fortschritt und Bevölkerungsentwicklung. Insofern ist jede Prognose in der Gegenwart verankert (die Regeln sind: keine Wunder/ Sprung im technischen Fortschritt, kein dritter Weltkrieg, keine bösen Flaschengeister/ weltweite Wirtschaftskrise, die Modelle von heute sind ausreichend gut, vgl. Laurence C. Smith, a. a. O. S. 22f.). Das Verhalten der Menschen wird in der Regel konstant angesetzt. Besonders wichtig sind die Bildungsbeteiligung, die Erwerbsbeteiligung, das Weiterbildungsverhalten, das moralische Verhalten und das Konsumverhalten. Die Handlungsoptionen für die Politik werden oft ausgeklammert. Durch politische Eingriffe verändern sich Parameter entscheidend. Kurzfristige Prognosen, die auf gigantischen Mengen von persönlichen Daten beruhen ("Big Data"), werden immer genauer. Optimierte Logistikprozesse bei den Unternehmen führen zu geringeren Kosten. Verkaufprognosen für einzelne Produkte werden immer genauer. Weil Speicherplatz fast nichts mehr kostet und die Computer immer leistungsfähiger werden, kann mithilfe geeigneter Algorithmen im virtuellen Raum immer genauer und klarer in die Zukunft gesehen werden. Algorithmen werden aber zielgerichtet programmiert und dienen meist Profitinteressen (Beispiel das Suchsystem von Google, das individuell lernt). Bestimmte Zusammenhänge ändern sich aber im Zeitablauf. Heute tun schlechte Prognosen der Aktienbörse gut (früher war es umgekehrt, weil gute Konjunkturprognosen steigende Unternehmensgewinne anzeigten). Heute fehlen Alternativen in den Anlagen. Für 2013 lieferte die Deutsche Bundesbank die treffsichere Prognose (Wachstum 0,4%, Inflation 0,5%). Die Wirtschaftsforschungsinstitute, die EU-Kommission und die Banken hatten das Nachsehen. "Prognosen sind schwierig - vor allem wenn sie die Zukunft betreffen", Niels Bohr (1885-1962, Wissenschaftler der Physik).

Wirtschaftstrends der Gegenwart mit Ausstrahlung in die Zukunft: Die Staatsverschuldungen bergen ein großes Risiko in sich. Nicht nur die absolute Höhe der Gesamtverschuldung ist wichtig (z. B. ist sie in Japan weit über 200%, aber die Verschuldung ist beim eigenen Volk und Japan ist großer Gläubiger, z. B. für die USA). Die gegenwärtige Geldschwemme in der Welt bringt große Probleme für die Zukunft. Verlierer sind die große Mehrheit der Bürger, deren Ersparnisse in Sparbüchern und Lebensversicherungen angelegt sind. Die Messung der Inflation über den Konsumgüterpreisindex ist verschleiernd (die Explosion der Immobilienpreise begünstigt Vermögende). Die großen Gewinner sind die Reichen, die sich die Spekulationsprofite sichern (Kluft zwischen Arm und Reich wird größer). Das Wachstum der Industrieländer hat und wird sich weiter verlangsamen (in den G7-Ländern war es zwischen 1960 und 1969 mit 5,1% am höchsten, zwischen 2000 und 2010 nur noch 1,3%). Wachstum hängt stark vom Basiseffekt ab (deshalb ist es in Schwellenländern immer höher). Endloses Wachstum kann und wird es nicht geben. Die USA funktionieren nicht mehr als Konjunkturlokomotive der Weltwirtschaft (ihre Bürger sind zu hoch verschuldet, die Parteien sind zerstritten; mit Basiseffekt ist sie gegenwärtig noch Lokomotive). Die Schwellenländer, allen voran China (mit seinen 440 Megastädten), werden mit ihrem BIP die Industrieländer einholen und überholen (erstmal verlangsamt China sein Wachstum, Indien setzt auf Dienstleistungen, Russland auf Rohstoffe und Agrarproduktion). China wird sich längerfristig auf 3, 4% Wachstum einpendeln und wird von Indien überholt werden (wichtiger Einflussfaktor Altersstruktur der Bevölkerung). Das Wachstum wird weiter von Investitionen, Produktivität, Arbeit und technischem Fortschritt bestimmt werden. Die digitale Revolution wird dabei das Leben von Grund auf ändern. Aufgrund der Automation, insbesondere im industriellen Bereich, kann es zu Migrations - Wellen aus den bevölkerungsreichen Schwellenländern kommen (steigende Löhne beschleunigen den Prozess).  Kurzfristig liegt das größte Risiko im Euro (Europa muss sparen und Wettbewerbsunterschiede abbauen; einige Länder wollen raus, so wie Großbritannien: Brexit), langfristig in den Problemen Chinas und anderer Schwellenländer (Kluft zwischen Arm-Reich und Stadt-Land). Unser eigener Wohlstand in Europa wird vom Vorsprung an Innovationen abhängen. Der demographische Wandel lässt Europa immer stärker ergrauen und gefährdet Innovationen (dagegen wirkt die Einwanderung). Noch offen ist die Reaktion der Wirtschaft auf fehlende Wachstumsraten (gegenwärtig hängt die Verteilungspolitik daran).  Wir brauchen neue Wertesysteme und Einstellungen. Berühmt geworden ist die Prognose von Laurence C. Smith (deutsch: Die Welt im Jahre 2015. Die Zukunft unserer Zivilisation, Berlin 2014). Sein Ergebnis ist, dass der Norden der Erde - also Russland, USA, Kanada, Island, Norwegen, Finnland, Dänemark und Schweden (Norcs) - ein enormes Potential entwickeln, wirtschaftlich profitieren und insgesamt stabiler dastehen als die Länder der südlichen Breitengrade. Vgl. auch Dobbs, R./ Manyika, J./ Woetzel, J.: No Ordinary Disruption, London 2015.

Kulturtrends: Verschmelzen die Welten und ersetzen den "Kampf der Kulturen"? In allen Ländern gibt es globale Oligarchen, die die Interessengegensätze leicht überwinden und ihr Geld und Vermögen überall in der Welt anlegen, bevorzugt in Steueroasen. Kleine Eliten haben ihre Macht in allen Staaten ausgedehnt (Plutokratie). Dies gilt auch für die ehemals kommunistischen Staaten. Die Eliten profitieren vom Konkurrenzkampf der Staaten untereinander. Der freie Zugang zu Bildung, eigentlich ein Menschenrecht, ist für über 72 Mio. Kinder ein leeres Versprechen. Vor allem in Afrika ist der Bildungsnotstand in absehbarer Zeit nicht zu beseitigen. Illegale Geschäfte wachsen an, weil sie von der wirtschaftlichen Deregulierung, Abschaffung der Grenzkontrollen und politischen Uneinigkeit profitieren. Die "Commons", auch Wissens-Allmende genannt, werden immer bedeutender. Sie werden außerhalb des Marktes organisiert. Dazu gehören z. B. Linux, Firefox und Wikipedia. Das Internet ist auch den ärmsten Ländern zugänglich (das große Geschäft wird immer noch in den USA gemacht). Vom Umsatz her führt immer noch die Filmindustrie der USA; die weltweit meisten Zuschauer hat der indische Film. Vgl. Le Monde, Atlas der Globalisierung. Die Welt von morgen, Paris/ Berlin 2012. Wir sehen gar nicht mehr, wo unsere Freiheit mittlerweile beschränkt wird. Die digitale Welt wird immer mehr vordringen und mit ihr wird Alles vorhersehbar und kontrollierbar. Gerade Volksabstimmungen (Beispiel Brexit in GB) zeigen große Einflüsse des Internets. Die Menschen lassen sich eher bestätigen als noch kreativ zu denken.

Weltwirtschaft 2033: Asien wird seine alte Position aus dem 18. und 19. Jahrhundert wieder gewonnen haben. Experten sehen eine Verteilung der Weltwirtschaft von 25% für Europa, 33% für Nordamerika und 35% für Asien (Quelle: OECD). Die Weltproduktion wird sich in ihrer Struktur nicht grundlegend ändern. Auch die Exportanteile der Branchen werden weitgehend bestehen bleiben. China wird der mit Abstand größte Weltproduzent sein (z. B. 70% bei Textilien, auch hoch bei Elektronik und Fahrzeugbau; China wird auch viel stärker werden bei Investitionsgütern und Vorleistungen). Wichtige Schwellenländer werden an Gewicht gewinnen (Brasilien, Indien). Japan und die USA werden die Industrieländer sein, die Boden verloren haben. Die USA erhält wieder einen Aufschwung durch Fracking (und das Absinken des Ölpreises). Deutschland wird voraussichtlich weiter gut dastehen. Der größte Handelspartner Deutschlands wird noch die EU sein (60%, das Wettbewerbsproblem in der EU wird abgemildert sein). Dann wird China folgen. Aufgrund der globalisierten Wertschöpfungsketten werden Mobilität, Transport, Logistik und Informationstechnologie stark gewachsen sein. Die anfangs gemachte Annahme, dass keine großen Krisen eintreten ist hier am problematischsten. Gerade die Ukraine-Krise und die Reaktion Russlands auf die Sanktionen zeigt die Schwierigkeit auf. Der Risikobericht des Weltwirtschaftsforums 2014 sieht weiterhin das Gespenst einer Finanzkrise, weil die globalen Rahmenbedingungen sich im Vergleich zum Jahr 2008 kaum geändert haben und zu viel Geld auf den Finanzmärkten ist. Der britische Ökonom Gerard Lyons (Berater des Bürgermeisters von London; Das neue Wirtschaftswunder, Berlin 2014) prognostiziert, dass die Weltwirtschaft in den kommenden zwanzig Jahren ein enormes Wachstum erfahren wird. Asien wird an wirtschaftlicher Macht gewinnen und seine gefährliche Allianz mit den afrikanischen Staaten noch verstärken. Die chinesische Entwicklungspolitik in Afrika ist effizienter als die europäische. Das politische und militärische Machtzentrum wird im Westen bleiben.

Klimawandel und Umwelt: Offen bleibt, wie die Weltwirtschaft mit dem Klimawandel fertig wird. Die stark betroffenen Regionen werden große wirtschaftliche Probleme bekommen. Ein effizientes  Global Government in diesem Bereich ist dringend erforderlich (ob die Weltklimakonferenz Ende 2015 in Paris eine tragfähige Konzeption bringt, ist offen). Die zeitliche Streckungsmöglichkeit ist zu groß (Sanktionen, Kontrollen fehlen). Der zunehmende Anspruch der Menschen auf die natürlichen Ressourcen (fossile Brennstoffe, Mineralien, Grundwasser, erneuerbare Ressourcen wie Flüsse Ackerland) wird prägend sein.  Inwieweit Fracking auf längere Zeit Einfluss haben kann, ist ungewiss. Zumindest mittelfristig scheint damit die Führungsrolle der USA in der Welt gesichert. Die Auswirkungen Stickoxyde werden noch völlig unterschätzt.  Hinzu kommt der Klimawandel (eher durch CO2). Die Auswirkungen der Treibhausgase stehen außer Frage. Die Durchschnittstemperaturen steigen, das Wetter und die Natur spielen zunehmend verrückt.  Die Arktis wird in jeder Hinsicht bedeutsamer werden. Dort werden die Häfen der Zukunft für Rohstoffe liegen (Archangelsk in Russland und Churchill in Kanada). Vgl. Laurence C. Smith: Die Welt im Jahr 2050, Berlin 2014, S. 248ff. Die Naturkatastrophen werden zunehmen. Gletscher werden schmelzen und viele Insel werden verschwinden und Städte werden überschwemmt (z. B. Shanghai). Kriege, Hungersnöte, Krankheiten und Flüchtlinge könnten zunehmen. Gerade an der Grenze zwischen China und Russland könnte es zu ungeheuren Flüchtlingsströmen von China nach Russland kommen. Wasser wird der Rohstoff der Zukunft sein. Die Wasserkrise wird sich dramatisch zuspitzen, vor allem in Asien (alle wichtigen Flüsse entspringen in Tibet, China greift ein). Insbesondere Nord-China hat einen riesigen Bedarf. Um langfristige Änderungen zu bewirken, müssen sich Kultur und Einstellungen der Menschen wandeln: 1. Gefragt ist Effizienz, d. h. eine ergiebigere Nutzung von Material und Energie. 2. Konsistenz, d. h. naturverträgliche Technologien, welche die Ökosysteme nicht belasten. 3. Suffizienz, d. h. maßvoller Rückgang der Nachfrage nach Gütern und ihre hemmungslose Nutzung.

Leben und die Arbeit 2033: Die Dienstleistungstätigkeiten sind schwierig zu messen und zu prognostizieren, weil sie an der Industrie hängen. Die wissensbasierten Tätigkeiten werden weiter zunehmen, aber nicht unbegrenzt (von heute 21% auf 25%?). Die verwaltenden und organisatorischen Tätigkeiten werden konstant bleiben, ebenso wie die primären Dienstleistungen. Produktionsnahe Tätigkeiten werden abnehmen (von heute 21% auf 18%, Quelle: Prognos/ Vereinigung der Bayrischen Wirtschaft, Arbeitslandschaft 2035, Basel 2012). Es wird noch weniger Personen als heute ohne berufliche Bildung geben und mehr mit Hochschulabschluss. Andererseits werden aber die Kernbelegschaften der Unternehmen weiter ausgedünnt und die prekäre Beschäftigung wird in allen Staaten ansteigen. Die Löhne werden weiter auseinanderdriften ("great decoupling") und der Zwang zum Grundeinkommen wird steigen.  Die Globalisierung  schwächt die sozialen Sicherungssysteme und wandelt den Arbeitsmarkt. Der Fachkräftemangel ist schwierig einzuschätzen (Veränderung der Produktion, Branchenstruktur, Arbeitsinhalte, demographische Entwicklung). Alters- und geschlechtsspezifische Erwerbsquoten werden sich ändern (mehr Frauen und Ältere in der Arbeit). Geburtenrate, Zuwanderung und Lebenserwartung werden sich ebenfalls gewandelt haben. In den Kernbedürfnissen des Lebens wird es Umschichtungen geben: mehr Freizeit/ Kultur, mehr Gesundheit, mehr Sicherheit; Wohnen und Nahrung/ Kleidung werden sich weniger verändern. Die bezahlte Arbeit und der Arbeitsmarkt werden nicht mehr so stark unser Leben beherrschen, weil sich Werte und Einstellungen verändert haben. Die Vorstellungen und Wünsche bezüglich Wohlstand werden sich geändert haben. "Work-Life-Balance" und Lebensqualität stehen gegenüber Geld im Vordergrund. Die Menschen werden ihre Naivität im Umgang mit den neuen Medien und dem Internet abgelegt haben, weil sie dafür besser ausgebildet wurden. Biotechnik, Cyborgtechnik (Wesen, die aus organischen und nicht-organischen Teilen bestehen) und die Entwicklung von nicht-organischem Leben werden die Natur des Menschen verändern (vielleicht das Ende des Homo sapiens). Mensch und Maschine wachsen zusammen. Die Arbeitslosenquoten in vielen Ländern sind ansteigend und es gibt bisher kein Patentrezept dagegen. Die Frage ist, wo die Belastungsgrenze der jeweiligen Gesellschaft liegt. Die Industrie 4.0, die mit stark steigender Digitalisierung und Automatisierung der Wirtschaft verbunden ist, könnte dies verstärken. Körperliche Arbeit wird vollständig durch Maschinen substituiert werden. Auch geistige Routinetätigkeiten können Computer ausführen.  Die Prognose des Rückgangs der potentiellen Arbeitskräfte in Deutschland von 2013 bis 2050 um 34,3% könnte gegen wirken (aber viele Flüchtlinge).

Politische Partizipation und Demokratie 2033:  Die Menschen werden sich einerseits mehr auf private Bedürfnisse und Interessen konzentrieren, andererseits wird das Solidaritäts- und Gemeinschaftsgefühl wieder gewachsen sein. Ohne mehr Partizipation und Volksabstimmungen wird es nicht gehen. Der demokratische Mechanismus über Wahlen und Parteien wird an Bedeutung verlieren (Anteil der Nichtwähler wird immer größer und gefährdet die Legitimation). Der typische Nichtwähler ist eher jung, der Unterschicht zugehörig, gering verdienend, bildungsschwach, unpolitisch bis gleichgültig (Studie von Bertelsmann, Bielefeld/Institut für Demoskopie, Allensbach). Die direkte Demokratie mit Volksentscheiden wird an Bedeutung zunehmen (Stuttgart 21, Wasserwirtschaft, Nichtraucherschutz, Schulreform). Die Abstimmung über den Brexit in Großbritannien zeigt aber auch die großen Nachteile und Gefahren auf (Menschen bestätigen im Internet ihre Vorurteile und Ängste, sie fallen eher auf Lügen herein). Die Menschen organisieren sich (auch mithilfe des Internet) mehr über private Netzwerke, die immer globaler sein werden. Innerhalb dieser Netzwerke werden Werte formuliert und berücksichtigt werden. In vielen Bereichen werden die Bürger alternative Formen einrichten (z. B. Parallelwährungen). Staatslenker und Firmenchefs stoßen überall auf der Welt auf aufbegehrende Bürger. Insofern werden die Mächtigen immer ohnmächtiger werden. Die Bürger haben auch zunehmenden Einfluss als Konsumenten. Indem sie sich für Produkte entscheiden, können sie mit ihrem Konsumentenverhalten Firmen beeinflussen und vielleicht die Welt verändern (z. B. Billigtextilien nicht kaufen). Wahrscheinlich wird sich die Welt in vielen Ländern Richtung Zivilkapitalismus entwickeln. Die Bürger eignen sich die Ökonomie als Gestaltungsmittel, als Instrument zur Weltverbesserung an. Leider werden Kundenzufriedenheit und Kundenreaktionen die politische Beteiligung oft ersetzen (die Internetökonomie braucht Daten).  Nationalstaaten werden immer mehr an Bedeutung verloren haben. Weltmärkte, Multis und NGO zeigen die Grenzen auf.

Deutschland 2033: Der Offenheitsgrad der deutschen Wirtschaft steigt weiter an (Exporte und Importe durch BIP). Dadurch sind wir der größte Profiteur der Globalisierung. Unsere Handelspartner sind breit gestreut (am wichtigsten Schweiz, Österreich, GB, Frankreich, USA, China). Es muss mehr investiert werden und das demographische Problem muss gelöst werden. Bei den Schlüsseltechnologien muss dringend aufgeholt werden gegenüber den USA. Es sind folgende: Informations- und Kommunikationstechnologie, intelligenter Verkehr und zukünftige Mobilität, Energiesysteme. Hier werden die Standards noch in den USA gesetzt. Vgl. Prognos AG: Deutschland-Report 2040. Die ökonomische Entwicklung Deutschlands wird stark von der EU abhängen. Es bleibt abzuwarten, wie sich der Brexit auswirkt.

Die Regionen in Deutschland driften immer weiter auseinander. Das Berlin-Institut für Bevölkerungsentwicklung legt 2019 eine Studie vor, die die "Zukunftsfähigkeit der 401 deutschen Landkreise und kreisfreien Städte bis 2035" untersucht. 21 Indikatoren sind ausschlaggebend für die Einstufung in führend, Mittelfeld und Schlusslichter. Untersuchte Faktoren sind Kinderzahl, unter 35-jährige, durchschnittliche Lebenserwartung, Zu- / Ab- Wanderung, über 74-jährige, Bevölkerungsprognose, verfügbares Haushaltseinkommen, Bruttoinlandsprodukt, Kommunale Schilden je Einwohner, Beschäftigung, Arbeitslose und Sozialhilfeempfänger, Frauenbeschäftigung, Altersbeschäftigung, Fremdenverkehr, Arbeitsmarktchancen von Migranten, Schulabgänger, Jugendarbeitslosigkeit, Hochqualifizierte, Elterngeldbezieher, Ganztagesbetreuung, Wohnraum. An der Spitze liegen die Regionen München und Heidelberg. Führend sind auch die Regionen um Nürnberg, Stuttgart und Freiburg. Ebenso die Rheinschiene, Frankfurt, Münster, Hamburg, Potsdam.

"Die Zukunft war früher auch besser", Karl Valentin.

 

Mathematik und Ökonomie (Nutzen und Anwendung):

"Jeder, der uns mag, kriegt unser Einmaleins gelehrt", Pippi Langstrumpf.

"Durch den Einsatz von Mathematik werdet ihr mit der Wirtschaftswissenschaft dasselbe tun wie die Scholastiker mit der Philosophie. Indem ihr die Dinge immer subtiler macht, werdet ihr nicht mehr wissen, wo ihr aufhören müsst", Ignazio Radicati, Mathematiker, Italien 1752.

Grundlagen: Es geht um Modelle und ihre Quantifizierung, wobei konkrete Aspekte der ökonomischen Wirklichkeit herausgearbeitet und formal erfasst werden. In der Allgemeinen Volkswirtschaftslehre (Grundlagen) sind mathematische Funktionen, die mit der Differentialrechnung analysiert werden, und Elastizitäten am wichtigsten (die relative Mengen - Änderung zur relativen Ursachen - Änderung). Für die Durchführung von Elastizitätsrechnungen reichen die Grundlagen der Prozentrechnung aus, wichtiger ist das ökonomische Verständnis. Folgende Elastizitäten sind wichtig: direkter Preis des gleichen Gutes, indirekter Preis bzw. Kreuzpreis und Einkommen. Preiselastizitäten sind normalerweise negativ (positiv bei Snob - Effekt), Einkommenselastizitäten positiv (prozentuale Änderung der nachgefragten Menge infolge einer Erhöhung des Einkommens um ein Prozent). Neben den üblichen Preis-, Kreuzpreis und Einkommenselastizitäten gibt es noch folgende Elastizitäten: Skalenelastizität (Faktoreinsatz, Output), Kostenelastizität (Produzierte Menge, Kosten), gesamtwirtschaftliche Aufkommenselastizität ( BIP, Steueraufkommen einer bestimmten Steuerart), Importelastizität, Exportelastizität. 1518 n. Chr. verfasste Adam Ries das erste deutsche Rechenbuch. Vergleichen und Abschätzen bzw. Einschätzen  von Distanzen muss auch bei Handys jeder im Kopf machen. Vgl. Adam-Ries-Bund, Annaberg/ Sachsen.

Für die notwendigen Grundlagen der Differentialrechnung (Kurvendiskussion) ist eine gewisse Abstraktionsfähigkeit am wichtigsten. Funktionen sind in der Lage, extrem komplexe Sachverhalte auf den Punkt zu bringen und auf den Kern zu reduzieren. Gute Beispiele sind die Produktionsfunktion in der Mikroökonomik, die Konsumfunktion der Makroökonomik oder die Exportfunktion in der Außenwirtschaft. Entscheidend für die Anwendung mathematischer Methoden ist die Passgenauigkeit zum Problem. Mathematik sollte nicht in jedem Falle zur Anwendung kommen. "Die Mathematik ist schön - sie kann nichts dafür", Tomas Sedlacek: Die Ökonomie von Gut und Böse, München 2013 (Original 2009), S.360.

Finanzmathematik: Die Finanzmathematik ist eine der erfolgreichsten Zweige der Mathematik in der Ökonomie, wenn man nach der Bedeutung in der Praxis bewertet. Mithilfe der Finanzmathematik können Risiken bewertet und Kurse auf den Finanzmärkten vorausberechnet werden. So ist die Value at Risk-Formel ein sehr gutes Risikomaß und wahrscheinlich das bekannteste. Sie misst den Geldbetrag, der bei einer finanziellen Position auf dem Spiel steht (vgl. genauer dazu internationale Finanzmärkte bei Economics/special). Ein Unterbereich der Finanzmathematik, die Versicherungsmathematik, ist heute unverzichtbar. Mit der Wahrscheinlichkeitstheorie können Preise berechnet werden (Relation zwischen Auszahlungsfall/ Schaden und Einzahlung). "Die Wahrheit ist größer als die Mathematik", a. a .O., S. 366. "Keiner, der nichts von Geometrie versteht, trete hier ein!" Überschrift über dem Eingang zur Platonischen Akademie in Athen.

Gefahren: Natürlich kann die Mathematik, wie jede Methode, missbraucht werden. Zwanghafte Optimierer können mit den Formeln tricksen und spekulieren. Die größte Gefahr besteht darin, dass nicht offen über die Grenzen der Finanzmathematik informiert wird. Kreditrisiken sind eng an das Verhalten von Menschen gebunden, das nicht exakt kalkuliert werden kann. Bei Derivaten hängt die Auszahlung von nicht gehandelten Werten ab. Sie können gar nicht eindeutig bewertet werden. Folglich gibt es auch keine eindeutige Absicherungsstrategie (vgl. Frank Riedel: Die Schuld der Ökonomen. Was passiert, wenn ökonomische Modelle auf Gier treffen, Berlin/ Econ 2013, S. 69ff.). Bei den Modellen der Banken wird in der Regel freier Wettbewerb ohne Markmacht vorausgesetzt. Doch dies ist nur ein Ideal. "Der Determinismus und : Einfach ist nicht schön", a. a. O., S. 367. "Die Mathematik ist zwar eine unverzichtbare Hilfswissenschaft für den Investor, die Wertpapieranalyse kann aber niemals eine mathematische Wissenschaft sein. Die mathematische Analyse scheitert immer an unpassenden und veränderlichen Daten, an der prinzipiellen Ungewissheit der Zukunft und der Irrationalität der Märkte", Georg von Wallwitz, Odysseus und die Wiesel. Eine fröhliche Einführung in die Finanzmärkte, München 2014, S. 31..

"Mathematik ist die rationalste aller Wissenschaften. Dennoch spielt Intuition eine wichtige Rolle (Beweise werden aus Ideen und Intuition gemacht. Über ihre Intuition sprechen Mathematiker selten)", Günter Ziegler, Mathematikprofessor, FU Berlin, in: Brandeins 11/16, S. 57. Als der intuitivste Mathematiker aller Zeiten gilt der Inder Srinivasa Ramanujan (Film "Die Poesie des Unendlichen").

Konsequenzen: Aus spieltheoretischer Sicht kann man nachweisen, dass Banken nicht die Wahrheit sagen wollen. Geht man aber von einer falschen Annahme aus, passieren Dinge wie der LIBOR-Mechanismus (Liborsätze wurden von Banken manipuliert). Bonuszahlungen der Banken tun ihr übriges. Sie verstärken den Anreiz, die Value at Risk-Formel  zu missbrauchen, indem Risiken versteckt werden (Vgl. Riedel, a.a.O., S. 113). Vielleicht gelingt es in Zukunft besser, die Mathematik in die Theorien zu integrieren. Immerhin haben viele makroökonomischen Theorien die Finanzkrise nicht vorausgesehen, weil die Finanzmärkte gar nicht Bestandteil der Theorie waren. Exakte Vorhersagen sind aber auch dann nicht zu erwarten. Prognosen werden letztlich am Schluss immer aufgrund von Verhandlungen geschliffen. Der Faktor Mensch wirkt insofern doppelt (einmal über das Verhalten der Menschen in der Wirtschaft, zum anderen in der Rolle des Menschen als Ökonom). Mit großer Wahrscheinlichkeit waren die Maya die Erfinder der Null (schon im 1. Jahrhundert vor Christus, Symbol für Nichts). Mit der Null konnten sie ein Zahlenwerk entwickeln, dass unserem Dezimalsystem entspricht. Sie konnten so auf wenig Platz mit großen Zahlen rechnen. Sie rechneten 7000 Jahre in die Zukunft.

Mathematische Meilensteine der Neuzeit waren die Arbeiten von Bertrand Russel in Großbritannien und von Kurt Gödel in Österreich. Russel wollte Mathematik und Logik miteinander verschmelzen. Ein besonderes Anliegen waren ihm auch die mathematischen Beweise. Er wollte nicht nur Axiome akzeptieren. Berühmt ist sein Beweis, dass 1 + 1 = 2 ist. Gödel stellte den Unvollständigkeitssatz auf: Er besagt, dass jedes mathematische System, das auf Axiomen beruht und komplex genug ist, um von irgendeinem Nutzen zu sein, entweder unvollständig ist oder innerhalb der eigenen Voraussetzung nicht beweisbar ist. In dieser Zeit gab es noch weitere Beweisversuche. Am berühmtesten ist Schrödingers Katze (1935 von dem Physiker Ernst Schrödinger vorgetragen). In einem Gedankenexperiment wird eine Katze in einen Kasten gesperrt. Entweder ist die Katze tot oder sie lebt. Vgl. John Higgs: Alles ist relativ und anything goes, Berlin 2016, S. 125ff. Zu den Meilensteinen gehören natürlich auch die universellen Gesetze: Gesetz der großen Zahlen oder der Zentrale Grenzwertsatz.  "Gewissheit gibt allein die Mathematik. Aber sie streift nur den Oberrock der Dinge", Wilhelm Busch, deutscher Humorist.

"Die mathematische Ökonomie wird dadurch den Status der mathematischen Wissenschaften Astronomie und Mechanik erreichen. Und an diesem Tag wird unsere Arbeit gebührend gewürdigt werden", Leon Walras (er präsentierte 1874 sein mathematisch formuliertes Modell der Tauschwirtschaft).  Pro

"Abgesehen von der Instabilität durch Spekulation, gibt es eine Instabilität aufgrund der menschlichen Natur, die die Eigenschaft hat, dass ein großer Teil unserer positiven Handlungen eher von spontanem Optimismus geleitet sind als von mathematischen Erwartungen", John Maynard Keynes, 1936. Contra

"Wie die Physik eine Wissenschaft sei, die die Natur methodisch und mit mathematischen Mitteln analysiere, kombiniere auch die Ökonomie Mathematik, Statistik und Logik, um die sozioökonomischen Phänomene wissenschaftlich zu analysieren. Nonsens!", Yanis Varoufakis: Time For Change, Köln 2016, S. 171. (ehemals griechischer Finanzminister, Grexit). Contra.

 

 

Statistik:  Albert Einstein, der eine skeptische Haltung zur Statistik hatte (dieser Artikel versucht auf diese Kritik einzugehen).

"Wenn vor Jahren schon, die Zahl der Brücken veröffentlicht wurde, die in den nächsten Jahren einstürzen werden, und diese Brücken dennoch einstürzen, ist damit nichts gegen die Statistik gesagt, sondern einiges über die bedauernswerte Tatsache, dass die richtigen Zahlen nie von den richtigen Leuten zur rechten Zeit gelesen werden", Dieter Hildebrandt, Kabarettist, gestorben 2013.

Zentrale Aspekte, Grundbegriffe und Methoden der Statistik:

- Was ist Statistik?: Statistik setzt sich aus zwei Dimensionen zusammen. Die eine Ebene besteht aus Daten. Die andere Ebene aus Methoden. An der Hochschule werden normalerweise nur die Methoden vermittelt. Das ist sehr missverständlich und unglücklich,  da die Methoden immer mehr an den Computer delegiert werden können. Gefragt sind heute Wissen über den richtigen und vernünftigen Einsatz der Methoden und die sinnvolle Interpretation der Ergebnisse. "Statistical Literacy"  nennt man die Allgemeinbildung zur Interpretation von Statistiken. Es ist insofern auch durchaus sinnvoll, das Verständnis für und den Umgang mit Daten zu lehren und lernen (einschließlich der Beurteilung der Qualität der Quellen). Der "richtige" Umgang mit der Datenflut aus dem Internet muss eingeübt werden, um auch Manipulationen erkennen zu können. Die Statistik an den Hochschulen ist auch heute noch zu stark rein quantitativ ausgerichtet, so dass quantitative Methoden dominieren. Für viele Gebiete der Sozialwissenschaften, insbesondere der Betriebswirtschaftslehre, sind aber qualitative Methoden sinnvoller (werden eher in der empirischen Sozialforschung, als Teilgebiet der Soziologie, behandelt). "Die Qualität eines Volkswirts erkennt man daran, ob er in der Lage ist, auch aus der falschen Statistik die richtigen Schlüsse zu ziehen", Helmut Schlesinger, ehemaliger Vizepräsident der Deutschen Bundesbank.

- Statistical Literacy: Allgemeinbildung zur Interpretation von Statistiken. Sie umfasst die Kenntnis von Quellen, die Einschätzung der Seriösität von Quellen, die Einschätzung der Qualität von Daten, die Beurteilung der Adäquanz von Daten, die Interpretation von Daten, die Analyse von Daten, Schlussfolgerungen aus Daten. Dieser Teil der Statistik ist heute der wichtigste und müsste dringend in den Statistikunterricht übernommen werden. Schon bei den Grundlagen der Mathematik müsste die Mathematik der Sicherheit (Algebra, Geometrie) durch die Mathematik der Unsicherheit mehr ergänzt werden. Informationen werden gerade im Internet oft irreführend verbreitet und das menschliche Gehirn ist zu wenig auf das Hinterfragen von Daten eingestellt.  "A certain elementary training in statistical method is becoming as necessary for everyone living in this world of today as reading and writing", H. G. Wells, World Brain 1938/1994, p. 141. Es gibt auch Nationen, bei denen man bei Besuchen nur das sehen und erfahren kann, was man soll. Dazu gehört zum Beispiel China. Ein Zugang über die Realität der Daten ist hier unabdungbar.

- Geschichte der Statistik:  Statistiken gab es in allen organisierten Staatswesen seit alters her (in China, im Zweistromland u. a.), in der Regel im Zusammenhang mit Ernte und Bevölkerung.  Conring baute schon 1675 eine Universitätsstatistik in Deutschland auf. William Petty zeigt 1682, wie die Wirtschaftsleistung gemessen werden kann.  Berühmt wurde auch der Deutsche Ernst Engel, der einen Zusammenhang zwischen Konsum und Einkommen analysierte ("Je ärmer eine Familie ist, ein desto größerer Anteil von der Gesamtausgabe muss zur Beschaffung der Nahung aufgewendet werden", 1857; Engelsches Gesetz). Er baute das erste deutsche Statistische Büro in Berlin auf. Der Belgier Adolphe Qetelet hatte schon 1830 damit begonnen, die Gesellschaft mathematisch und statistisch zu erfassen ("Gesetz der großen Zahl").

- Träger der Wirtschaftsstatistik: In Deutschland vor allem die Amtliche Statistik. Der Aufbau in Deutschland, Gesetzgebungsprozesse und Institutionen sind gut dargestellt in Natrop, Johannes: Angewandte Deskriptive Statistik, Berlin, München, Boston 2015, S. 20ff. Immer wichtiger werden Institutionen die die Sicherheit der Daten gewährleisten. In Darmstadt ist das deutsche Leistungszentrum für Sicherheit und Datenschutz in der Digitalen Welt (zusammen mit zwei Fraunhofer Instituten und verbunden mit dem Center for Research in Security and Privacy). 

-Intuitive Statistiker: Sind Menschen gute intuitive Statistiker? Haben sie ein Gespür für grundlegende Prinzipien der Statistik. Wichtig ist das intuitive Gespür für die Zuverlässigkeit statistischer Ergebnisse bei kleinen Stichproben. Man schenkt allzu bereitwillig Forschungsergebnissen Glauben, die auf unzureichender Datengrundlage basieren. Gute Statistiker müssen keinen guten intuitiven Statistiker sein. Vgl. Daniel Kahneman: Schnelles Denken, Langsames Denken, München 2012, S. 15ff. Menschen unterliegen einer Illusion der Gültigkeit. Sie werden oft Opfer einer Selbstüberschätzung (ebenda, S. 247ff.).

- Datenerhebungsmethoden: Vgl. den längeren Aufsatz über die empirischen  Erhebungsmethoden (Stichprobe: Abschlussarbeiten, Master, Bachelor). Im Mittelpunkt steht normalerweise das Interview, wobei qualitative Interviews an Bedeutung gewinnen. Beobachtung (teilnehmend und nicht- teilnehmend)  und Inhaltsanalyse werden unterschätzt. Die Inhaltsanalyse von Ergebnissen anderer empirischer Studien ist sehr wichtig (Sekundärstatistik). Das Experiment wird zu wenig genutzt. Teilnehmende Beobachtung wird zu wenig beachtet. Hierunter können z. B. Aufenthalte im Ausland (im OAI 1 Jahr) subsumiert werden. Datenerhebungsmethoden müssen im Statistikunterricht viel stärker gewichtet werden. Spätestens beim Schreiben der Thesis arbeiten die Studenten normalerweise empirisch.

-Eyeballing (Pi mal Daumen): Grobe Einschätzung, wenn genaue Methoden nicht einsetzbar sind. Kommt da zum Einsatz, wenn es um die Zukunft geht, die eher dem Orakel von Delphi ähnelt (Deshalb manchmal Delphi-Methode genannt). In der Marktforschung gibt es eine ähnliche Vorgehensweise, die man "quick and dirty" nennt. Es geht um ganz einfache Verfahren, die Zeit und Geld sparen. Deshalb findet man sie häufiger bei KMU.  Sehr einflussreich ist folgende Studie: Carl Benedikt Frey/ Michael Osborne, Oxford: The Future of Employment (Ursprünglich und heute noch im Internet). Danach sollen etwa die Hälft der Arbeitsplätze von 2013 bis 2030 wegfallen. Die Studie umfasst 72 Seiten und wurde als Thesenpapier veröffentlicht. Es wird eine Liste von 702 Berufen in den USA aufgestellt. Dann wird gesagt, welche Berufe gefährdet sind. Die Methode ist "eyeballing" (Pi mal Daumen). Diese Studie hat sich verselbständigt, weil ein Mangel an Alternativen vorliegt.

- Skalierung (Messen):

Qualitative Merkmale: Nominal skalierte Merkmale (lediglich Unterschiedlichkeit (Geschlecht, Wohnort). Ordinal- oder rangskalierte Merkmale, die eine Reihenfolge der Merkmalswerte darstellen (z. B. Schulnoten).

Quantitative oder kardinal bzw. metrisch skalierte Merkmale. Intervallskalierte Merkmale, mit denen nur ein Abstand ausgedrückt werden kann (Temperaturen). Verhältnisskalierte Merkmale, die auch ein Verhältnis zweier Merkmalswerte darstellen können (Körpergröße).

Die Auswertungsmethoden der Statistik hängen ganz entscheidend von der Skalierung ab.

- Sekundärstatistik: Bereits vorliegende Daten werden ausgewertet. Die VGR sind weitgehend eine Sekundärstatistik. Das Gegenteil ist die Primärstatistik, bei der die Daten speziell erhoben werden. Mit welchen Quellen man arbeitet, hängt ganz entscheidend von Zeit und Geld ab. Natürlich kann allein schon der Hang zu kostenlosen sofort verfügbaren Zahlen selektiv wirken. Immer mehr Probleme bereiten Regierung und Behörden beim Zugang zu wichtigen empirischen Daten. Oft mischen sich 16 Datenschutzbeauftragen ein. Wünschenswert wären einheitliche Regeln. Vgl. Regina Riphahn in WiWo 17/ 21.4.17, S. 40. 

- Verhältniszahl: Dazu gehören die Gliederungszahl (Zähler kommt noch mal im Nenner vor; Arbeitslosenquote), die Beziehungszahl (Quotient aus zwei sachlich unterschiedlichen Zahlen; Bevölkerungsdichte) und die Messzahl (Quotient zweier gleichartiger statistischer Bestandszahlen; in der Regel zeitbezogen; einfache bis Gruppenmesszahl/ Index). Verhältniszahlen sind in Volks- und Betriebswirtschaftslehre sehr wichtig. Die meisten Kennzahlen der BWL, etwa in der Finanzierung,  sind Beziehungszahlen.

- Preisindex:  Der Preisindex ist eine Verhältniszahl, spezieller eine Messzahl. Ein Index kann mehrdimensionale Sachverhalte auf eine Ebene reduzieren. Weltweit hat sich als Preisindex der Index von Laspeyres (portugiesischer Abstammung, lehrte zuletzt als Professor in Deutschland) durchgesetzt. Er arbeitet mit dem Warenkorb (q0) der Vergangenheit. Somit beantwortet er die Frage, was würde der Warenkorb der Vergangenheit heute kosten. Außerdem gibt es noch den Preisindex von Page (aktueller Warenkorb) und den Wertindex. Praktische Probleme des Preisindex sind der Normalhaushalt (4 Personen; real nur 1,4 Kinder), die Einbeziehung von Qualitätsverbesserungen, die Verzerrung durch Dominanzfaktoren (Öl, Mieten),  die Volatilität von Preisen, die Repräsentativität des Warenkorbs u. a.

Große Probleme bereitet bei der Berechnung der Teuerungsrate mittlerweile der digitale Handel. Die Preise fahren Achterbahn. Die Verwirrung hat System. Bekannt geworden sind die starken Preisschwankungen beim Benzin an der Tankstelle. Hier ändern sich innerhalb von Stunden vielmals am Tag die Preise. Ständige Preisschwankungen verunsichern die Konsumenten. Der Trend könnte zur Individualisierung gehen.

- Mittelwerte: Es gibt zahlreiche verschiedene Mittelwerte. Die statistische Kunst besteht darin, den richtigen Mittelwert auf die passende Problemstellung anzuwenden. In der VWL ist der geometrische Mittelwert etwa für Wachstumsfragen sehr wuchtig. Besonders über die Verwertung und Manipulationsmöglichkeiten von arithmetischem Mittel und Median sollte man Bescheid wissen.

- Verteilungsmaße: Gini-Koeffizienten (Alternativen: Herfindahl, relative und absolute Konzentration, Anteile am Medianeinkommen, Mittelwerte, Lorenzkurve, Pro-Kopf-Einkommen u. a.). Der Wert eins bei Gini definiert totale Ungleichheit (einer hat alles und alle anderen nichts). Bei null besteht völlige Gleichheit. Graphisch kann dies an der Lorenz-Kurve dargestellt werden. Der Gini-Koeffizient ist nach einem italienischen Statistiker benannt und berechnet mathematisch die Fläche zwischen Diagonale und den Seiten in einem Rechteck. Über die mathematischen Methoden und deren Vor- und Nachteile herrscht Klarheit. Das Problem sind die zugrunde liegenden amtlichen Statistiken. Sie sind verzerrt, mit Lücken behaftet und veraltet. Auch die Zuordnung statistischer Daten zu der Formel ist umstritten. Der Herfindahl-Index berechnet sich aus der Summe der quadrierten Marktanteile, z. B. der Anbieter (erliegt zwischen 1 und 1/n). Je größer der Wert ist, desto größer ist die gemessene Konzentration.

- Einkommens- und Verbrauchsstichprobe (EVS): Sie liefert repräsentative Informationen über Einkommen, Vermögen, Schulden und die Konsumausgaben in Deutschland. Die Teilnehmer führen drei Monate ein Haushaltsbuch ("Feinaufzeichnungsheft"), in das sie sämtliche Ein- und Ausgaben eintragen. Die Teilnahme ist freiwillig und wird honoriert. Normalerweise nehmen etwa 10.000 Haushalte teil. Die Befragung ist alle fünf Jahre, zuletzt 2013 und 2008. die nächste Befragung ist 2018 wieder. die Auswertung erfolgt mittlerweile in der Zweigstelle des StBA in Bonn.  Die allererste EVS war 1962. Das Konzept kann immer nur eine annäherung sein. Die Konsumgewohnheiten werden immer verschiedener. Die EVS ist Grundlage für den Warenkorb im Preisindex für die Lebenshaltung. Dieser Preisindex wird nach dem statistischen Verfahren von Laspeyres errechnet (Warenkorb der Vergangenheit). In den letzten Jahren wurde der Verbraucherpreisindex stark vom Ölpreis dominiert. 2013 zeigt sich, dass es erstmals mehr Handys als Festanschlüsse gibt (93% der 40 Mio. privaten Haushalte haben mindestens ein Handy).

- Sozio-oekonomische Panel (SOEP): Ist die ergiebigste Datenquelle zur sozialen und ökonomischen Lage deutscher Haushalte. Es handelt sich um ein Umfrage - Panel (Längsschnittstudie). In der Stichprobe sind 11.000 Haushalte mit mehr als 240 Fragen. Es ist die älteste (seit 1984) und größte (30.000 Befragte) Haushaltsumfrage in Deutschland. Die Daten können von allen Wissenschaftlern genutzt werden (Datenweitergabevertrag, Schulung). 2016 werden auch die Flüchtlinge einbezogen (zusammen mit IAB und BAMF). Die Migranten - Daten sollen ausgeweitet werden. Im SOEP gibt es auch Fragen zur Gerechtigkeit. 2016 glauben 65% im Vergleich zu anderen einen gerechten Anteil zu erhalten. 20% (2014) glauben, dass die Gewinne in Deutschland im Großen und Ganzen gerecht verteilt werden.

- Ökonomische Rankings: Verfahren für eine Rangfolge. Sie sind allgegenwärtig und eines der Hauptanwendungsgebiete der Statistik. Viele Produzenten von Statistiken haben darauf ihr Geschäftsmodell gegründet. Rankings haben zahlreiche Fallstricke: unpassende Bezugs- oder Vergleichsgröße, keine Sorgfalt auf den Nenner, Schwierigkeiten nur im Kleingedruckten, nur als Grundlage für politische Forderung. Eng verwandt mit dem Ranking ist das Rating. Es ist ein Verfahren zur Beurteilung nach hierarchischen Bewertungsklassen. Bekannt ist z. B. AAA bei Kreditwürdigkeit. Nicht verwechseln sollte man diese Verfahren mit Screening und Scoring. Screening ist ein standardisiertes, manchmal automatisiertes Auswahlverfahren. Scoring ist eine Methode, um aus vorliegenden Daten über eine Person künftiges Verhalten vorherzusagen.

- Normalverteilung: Es handelt sich um ein Zufallsmuster. Wahrscheinlichkeitsverteilung in Glockenform. Ein gutes Modell für häufige Beobachtungen in der realen Welt. Die Wahrscheinlichkeit, einen bestimmten Datenwert zu erhalten, ist in der Nähe des Mittelwertes am größten und fällt dann rasch ab. Wie schnell, hängt von der Standardabweichung ab. "Es ist unmöglich, dass das Unwahrscheinlichste nie geschieht", Emil Gumbel, Statistiker, 1891-1966).

- Stichproben: Sie werden aus Grundgesamtheiten (N) gezogen, wenn diese zur Verfügung stehen. Mit Hilfe der induktiven Statistik kann dann die Qualität der Stichprobendaten eingeschätzt werden (Repräsentativität). Grundgesamtheiten sind aber selten vorhanden, so dass keine Zufallsauswahl gezogen werden kann. Zufallsauswahlen sind die Grundvoraussetzung, um multivariate Auswertungsverfahren einsetzen zu können. Bei genügend großem n (Größe der Stichprobe) wird darüber hinweggesehen. In der Marktforschung dominieren praktische Stichprobenlösungen ("quick and dirty"), die schnell und billig umzusetzen sind. Dazu gehören die Auswahl "Aufs Geratewohl", die Klumpenstichprobe oder geschichtete Auswahlverfahren.

- Signifikanztests: Sie untersuchen, ob eine ökonomische Größe einen signifikanten Einfluss auf eine andere hat.  Statistische Signifikanz hilft uns zu quantifizieren, ob ein Ergebnis eher zufällig zustande gekommen ist oder von einem bestimmten Faktor beeinflusst wurde. Signifikanztests  sind größtenteils unsinnig, da die notwenigen Bedingungen selten erfüllt sind (vor allem hinsichtlich der Stichprobenqualität). Der Größe des Einflusses wird allein aus der Zahl ablesen, ohne den Bezug zur Umwelt ausreichend zu berücksichtigen.  Bei der Anwendung müssen zumindest die Ergebnisse immer ausreichend relativiert werden. Saubere Daten und eine sorgfältige Verarbeitung sind sehr viel wichtiger als statistische Signifikanz. Vgl. auch: Amy Gallo: Was war noch mal ...statistische Signifikanz?, in: Harvard Business Manager, Juli 2017, S. 102f. Der p-Wert bezeichnet auch nur die Wahrscheinlichkeit dafür, dass ein statistisch gefundenes Ereignis auch ohne den vermuteten Effekt durch Zufall zu Stande gekommen ist. Er sagt nichts über die Größe des Effekts aus und ist auch kein Maß für die Wahrscheinlichkeit eines falsch-positiven Befunds. Vgl. Regina Nuzzo: Fehlerschätzung. Der Fluch des p-Werts, in: Spektrum Spezial 3/17, S. 32ff.

- Risiko und Wahrscheinlichkeit: Risiken werden in den Medien oft falsch dargestellt. Das hängt damit zusammen, dass sich relative Risiken leicht überzeichnen lassen und damit auch verkaufen. Unscheinbare Effekte können so hervorragend aufgebauscht werden (Hai-Angriffe, Diabetesrisiko u. a.). Mit relativen Risiken lassen sich leicht große Ängste erzeugen. Die absolute Risikogefahr ist meist sehr gering. Ähnlich kann mit der Wahrscheinlichkeit leicht manipuliert werden. Tückisch ist die bedingte Wahrscheinlichkeit. Hier ist immer eine Zusatzinformation erforderlich. "Einer der großen Vorteile der Wahrscheinlichkeitsrechnung ist der, das man lernt, dem ersten Anschein zu misstrauen", Pierre Simon de Laplace (1745 - 1827), Philosophischer Versuch über die Wahrscheinlichkeit. Vgl. zu diesem Thema auch: Bauer/ Gigerenzer/ Krämer: Warum Dick nicht Doof macht und Genmais nicht tötet, München 2016.

- Formel von Thomas Bayes (bedingte Wahrscheinlichkeit): P(B/C)= P(C/B)P(B) geteilt durch P(C). Nach Bayes sind Wahrscheinlichkeiten zu interpretieren als Ausdruck unseres begrenzten Wissens. Bayes war ein englischer Pfarrer. Er verteidigte auch mit großem Sachverstand Newtons Differentialrechnung. Er ruht in der Familiengruft der Bayes in Bunhill Fields. Die Grabstätte wurde 1968 mit Spenden von Statistikern aus aller Welt restauriert. Vgl. Dressler, M.: Thomas Bayes und die Tücken der Statistik, in: Spektrum Spezial 3/17, S. 74ff. 

- Wahrscheinlichkeitsrechung und Schlüsse: Es gibt bei einer Folge von Würfeln eines Würfels keine Tendenz zum Ausgleich eines Ungleichgewichts (der Würfel hat kein Gedächtnis). Gleichwohl strebt die relative Häufigkeit für jede einzelne Augenzahl gegen 1/6 (im Grenzwert unendlich vieler Würfe, Gesetz der großen Zahlen). In diesem Grenzwert ist die "Wahrscheinlichkeit 1" etwas anders als die Sicherheit. Der statistische Mittelwert ist keineswegs der häufigsten vorkommende. Vgl. Ian Stewart: Gesetz der großen Zahlen. Irrfahrt zum mittelwert, in: Spektrum Spezial 3/17, S. 6ff.

- Korrelation und Kausalität: Korrelation (Zusammenhang) und Kausalität (Ursache - Wirkung) werden oft verwechselt. Ersteres bezieht sich auf die Gemeinsamkeit von Merkmalen. Das Zweite ist eine Kausalität. Das berühmteste Beispiel ist der Zusammenhang von Störchen und Geburten. Wo viele Storchenneste sind, gibt es auch viele Geburten. Man bezeichnet diesen Zusammenhang als Scheinkorrelation. Die intervenierenden Variablen ländliche Region und katholische Religion müssen zusätzlich in Betracht gezogen werden (vergessene Variablen).

- Bedeutung eines Bezugssystems: Ursprung ist die Relativitätstheorie von Albert Einstein. Jede Kultur hatte ihr Omphalos, etwas wie der Mittelpunkt der jeweiligen Welt (Nabel der Welt, Axis Mundi, Säule der Erde). Es war ein universelles Symbol, das aber an unterschiedlichen Orten lag (Black Hills bei den Sioux in Nordamerika, Fujiyama in Japan, Delphi in der Antike, Royal Observatory in Greenwich im Britischen Empire). Einstein stellt in seinem 1916 erschienen Buch "Über die spezielle und allgemeine Relativitätstheorie" fest, dass kein Bezugssystem mehr Geltung beanspruchen kann als ein anders. Wichtig sei, dass ein Bezugssystem definiert wird. Eine Positionsangabe gibt immer erst Sinn, wenn ein Bezugssystem definiert ist. Was beobachtet wird, hängt sonst  zum Teil vom Beobachter ab. Jeder Omphalos ist vollkommen willkürlich. Vgl. John Higgs: Alles ist relativ und anything goes, Berlin 2016

- Datenanalyse in der Digitalisierung: Hier ist ein neues Betätigungsfeld der Statistik. In digitalisierten Unternehmen und anderen Organisationen schafft die Datenanalyse zusätzliches Wachstum. Daten sind der Rohstoff der Zukunft in der Wissensgesellschaft. Geschäfte werden  datengetrieben ablaufen (Programmic Advertising). Die Wettbewerbsvorteile der Unternehmen ergeben sich in einem besseren Verständnis der Märkte. Kürzere Produktzyklen, hohe Bedarfsschwankungen und eine verstärkt individualisierte Produktion erfordern eine engere Anbindung der Unternehmen an Lieferanten und Abnehmer.

- Intelligente Datenanalyse in der Praxis: In allen Bereichen greifen Big-Data-Analysen um sich. Das gilt für die Medizin, fürs Finanzamt, für die Marketing-Abteilung der Unternehmen und viele andere. Big Data besteht aus vier wichtigen Elementen: 1. Datenmenge (Anzahl von Datensätzen und Files). 2. Datenvielfalt (Variety, Fremddaten, Firmendaten, unstrukturierte Daten). 3. Datengenerierung in hoher Geschwindigkeit (Velocity, Übertragung  der konstant erzeugten Daten in Echtzeit). 4. Erkennen von Zusammenhängen (Analytics, Bedeutung, Muster, Data Mining, Text Mining). Es tauchen dabei auch eine Reihe von Herausforderungen auf: 1. Total Cost of Ownership. 2. Datenverluste. 3. IT - Sicherheit. 4. Transparenz. 5. Dateninterpretation und Validierung. 6. Entscheidungsbasis. Die Statistik ist in der Digitalisierung  von einer Hilfswissenschaft zur Basis- und Kernwissenschaft aufgestiegen.

- Auswertungsverfahren: Ihre Anwendung richtet sich nach dem Skalenniveau der ausgezählten Variablen. Haben unabhängige und abhängige Variable das gleiche Skalenniveau ist der Einsatz klar vorgeschrieben: Bei Nominalskalen arbeitet man mit der Tabellenanalyse (und berechnet dann z. B. den Kontingenzkoeffizient). Bei Ordinalskalen kommt die Rangkorrelation, z. B. nach Spearman, zum Einsatz. Bei metrischen Skalen wertet man am besten mit Bravais-Pearson aus. Schwieriger ist die Entscheidungssituation, wenn unabhängige und abhängige Variable verschiedene Messniveaus haben. Entweder kann man hier das Skalenniveau verändern (nach unten, oder Dummies bilden) oder man sucht spezielle Verfahren wie die Varianzanalyse oder aus ihr abgeleitete Varianten (z. B. Diskriminanzanalyse). für spezielle Fragestellungen können auch weitere Verfahren verwendet werden (z. B. Clusteranalyse, Faktorenanalyse).

- Regression (Regressionsanalyse): Eine der wichtigsten Denkrichtungen und Analysemethoden in den Wirtschaftswissenschaften. Es geht um die empirische Analyse von Ursache-Wirkungszusammenhängen. Diese sind ganz schwierig von reinen Korrelationen zu unterscheiden (oft nur durch eine sinnvolle Theorie). In der Statistik-Ausbildung wird in der Regel nur die lineare Einfachregression behandelt. Dabei benutzt man die Formeln der Methode der kleinsten Quadrate. Multiple Regressionen können nur mit Computer-Hilfe (z. B. SPSS) berechnet werden. Wichtig ist vor der Anwendung der Regression die Prüfung der Anwendbarkeit (Punktewolke, Theorie, Hypothese). Man benutzt die Regressionsmethode auch für Prognosen, aber aufgepasst: "Der Schwanz des Hundes wächst in der ersten Lebenswoche 7 Zentimeter. Nach 52 Wochen müsste er also gut 3 1/2 Meter lang sein." Rudolf Nölle (zitiert nach: Mankiw u. a., Volkswirtschaftslehre, Stuttgart 2015, S. 485). Mit Data-Mining lassen sich heute Zusammenhänge finden, die keine theoretische Basis haben. Vor allem der Publikationsdruck in der Wissenschaft verleitet heute zu besonderer "Kreativität". Die American Economic Review (AER), die als weltweit führende Fachzeitschrift im Bereich der Ökonomie gilt, hat ein eignes Datenarchiv eingerichtet. Die hinterlegten Daten können von anderen Forschern überprüft werden. Subjektive Elemente bei der Selektion von Daten sollen so eingeschränkt werden. Insgesamt gibt es sieben wichtige Typen der Regression. Jede Regressionsgerade hat auch einen Fehlerterm, weil unabhängige Variablen niemals eine perfekte Vorhersage der abhängigen Variable liefern können.

- Zeitreihenanalyse: Analyse statistischer Größen im Zeitablauf. Man arbeitet mit der Regressionsanalyse oder der Methode der gleitenden Durchschnitte. Diese Analysemethode ist sehr wichtig für die Konjunkturforschung.

- Analyse von Kursen und Entwicklungen an der Börse: Zum Start macht man eine Fundamentalanalyse (Konjunktur, Lage der Finanzmärkte, Betrachtung des Unternehmens, Ausland). Dann erfolgt die Chartanalyse (Trend, Muster, Wellen). Danach kommt eine markttechnische Analyse (Indikatoren, gleitende Durchschnitte). Den Abschluss bildet die Einzelanalyse (Volatilität, Intuition, Faktoren).

- Machine Learning: Kluge Maschinen (geistige Arbeit von Maschinen). Computerprogramme verbessern sich selbst (Teil der künstlichen Intelligenz). In der Datenanalyse sind die Anwendungsmöglichkeiten beeindruckend. Beim Supervised Learning  sind Klassifizierungen und Regressionsanalyse möglich (logistische Regression, Entscheidungsbäume, Random Forest). Anwendungsmöglichkeiten sind hier Klassifikation von Bildern und Dokumenten, Betrugserkennung, Empfehlungssysteme. Beim Unsupervised Learning geht es um die Clusteranalyse und die Hauptkomponentenanalyse. Anwendungsmöglichkeiten sind Kunden- und Marktsegmentierung, Spracherkennung, Spam-Filter, Sentimentanalyse.

- Darstellungsformen der Ergebnisse: In den Anfängen der empirischen Forschung, die in den USA nach dem 2. Weltkrieg aufgebaut wurde, dominierten die Tabellen. Demgemäß waren die meisten empirischen Forscher und auch die Nutzer geschult im Lesen von Tabellen (so wurde meist auch die Tabellenanalyse in der Auswertung genutzt). Das änderte sich grundlegend mit der Popularisierung der Auswertungsverfahren. Heute kann jeder Student an seinem PC die komplexesten multivariaten Verfahren (z. B. mit SPSS) bewältigen. Automatisch sind damit in der Regel auch bestimmte Darstellungen verbunden. Es überwiegen eindeutig Graphiken. So haben moderne Abbildungen die Tabellen verdrängt (meist als Grundauszählung nur noch im Anhang).

- Piktogramme und Bilder: Es sind Bildzeichen, die in der Ergebnisdarstellung immer mehr Gewicht bekommen.  Es sind Bilder mit einfachen Botschaften, die jeder versteht (und die uns teilweise durchs Leben dirigieren) Diese haben einen entscheidenden Vorteil: Jeder kann sie erkennen, unabhängig von der Sprache. Sie erklären sich quasi blitzschnell von selbst. Die Piktogrammen sind Vorläufer vieler Schriften. Deutlich wird das am Beispiel chinesischer Schriftzeichen oder ägyptischer Hieroglyphen. Insofern deutet der Aufschwung der Bildzeichen auf eine Rückkehr zu den Anfängen von Sprache hin. Eine starke Gewöhnung an Bildzeichen bringen die sozialen Medien mit sich. Whats app und andere Anbieter haben Sammlungen von Piktogrammen, aus denen Nutzer jeweils passend zu Inhalten auswählen können. Damit dringen die Piktogramme stark in die Kultur ein und sind insgesamt in der Darstellung auf dem Vormarsch. Sie werden zu einer Universalsprache der Moderne.  Bildzeichen haben auch eine große Bedeutung für die Macht von Marken und das Design. Normalerweise gilt das Erfolgsrezept: Je einfacher, desto besser. "A picture is worth a thousands words". - Ein Bild ist so viel wert wie tausend Worte.

- Lineare und exponentielle Zusammenhänge: Lineares Denken ist bei Menschen beliebter, weil es leichter fällt. Viele Zusammenhänge in der Realität sind allerdings exponentiell (Zinseszinseffekt, Wachstum von Bakterien). Dabei können folgende Typen unterschieden werden: 1. Zuerst flach, dann steil ansteigend. 2. Zuerst flach, dann steil abfallend. 3. Zuerst steil, dann flach ansteigend. 4. Zuerst steil und dann flach abfallend. Um lineares Denken einzudämmen sollte man wie folgt vorgehen:  Schritt 1: Die Problematik erkennen (linear oder exponentiell). Schritt 2: Auf Ergebnisse statt Indikatoren konzentrieren. Schritt 3: Die Art der nicht linearen Beziehung ermitteln. Schritt4: Nicht lineare Zusammenhänge skizzieren. Vgl. Bart de Langhe, Stefano Puntoni, Richard Larrik: Ohne Mathe geht es nicht, in: Harvard Business Manager Juli 2017, S. 68ff.

- Manipulation durch Statistik (Lügen): Vgl. Walter Krämer, So lügt man mit Statistik, Frankfurt/ New York 1992. Gerd Bosbach/ Jens Jürgen Korff, Lügen mit Zahlen. Wie wir mit Statistiken manipuliert werden, München 2011. Beliebte Methoden sind die folgenden: Basis nicht nennen, verzerrte, vorsortierte Stichprobe, manipulierte Mittelwerte, frisierte Graphiken, Korrelation statt Kausalität, nicht repräsentative Stichproben, politische Definition von Quoten und anderen ökonomischen Größen (z. B. Armut),  u. a. Erstmals deckte Darrel Huff in seinem Buch "How to lie with statistics" Tricks und Fallstricke bei der Interpretation von Zahlen auf.  Aktuell ist der Fall des ehemaligen Leiters der griechischen Statistikbehörde interessant: Andreas Georgiou. Es übernahm 2010 die Leitung der Statistikbehörde "Elstat". Er machte Schluss mit den geschönten Finanzzahlen der "Greek Statistics" (reformierte die Arbeitsweise der Behörde, EU-Standards). Dafür soll er 2016 ins Gefängnis. Man sucht einen Sündenbock für die Schuldenmisere Griechenlands. "Ich wollte meinem Land dienen", Georgiou 2017. Nachfolger als Leiter des statistischen Amtes wurde Thanopoulos. Der Leiter der britischen Statistikbehörde Norgrove mahnt in der Brexit-Diskussion mehrmals einen klaren Missbrauch öffentlicher Statistiken an. Meist werden Zahlungen von der EU an GB verschwiegen. Dabei tut sich Boris Johnson besonders hervor. Im September zeigt der barische Innenminister Herrmann wie man eine Statistik fälscht: Er rechnet alle Formen sexueller Nötigung plötzlich zu Vergewaltigung hinzu und kann so beweisen, dass eine hohe Steigerung von Sexualdelikten mit den Zuwanderern zusammenhängt ("Unterholz politischer Statistik"). 2017 soll Griechenland das Ausmaß der Abwanderung in andere Länder vertuschen (Flüchtlingszahlen in Griechenland runterrechnen, damit die Abwanderung in andere EU-Länder kaschiert werden kann).

Methodenehrlichkeit: Statistiken sind immer nur so viel wert,  wie die Qualität der Methoden ist. Gültigkeit und Zuverlässigkeit müssen eingehalten werden. Aber auch die Methode selbst muss immer relativiert werden. Einmalige Beobachtungen können nicht zu gleich guten Daten wie Panelstudien führen. Gerade in der Medizin wird hier geschludert, weil die Pharmaindustrie großen Einfluss ausübt. Vg. Peter Nawroth: Die Gesundheitsdiktatur, Kulmbach 2016.

- Fehlermöglichkeiten und Grenzen: Fehler können im Datenmaterial liegen, es kann sich auch um Datenmanipulation handeln, es können Unterschiede in den Modellen bestehen, es können Anwendungsfehler von Methoden oder falsche Interpretation sein. "Die Menschen stolpern nicht über Berge, sondern über Maulwurfshügel", Konfuzius.

- Fake News: Bewusst gefälschte Nachrichten im Internet. Die Trennung zwischen Wahrheit und Meinung wird aufgehoben. Damit wird Wirklichkeit zum Teil abgeschafft. Gerade die sozialen Netzwerke - wie etwa Facebook - werden zum Verbreiter reißerischer Überschriften und Gerüchteköchen. In den USA beziehen 2016  schon rund ein Drittel der Bevölkerung Nachrichten aus dem Internet (Google, Soziale Medien). In Deutschland ist die Nutzerzahl geringer, aber relativ hoch bei jungen Menschen. Das gilt für alle Industrieländer. Für die 18- bis 24- Jährigen sind die Sozialen Medien die wichtigste Nachrichtenquelle. Je reißerischer die Überschrift ist, desto mehr Klicks gibt es. Die Hochschulen und Schulen müssen hier gegensteuern. 2017 plant der Bundesjustizminister ein Gesetz gegen Hass im Internet. Die sozialen Netzwerke und Plattformen (mehr als 2 Mio. Nutzer) sollen Lügen und Hasskommentare löschen. Es trifft vor allem Facebook, Twitter und Youtube. Bei Verstößen drohen millionenschwere Bußgelder. Die Materie ist aber recht kompliziert: Häufig werden Mix-Methoden eingesetzt, d. h. Fakten und Fakes werden gemischt. Richtigstellungen werden auch weniger wahrgenommen. In Wahlkämpfen werden sogar Fake-Fabriken eingesetzt. Als Geschäftsmodell ("Klick-Köder") sind Fakes auch attraktiv. Im Internet ist es auch leicht, Fakes massenhaft unter verschiedenen Identitäten zu verbreiten ("Meinungs-Maschinen"). Die Lügen-Lage ist oft schwierig einzuschätzen.   Fake News dürfte auch den amerikanischen Wahlkampf beeinflusst haben. Als "Stadt der Lügner" gilt Veles in Mazedonien. Viele gefälschte Nachrichten kommen aus dieser Kleinstadt. Zeitweise waren 140 Internetseiten mit Falschnachrichten in dem Ort registriert. Die Bundesregierung will in Zukunft Falschinformationen im Internet unterbinden: Facebook und andere soziale Netzwerke sollen eine ständige Rechtsschutzstelle einrichten, an die sich Betroffene wenden können. Werden die Informationen binnen 24 Stunden nicht gelöscht, droht ein Bußgeld bis zu 500.000 €. Auf dem Chaos Communikation Congress in Hamburg 2016 sind IT - Experten der Ansicht, dass die Maschine zwischen Wahrheit und Lüge unterscheiden kann - mit Hilfe der Nutzer. Das System von Facebook arbeitet wie folgt: Nutzer melden Falschnachrichten. Dann prüft das US-Unternehmen anhand von Plausibilität. Dann werden die Postings mit einem Warnhinweis versehen mit Begründung der Entscheidung (Link). Dann keine Werbung mehr; eventuell wird die Sichtbarkeit noch reduziert. Fake News wird immer wieder im Auftrag des russischen Geheimdienstes eingesetzt. So tauchen im Netz immer wieder Vergewaltigungen auf entweder an russischen Mädchen in Deutschland oder an osteuropäischen Mädchen von deutschen Soldaten. Mitte 2016 erschien in einer polnischen Zeitung ein Interview. Darin berichtet eine Frau von angeblich schlimmen Zuständen in einem fränkischen Dorf. Flüchtlinge hätten dort aus einem deutschen Paradies eine Müllkippe gemacht. Die Geschichte verbreitet sich in ganz Polen und erregt großes Aufsehen. Daran war Nichts wahr. Das Landgericht Würzburg stellt im März 2017 fest, dass Facebook nicht selbst nach verleumderischen Beiträgen suchen muss. Japanische Agenturen vermieten ab 2018 "Fake Friends" für Hochzeiten und Geburtstage für Menschen, die sich in den sozialen Medien von der besten Seite zeigen wollen. 

- Das Postfaktische: Wort des Jahres 2016 (Gesellschaft für Deutsche Sprache). Das Verdrehen von Tatsachen und Fakten bis hin zur Lüge. In seinem Buch "1984" thematisiert schon George Orwell das Angleichen von Fakten an die Propaganda. Fakten werden heute im Internet durch eine Vielzahl widersprechender Kanäle übertönt. Fakten werden oft nicht bestritten, aber für nicht wichtig gehalten. Im Vordergrund stehen Ängste und Gefühle. Der Tatsache des Postfaktischen muss man sich stellen, am besten durch eine gute Statistikausbildung. 2017 taucht die Wortschöpfung "alternative Fakten" auf. Sie wird auf auf das Vorgehen von D. Trump bezogen. 2017 sagt er z. B. "die Mordrate in unserem Land ist die höchste seit 47 Jahren". Tatsächlich sagt die Statistik der Bundespolizei FBI  etwas völlig anderes. Der Begriff schafft es 2017 sich als Unwort des Jahres in Deutschland durchzusetzen. Insgesamt ist das Interesse an Forschungsthemen in der deutschen Bevölkerung gestiegen (von 2014 auf 2016 von 33 auf 41%). 16 Prozent der Deutschen interessieren sich überhaupt nicht für Wissenschaft.

- Daten und Gefühle sowie die Zukunft: Daten allein genügen nicht, sagt die Neurowissenschaft (Tali Sharot). Es verlangt nach Geschichten. Menschen nehmen Botschaften nicht an, wenn sie kein Verlangen danach haben. Informationen verändern die Gefühle und das Wohlergehen. Wenn Daten rübergebracht werden sollen, müssen sie immer in Gefühle verpackt werden. eine weitere Schwäche von Daten und Zahlen ist, dass sie passives Material darstellen. Sie haben Vergangenheit, aber nicht immer Zukunft. Entscheidungsprozesse im Gehirn sind nicht in einer einzigen Region gebündelt. In vorderen Stirnhirnbereichen analysieren wir vorwiegend die Vergangenheit. Je mehr man dieses Denken trainiert, desto mehr werden Regionen in Nervennetzwerken unterdrückt, die die Zukunft planen (vgl. Henning Beck: Die Grenzen der Algorithmen, in: Wirtschaftswoche 47/ 10.11.17, S. 93)..

- Statistik in verschiedenen Kulturen: Folgende Fehlerarten sind zu beachten: Konstrukt-Bias (unvollständige Erfassung, kulturell unterschiedliche Angemessenheit und Verständnis); Methoden-Bias (Stichproben nicht vergleichbar, unterschiedliches Antwortverhalten, nicht gleiches Skalenverständnis); Item-Bias (mangelhafte Übersetzung, ungewollte Assoziationen).

-Statistikgläubigkeit in den Wirtschaftswissenschaften: Zahlen suggerieren eine Präzision, die es Wissenschaftlern und Politikern erlaubt, Argumente gegen Kritik zu immunisieren. Das wichtigste Lernziel des Statistikunterrichts muss darin bestehen, Daten und Zahlen immer hinterfragen zu können. Vgl. Rahim Tagizadegan. Es gibt einen Physikneid der Ökonomen, in: Wirtschaftswoche 22/27.5.16, S. 36.

-False Discoveries und Fehlerinterpretationen: Wissenschaftskommunikation mit der Bevölkerung. Adäquate Interpretationen statischer Analysen sollten eine vernünftige Bewertung der Zuverlässigkeit wissenschaftlicher Aussagen ermöglichen. Insbesondere statische Signifikanzregeln sollten verständlich vermittelt werden Vgl. Hirschauer, N./ Mußhoff, O./ Grüner, S.: False Discoveries und Fehlinterpretationen wissenschaftlicher Ergebnisse, in: Wirtschaftsdienst 2017/ 3, S. 201ff.

-Durchschnittswerte-Glauben und Nicht-Glauben: Menschen neigen dazu, den Begriff "Statistik" mit Durchschnittswerten zu verknüpfen. Dabei kann die gesamte Bandbreite der Zahlen verloren gehen. Statistik benötigt aber Beides. Auf der anderen Seite gibt es immer mehr Menschen, die grundsätzlich nicht mehr an die statistischen Zahlen glauben und sie deshalb beliebig selbst setzen. Dafür könnten viele Gründe verantwortlich sein: Menschen nehmen sich selbst nicht mehr als Teil des Durchschnittes wahr; Menschen wissen immer weniger, was hinter den Daten an Realität steckt; Menschen sind zu sehr an Bildern orientiert; die meisten Daten werden heute von den Internet-Konzernen kontrolliert. Darin besteht eigentlich die größte Gefahr für die Zukunft: Die meisten Daten werden privat gehütet und stehen der Allgemeinheit nicht mehr zur Verfügung. Damit lässt sich deren Wahrheitsgehalt gar nicht mehr überprüfen. Das könnte dann auch auf den öffentlichen Teil der Statistik abfärben. Vgl. Matheis/ Prange: Viele Wahrheiten, in: Wirtschaftswoche 13/ 24.3.2017, s. 63ff.

-Prognosen mit Statistik: Es gibt verschiedene Hilfsmittel der Statistik. Etwa die Extrapolation, die einen durch Regression errechneten Trend fortschreibt. Auch die Zeitreihenanalyse kann ein Hilfsmittel sein. Prognosen hängen sehr stark von dem jeweiligen Anwendungsbereich ab. Auf Prognosen an den Finanzmärkten zum Beispiel ist kaum Verlass.

-Messmanie: Die Digitalisierung bringt es mit sich, dass fast alles vermessen wird. Akteure sind Unternehmen und Staaten. Auch immer mehr Unmessbares wird versucht zu quantifizieren: Beispiel Freundschaft durch Likes im Internet. Das verändert unser Leben. Die Frage ist, ob Menschen in Bereiche ausweichen können, die sich der Vermessung entziehen. Vielleicht steigt der Wert der Dinge, die noch nicht quantifizierbar sind. Vgl. Bruno S. Frey: Grenzen der Messmanie, in: Die Zeit, Nr. 40, 28.09.2017. S. 37.

- Szientometrie: Viele wissenschaftliche, empirische Studien lassen sich nicht reproduzieren. Das widerspricht dem Qualitätskriterium der Zuverlässigkeit. Fachzeitschriften veröffentlichen auch bevorzugt positive Forschungsergebnisse (Hypothese wird bestätigt). Die Arbeitspraktiken von Wissenschaftlern wie auch die Auswahlkriterien der Journale sind wohl nicht immer ganz korrekt. Vgl. Ed Young: Szientometrie. Jede Menge Murks, in: Spektrum Spezial, 3/17, S. 26ff.

- Scoring: Die digitale Durchleuchtung und Bewertung des Verhaltens von Konsumenten und Bürgern nach einem Punktesystem. Grundsätzlich ist dies ein Merkmal repressiverer Staaten wie etwa China. Aber auch bei uns arbeitet man mit diesen Methoden in der Gesundheitsversorgung und in der Finanzwirtschaft sowie bei Versicherungen. Es sollten Mindeststandards geschaffen werden, um den Bürger zu schützen. Folgende Grundsätze sind wichtig: 1. Identifizierung und Transparenz. 2. Verifizierung. 3. Relevanz und Nützlichkeit. Vgl. Oehler, A.: Grundsätze ordnungsgemäßer Bewertung durch Scoring, in: Wirtschaftsdienst 2017/10, S. 748ff.

- Gültigkeit (Validität) und Zuverlässigkeit (Reliabilität): Gütekriterien für empirische Forschung und Statistik. Gültigkeit bedeutet, dass die Messmethoden das auch wirklich messen, was man messen will. Zuverlässigkeit beinhaltet, dass andere Forscher beim Wiederholen der Versuchsanordnung zu vergleichbaren Ergebnissen kommen. Gegen beide Kriterien wird heute oft verstoßen. Viele Institutionen und Zeitschriften berechnen Indizes und Indikatoren, deren Konstruktion intransparent bleibt. Sie dienen oft zur Instrumentalisierung von eigenen Zielen oder dem Wichtigtuen. Vgl. den Anfang dieser Seite.

Es gibt fünf Arten der Lüge: die gewöhnliche Lüge, den Wetterbericht, die Statistik, die diplomatische Note und das amtliche Kommuniqúe", George Bernhard Shaw, irischer Schriftsteller,

Übungen/ Lösung von Fallstudien:

Gesundheitskennzahl. Um den Nutzen des deutschen Gesundheitssystems besser beurteilen zu können, soll eine statistische  Maßzahl konstruiert werden, die den Gesundheitszustand der Bevölkerung indiziert. Erst dann könnten die gestiegenen Kosten, insbesondere im Bereich der Zivilisationskrankheiten, richtig eingeordnet werden. Gehen Sie auf einige Probleme einer solchen Maßzahl ein.

"Die traditionelle chinesische Medizin (TCM) beruht auf fünf Säulen: chinesische Arzneitherapie, Akupunktur und Moxibustion, Tuina-Massage, Ernährungslehre und Qigong.

Der Bettler in der Wohlstandsgesellschaft (Armut). Stellen Sie einen Forschungsplan auf (u. a. mindestens eine Forschungsfrage, mindestens eine Hypothese, Auswahlverfahren usw.) für eine empirische Studie. Diskutieren Sie auch mögliche auftretende Probleme.

In der Statistik wird immer interessanter, wie Lügen verkauft werden: Bei der Bayrischen Landesbank war die ursprünglich genannte Abschreibung 1,8 Mrd. €. Diese Zahl erwies sich nach Aussage führender Politiker als "nicht belastbar", so dass sie sich auf 4,3 Mrd. "aufblähte".

Messung der Internationalen Wettbewerbsfähigkeit (betriebs- und volkswirtschaftlich).

In der Statistik ist die Fallstudie auch immer Teil der Klausur (10%). Die meisten meiner Fallstudien aus der Statistik beschäftigen sich mit Problemstellungen aus der Marketing - Forschung.

"There are three kind of lies: lies, damned lies, and statistics", Benjamin Disraeli, englischer Schriftsteller und Politiker.

Zahlreiche mathematische Übungsaufgaben zur Statistik enthält mein Skript. Ebenso ist darin eine Klausur enthalten. Zusätzlich gibt es viele Übungsbücher der Statistik. Das Skript liegt in der Regel als Kopiervorlage in der Bibliothek der Hochschule oder des OAI aus. Es kann auch als Download in das Portal des Fachbereichs oder OLAT eingestellt werden.

Stoff für Statistik:

vgl. auf der Seite "Lehre/ Courses" Gliederung für Statistik (mit Literaturangaben).

 

Wissenschaftlich, analytisches Denken im Wandel:

"Wir sind, was wir denken. Alles, was wir sind, entsteht aus unseren Gedanken. Mit unseren Gedanken formen wir die Welt", Buddha.

Das wissenschaftlich, analytische  Denken in allen Bereichen der Wirtschaftswissenschaften ist einem starken Wandel unterworfen. Einerseits gibt es durch das Internet und die digitalen Medien so viel Wissen so schnell wie nie. Andererseits ist dieses Wissen stark von Schlagzeilen geleitet und eher flach und breit. Die junge Generation von Studenten an den Hochschulen will lange Texte oft gar nicht mehr lesen, weil dafür  auch Geduld und Ausdauer fehlt. Insofern ist eindeutig zu konstatieren, dass an den Hochschulen im Bereich der Wirtschaftswissenschaften mehr und schneller wissen nicht automatisch mehr verstehen heißt. Eine Definition von "wissenschaftlichem Denken" ist nicht einfach (ganz gut auf den Punkt bringt es obiges Zitat) : Neben Wissen kommt sicher noch Verstehen, logisches und abstraktes Kombinieren, Kritikfähigkeit, gedanklicher Austausch (Diskurs) und ethische Relativierung dazu. Hinzu kommen Neugier und die Fähigkeit, Gedanken und Strukturen zu analysieren und auf andere Bereiche zu übertragen. Eine intensivere Auseinandersetzung mit wissenschaftlichem Denken findet sich bei Forschung/ Forschungsethik. Zum Stellenwert und den Folgen des Internet allgemein vergleiche folgende Betrachtung von mir "Stellenwert des Internet". "Unser Wohlstand beruht auf technischem Fortschritt und damit auch auf Aristoteles` Einführung des analytischen Denkens", Alfred Ritter, Unternehmer, Schokoladenhersteller Ritter Sport.

Wie können die Wirtschaftswissenschaften auf diese Entwicklungen reagieren? Die Rahmenbedingungen an den Hochschulen (Studienpläne, Prüfungsordnungen, Personalstruktur), insbesondere den anwendungsorientierten Fachhochschulen, sind so konstruiert, dass ein "Durchschleusen" großer Massen ohne große Hürden das Ziel ist. Das Beschäftigungssystem hat dies schon erkannt und überprüft die Absolventen selbst bzw. gewichtet die praktischen Tätigkeiten stärker oder beschränkt bei der Personalauswahl auf Masterabsolventen, die tatsächlich in der Regel besser sind. Es ist ein Herdentrieb zu guten Noten im gesamten Bildungssystem entstanden (von der Grundschule zur Hochschule; die Anteile der Einser-Kandidaten werden immer größer). "Die größte Medienkompetenz hat heute, wer sie als Unterlassungskompetenz begreift und dem Nach-Denken Raum gibt", Dieter Schnaas: Immer mit der Ruhe, in: Wirtschaftswoche, 1/ 23.12.2015, S. 78.

Die Hochschule darf aber nicht akzeptieren, dass die Qualität ihrer Absolventen schleichend schlechter wird. Sie muss gegensteuern, indem sie sowohl bei den Lehrtechniken (Didaktik) als auch bei den Prüfungsmethoden bedeutend mehr Wert auf Transfer- und Denkmethoden legt (auch schon bei der Auswahl ihrer Studenten; dies ist der dominante Einflussfaktor). Die mehr harten Fächer und formalen Anforderungen (Mathematik, Statistik, Logik, Wissenschaftstheorie, abstrakte Methoden) müssten verstärkt berücksichtigt werden. So war es ursprünglich im Bologna-Prozess auch beabsichtigt (überflüssiges Wissen entrümpeln, Methoden und Kommunikation, insbesondere Kleingruppenarbeit, stärken). Die Entwicklung der Realität geht aber aus den genannten Gründen und wegen finanzieller Engpässe eher genau in die andere Richtung. Hinzu kommt, dass der Geldzufluss und die Mittelausstattung nicht die Effizienz der Hochschulen belohnt. "Nur weil´s mich nicht kümmert heißt es nicht, dass ich´s nicht verstehe", Homer Simpson, Comicfigur aus Springfield, USA.

Das ist insgesamt sehr bedauerlich. Viele Studenten nutzen Blogs und andere Rubriken bzw. Netzwerke (Twitter, Facebook) nicht zur objektiven Informationssuche, sondern nur zur Bestätigung und Vergewisserung der eigenen Position. So bleiben viele Menschen in ihrem Denken in der Adoleszenz stecken und verändern sich nicht mehr.  Verknüpfungs-, Anwendungs- und Grundlagenwissen fehlt. Die Distanz zu Fachleuten und Wissenschaftlern wächst. Es wird weniger zugehört (auch in Vorlesungen) und mehr am Handy, Tablet oder Notebook gespielt. Viele Studenten haben  die Fähigkeit verlernt, zuzuhören und miteinander zu reden. Sie sind es zum großen Teil gar nicht mehr auf Grund ihrer sonst ausschließlichen digitalen Kommunikation gewöhnt, sich in Gegenwart Anderer zu äußern oder zu verteidigen. Darunter leidet insgesamt die Diskussionskultur, wobei die "Schere im Kopf" auch von den Massenmedien gefördert wird (z. B. Talkshows im Fernsehen mit immer denselben Teilnehmern mit vorhersehbaren Meinungen) . Weiterhin ist die Wahrnehmung stark von Bildern und Graphiken geleitet, die leicht zu manipulieren sind (wird von Powerpoint beschleunigt). Der Informationsaustausch in den digitalen Medien blendet zudem Experten aus. Die Studenten sind Nachrichtenquellen ausgesetzt, deren Seriosität sie nicht mehr überprüfen. Sie lassen sich so manipulieren, ohne das selbst zu erkennen. Das Internet ist eher ein Medium gefühlter Wahrheiten ("Postfaktisches"). Das begünstigt den Siegeszug des Unwahren. Natürlich sind die Wissenschaftler, Zeitungen und anderen Medien auch selbst Schuld an ihrem Bedeutungsverlust und gleichzeitigen Missbrauch. Es gibt immer mehr Medien mit immer mehr Journalisten und Wissenschaftlern oder solchen, die sich dafür halten. Der Wettbewerb um Aktualität und der Konkurrenzdruck verführen zu oberflächlichen oder einseitigen Recherchen und fehlerhaften Darstellungen. Sogar etablierte Redaktionen (z. B. Der Spiegel) müssen massiv Personal abbauen, der mit Qualitätsverlust einhergeht. Journalisten werden in Luxushotels "abgefüttert" (so oft in China).  Quellennachweis und Kritik werden oft vernachlässigt. Hinzu kommt, das sich die Wissenschaft zunehmend instrumentalisieren lässt (auch "vor den politischen Karren spannen lässt"; vgl. Artikel über die Rolle der Statistik in der Ökonomie). Noch nicht geklärt sind die Netzeffekte auf das Gedächtnis. Wikipedia und andere Dienste im Internet verführen dazu, schneller zu vergessen, weil Wissen jederzeit im Internet verfügbar ist. Die Artikel in Wikipedia werden in der Qualität immer besser und übertreffen vereinzelt Lehrbücher. Google wird zu einer Art neuem Gedächtnis. Unser Gehirn wird müder und untrainierter. Das könnte kompensiert werden, wenn die Leistung des Gedächtnisses in andere Bereiche ginge. Das ist aber bisher nicht ersichtlich. Besonders negativ sind diese Auswirkungen bei Kindern und Jugendlichen, auch das Suchtpotential ist hoch.  "Wie konnte das passieren, dass niemand diese Krise vorhergesehen hat", Queen Elisabeth II. nach dem Finanzcrash 2008. "Um die Sache zusammenzufassen, Ihre Majestät, war dies ein Versagen der kollektiven Vorstellungskraft vieler kluger Menschen", Antwort der britischen Ökonomen in einem Antwortbrief.

Generell wird der Mensch und damit auch der Student  im Internet zum bloßen Nutzer statt zum Macher. Er ist isoliert wie in einem großen Kaufhaus und merkt nicht, welchen Preis er zahlt. Die Entwicklung weg vom Web hin zum App bei Handys und Tabletts verstärkt die Kontrollmöglichkeit der Internetgiganten. Die Wissenschaftler selbst tragen auch eine Schuld und Verantwortung für diese Entwicklung, die andererseits einige Vorteile mit sich bringt. Das Internet ermöglicht eine Bürgerbeteiligung in der Wissenschaft. Laien sammeln Daten (tausende Bürger fotografieren mit dem Smartphone der Sternenhimmel und Wissenschaftler werten die Bilder aus) und Forscher werten aus. Die kulturellen Auswirkung des "cloud computing" werden noch einschneidender sein. Alle großen Hindernisse bei der Versorgung mit kreativen Produkten verschwinden. Wissenschaftliche Artikel werden im Nu digitalisiert werden. Das Internet wird das wichtigste Austauschmedium werden. Amazon ist schon der globale Speicher für geistiges Eigentum. Entscheidend ist die Frage wieder, ob sich dadurch die Qualität verbessert oder verschlechtert. Die Anonymität der Massen (Klickzahlen!) scheint zuerst einmal Qualität durch Quantität zu ersetzen. Was am Ende steht, weiß aber noch niemand. Außerdem ist damit eine gewisse "Janusköpfigkeit" verbunden: Viele, die im Netz ihre Meinung - auch wissenschaftlich - äußern, wollen anonym bleiben. Andererseits erhöht das Internet die Offenheit und Öffentlichkeit. Alle, und damit auch alle Wissenschaftler, werden selbst zum Medium. Sie veröffentlichen im Internet, konsumieren und verlinken sich. Die Kapazität, die man gewinnt, indem man Wissen ins Internet verlagern kann, müsste durch besseres Denken und effektivere Methoden ersetzt werde. Doch wie das genau laufen soll, weiß noch niemand. "Im Internet dreht sich im Grunde alles um hoch spezialisierte Informationen und hoch spezialisierte Zielfindung", Eric Schmidt, Ex-CEO von Google.

Es gibt also noch kein Patentrezept, wissenschaftliches Denken zu fördern. Aber es sollte mehr zum Thema an den Hochschulen gemacht werden und in den Gremien sollten Qualitätsfragen mehr Gewicht bekommen (nicht nur als Alibi). Neue Organisationsstrukturen, wie Studiengangleiter an Fachbereichen, dienen eher der Optimierung von Lebensqualität und sind durch die Hierarchiebetonung völlig unzeitgemäß. Jeder Wissenschaftler an einer Hochschule sollte in sich gehen und seine Arbeitsethik überprüfen. Lehrbücher dürften keine Zukunft mehr haben. Das Internet ist das wesentlich bessere Medium, weil es schneller, aktueller, billiger und flexibler ist. "Doch Lehrbücher sind problematisch. Sie suggerieren, dass es eine Wahrheit gäbe - einen Inhalt, den man lernen könnte. Nicht das Denken wird gefördert, sondern das nachahmende Verstehen", Ulrike Herrmann, Wirtschaftskorrespondentin der TAZ, 30.11.15, S. 12. Vielleicht geht es ja mit dem Internet besser, bleibt jedenfalls zu hoffen.

Die Lehrbuch-Wirtschaftswissenschaften legitimieren und erklären veraltete Organisationen und Institutionen., die oft nicht mehr fähig sind, die Komplexität der modernen Zeit zu bewältigen. Immer mehr Organisationen sind ineffizient, langsam und überfordert. Wir brauchen neue Heuristiken und damit neue analytische Denkweisen, die helfen, den großen gesellschaftlichen und technologischen Wandel zu verstehen und aktiv mit zu gestalten. Die Internetökonomie will Menschen eher  denkfaul und abhängig machen. Dieses den Studenten immer wieder zu vermitteln muss eines der obersten Lernziele der Hochschule sein. Die Hochschulen leiden weltweit unter einem Klima geistiger Enge. Wer nicht mehr stromlinienförmig ist, wird gemaßregelt (auch bei Veröffentlichungen). Lust am Streiten, Widerspruch und Disput sind auf dem Rückzug. Das schränkt auch das wissenschaftlich-analytische Denken ein ("Schere im Kopf"; Furcht um Gehaltszulagen, Stellen und Karriere). Ein dramatischer Wandel der Hochschulen steht sowieso in der digitalen Ökonomie bevor: E-Learning bietet ungeheure Rationalisierungsmöglichkeiten, regt aber sicher nicht zum Denken an.  "Höhere Fähigkeiten erwachsen nur aus mehr Komplexität", Carsten Bresch (Zwischenstufe Leben - Evolution ohne Ziel, München 1977).

Wünschenswert wäre eine spezielle Lehrveranstaltung zum wissenschaftlich analytischen Denken. Diese müsste an den wesentlichen Grundlagen der Philosophie (Wissenschaftstheorie) ansetzen. Was ist Realität? Kausalität und Determinismus (Ursache) Empirismus (Hume). Kontinentale Philosophie (Phänomenologie, Hegel, Husserl, Heidegger). Wahrheit und Mathematik (Leibniz). Sprache und Logik (Wittgenstein). Wissen (Carnap). Induktion und Deduktion (Mill, Russel). Wissenschaft und Rationalität.  Commonsense  und Pragmatismus. Gesellschaft (Hobbes, Rousseau, Rawls). Ein wichtiges Lernziel müsste es sein, Studenten wieder zum Lesen zu bewegen. Das unkritische  "Konsumieren" von "blutarmen" und veralteten Lehrbuchtexten oder das Reproduzieren von  stark vereinfachenden Power-Point-Folien kann sicher nicht die notwenige Kreativität und Innovationsfähigkeit fördern. "Lies nicht um zu widersprechen und zu widerlegen, auch nicht um zu glauben und für selbstverständlich zu halten, noch um Stoff für Gespräche und Diskurse zu finden, sondern um zu wägen und zu bedenken", Francis Bacon.

Die Digitalisierung führt zu einer neuen Lernkultur. Schon vorher zu Beginn der 1990er Jahre begann mit Bologna und anderen Reformen die Ausrichtung eines jeden Lernschrittes auf Kompetenz. Kompetenz wurde gleichgesetzt mit Sachverstand. "Workload" wurde eingeführt als Berechnung von Arbeitszeit, die für die Erledigung bestimmter Aufgaben ausreichen soll. Damit wurde irgendwann die Erreichung der Ziele einfach vorausgesetzt. Die Digitalisierung passt ideal dazu: Warum soll man sich Sachwissen, dass bei Google jederzeit abgerufen werden kann, noch mühevoll einprägen? Damit geht aber die Verbindung zum Transfer verloren, der ohne Wissenselemente gar nicht möglich ist. Harte Fächer wie Statistik oder Volkswirtschaftslehre sind an Hochschulen immer schwerer lehrbar. Studenten setzen Wissen, das jederzeit im Internet verfügbar ist, gleich mit Denken. Unternehmen lösen ihre Weiterbildungsabteilungen auf und erwarten von ihren Mitarbeitern, dass sie sich im Internet über Lernplattformen selber bilden. Lernen über Lernplattformen funktioniert aber nur, wenn man sich vorher in anderen Bildungsinstitutionen die Kultur des Lernens angeeignet hat. Vgl. Türcke, Christoph: Digitale Gefolgschaft. Auf dem Weg in eine neue Stammesgesellschaft, München 2019, S. 59ff.

Die Wissenschaft und ihr spezielles Denken darf sich aber nicht von der Gesellschaft isolieren. Sondern im Gegenteil muss die Wissenschaft sich gegenüber der Gesellschaft öffnen. Open Science wird diese Bewegung genannt. Wissenschaft sollte sich an der Erklärung der Welt offen beteiligen. Die Daten müssen stimmen, für alle zugänglich sein und sind damit für alle da. Offenheit muss vorherrschen und sich lohnen. Vgl. Hartung/ Sentker: Raus, raus, raus! in: Die Zeit Nr. 16, 12.042017, S. 29f. Was man früher Allgemeinbildung nannte, ist relativ schnell zu "googeln".

"Wissen wird nun angeeignet, indem man auf einen Bildschirm schaut statt auf Papier. Das macht das Wissen unmittelbarer und emotionaler, der Prozess ist aber weniger auf Reflexion angelegt", Henry Kissinger, Handelsblatt, Nr. 251, 30.12. - 4.1. 2016, S. 47.

"Jedermann trägt zwei Säcke: Vorn trägt man die Fehler der anderen und hinten die eigenen Fehler", Chinesisches Sprichwort. 

 

Philosophie und Ökonomie:

"Die Philosophie ist keine Theorie, sondern eine Tätigkeit", Ludwig Wittgenstein (österreichischer Philosoph, Wissenschaftstheoretiker, 1889 geboren in Wien, gute Bekanntschaft mit Sigmund Freud; 1951 gestorben in Cambridge;  dort auch begraben). Wittgenstein war ursprünglich Ingenieur. Er arbeitete im Flugzeugbau in Manchester. Er war ein Freund von Keynes und Verwandter von Hayek. Er war einer der bedeutendsten Philosophen des 20. Jahrhunderts. Seine Gebiete waren Logik, Sprache und Bewusstsein. Seine "Philosophischen Untersuchungen" (1953) gehören zu den wichtigsten Werken der Philosophie des 20. Jahrhunderts. Schon im "Tractatus logico-philosophicus" (1921) hatte er eine Abbildungstheorie der Sprache vertreten., die der Sprache nur eine Funktion zuschrieb. Er behauptet die Unmöglichkeit einer reinen Privatsprache.

Zunächst ist wichtig, dass auch der Philosoph seine Grenzen akzeptiert.  Die großen Philosophen Sokrates aus Griechenland und Laotze in China wussten schon beide, dass das Bewusstsein des Nichtwissens am wichtigsten ist. Am besten hat dies Kohelet um 300 v. Chr. (besser unter Prediger bekannt) ausgedrückt: "Den Wissenden und den Unwissenden trifft dasselbe Schicksal". Die Erkenntnis des Nicht-Wissens ist die Zierde des Wissenschaftlers. Der Mensch ist im Kosmos bedingt. Insoweit hatte auch Marx mit dem Denken als Überbau recht. Kohelet drückt es so aus: "Alles ist Windhauch und Luftgespinst". Insofern ist jede Philosophie auch nur Windhauch im Lauf der Geschichte. Man sollte es nur zugeben.

In der Ilias von Homer (habe ich in den Schule noch in Griechisch gelesen) nahm es Odysseus mit den Göttern auf. Er emanzipierte sich gegenüber den Göttern. Er versucht sie zu überlisten, wenn er auch eine Göttin auf seiner Seite hat. Wesentlich ist, dass er sich auf seinen Verstand und seine Vernunft verlassen kann. Er ist also misstrauisch gegenüber den übernatürlichen Erkenntnisquellen. Das ist so was wie der Anfang jeder Philosophie.

Die chinesische Philosophie bildete sich in der "Achsenzeit" (Carl Jaspers), also etwa zwischen 800 bis 200 v. Chr. Hier wuchs auch das geschichtliche Selbstverständnis. Am bekanntesten sind die Philosophen Laotse und Konfuzius. In Mesopotamien wirkte zu der Zeit Zarathustra, in Indien Buddha. Alle diese Personen werden sowohl der Philosophie als auch der Religion zugerechnet.

Nach dem vorherigen Abschnitt über wissenschaftliches Denken und obigem Zitat liefert die Philosophie die Methoden des Denkens. Sie liefert damit die Fähigkeit zur Analyse, zum Beurteilen und zum Gebrauch von Argumenten. Als der Klassiker auf diesem Gebiet gilt der deutsche Philosoph Georg Wilhelm Friedrich Hegel. Er verbindet die Welt mit Widerspruch, Geist und Freiheit. Hegels Dialektik ist auch eine Denkmethode, die höchst flexibel und einfach ist: Es gilt die innere Logik eines Gedankens bis in seine äußerste Konsequenz hin zu verfolgen und zu betrachten, wohin er auch führt. Vgl. S. Ostritsch: Portrait G. W. F. Hegel: agora 42, S. 31ff. Als freie Individuen sind wir notwendigerweise auf die anderen, die gesellschaftlichen Institutionen und in letzter Instanz den Staat verwiesen. Das hat im Kern auch Karl Marx fasziniert (vgl. unten). Wichtig ist auch Carnap (Rudolf, 1891-1970). Er wendete sich ganz der logischen Analyse zu, insbesondere der Wissenschaftssprache. Er hat sich auch mit der Wahrscheinlichkeitstheorie beschäftigt (hatte auch Mathematik studiert). Nach Hans-Georg Gadamer (1900-2002, Schüler von Heidegger) beginnt jedes Verständnis mit einem "Vorverständnis" und "Vorwegnahmen", derer wir uns nicht bewusst explizit sind. Seine Kernthese ist, dass jedes interpretative Verständnis historisch bedingt und an Tradition gebunden ist.

In der Ökonomie ist die Logik (zusammen mit der Wissenschaftstheorie und -analytik) als Gebiet der Philosophie am wichtigsten. Sie liefert die Regeln für die Begriffsbildung, für Definitionen, für die Ableitung von Hypothesen und die Struktur von Aussagen und Begründungen. Sie liefert damit die Regeln der Systematik und Objektivität für die Wissenschaften. Eines der wichtigsten Schemata in der Ökonomie ist das Hempel-Oppenheim-Denkschema. Als Begründer der Logik in der Philosophie gilt Aristoteles. Einen großen Einfluss hatte John Stuart Mill (1806-1873) mit seinem Verständnis der induktiven, deduktiven und wissenschaftlichen Argumentation. Für die Wissenschaft und Wissenschaftstheorie heute hatte Karl Popper (1902-1994) eine große Wirkung. Im Zentrum steht der Falsifikationismus. Noch heute intensiv diskutiert wird das Buch von Thomas Kuhn (1922-1996): Die größten wissenschaftlichen Fortschritte erreichen uns mit Hilfe weit reichender wissenschaftlicher Revolutionen. Kuhn war Physiker und widmete sich der Geschichte der Wissenschaft. "Die Logik will immer nur Eines und bedenkt nicht, dass es viele Logiken gibt", Carl Einstein, deutscher Kunsthistoriker. "Ich misstraue allen Systematikern und gehe ihnen aus dem Weg. Der Wille zum System ist ein Mangel an Rechtschaffenheit", Friedrich Nietzsche, deutscher Philosoph.

Ausgangspunkt philosophischen Denkens sind Überzeugungen. Eine der Grundregeln ist, diese Überzeugungen offen zulegen und zu begründen.   Damit kann nun Wissen analysiert werden im Hinblick auf logische Richtigkeit (Aufspaltung in notwendige und hinreichende Bedingungen). Wahrheiten sollten nicht das Ziel sein (Falsifikationsprinzip, Popper). Vgl. Karl Popper, Lesebuch, (Hrsg. David Miller), Tübingen 1995. Auf der anderen Seite sollte aber klar werden, dass Aufklärung das Hauptziel ist, das ohne ethische Grundorientierung (z. B. Kategorischer Imperativ) nicht möglich ist (I. Kant: Kritik der reinen Vernunft). Beantwortung der Frage: Was ist Aufklärung? 1784 in der "Berlinischen Monatsschrift". Kant, der "Weise aus Königsberg" war der Philosoph der Vernunft und Aufklärung in Deutschland. Kant ist wahrscheinlich der einflussreichste deutsche Philosoph. Wichtigster Vorgänger war Jean-Jacques Rousseau: Über den Ursprung und die Grundlagen der Ungleichheit unter den Menschen, 1755 (auch: Gesellschaftsvertrag, 1762). Er war Wegbereiter der Aufklärung und der geistige Vorbereiter der französischen Revolution. Die Ziele "Freiheit, Gleichheit, Brüderlichkeit" sind von ihm theoretisch formuliert worden. Er wandte sich vom blinden Vertrauen in die theoretische Vernunft ab und widmete sich dem moralischen Gewissen. Er lebte von 1712 (geboren in Genf) bis 1778.

Die Philosophie beschäftigt sich mit der Welt (Was ist Realität, Zeit und Raum), mit Geist und Körper (Was ist Geist?, Bewusstsein), mit Wissen (Logik und Verstand, Weisheit), Glauben (Sinn des Lebens, Relativismus, Gott), Ethik und Gesellschaft (Was ist Gesellschaft/ z. B. Habermas, Soziale Gerechtigkeit/ z. B. Rawls); Reich und Arm/ z. B. Karl Marx). Vgl. David Papineau (Hrsg.): Philosophie, Darmstadt 2006. Georg Wilhelm Friedrich Hegel (1770 - 1831) ist wichtigster Vertreter des deutschen Idealismus und in seinem Einfluss auf Marx von großer Bedeutung. Die Struktur der Philosophischen Werke ist: Logik, Naturphilosophie, Philosophie des Geistes. Berühmt ist sein Schema der Dialektik: These, Antithese, Synthese. Eine seiner berühmtesten Werke: System der Wissenschaft. Erster Teil: Die Phänomenologie des Geistes, Bamberg 1807. Als Gegenentwurf gilt die Sicht von Herbert Spencer (1819 - 1903). Er lehnt sich an Darwin an und begründet die Lehre vom Sozialdarwinismus. Er sieht das menschliche Miteinander als unerbittliches Gegeneinander im Kampf ums Dasein ("Survival of the Fittest").  Tennessee Williams vergleicht das Leben mit einem gut geschriebenen Theaterstück, mit Ausnahme des dritten Aktes.

Grundlegende Herausforderung ist der Zweifel: Der Zweifel an allen Antworten, der Zweifel an den Quellen, der Zweifel an den Berichten und Erinnerungen anderer Menschen. Der Zweifel in seiner Gesamtheit wird als Skeptizismus bezeichnet. In unserer Zeit wird der Zweifel reduziert. Es scheint, als hätten die Menschen vor lauter Aufgaben, Fragen und Tempo keine Zeit mehr für Zweifel. Das Wort "Alternativlos" charakterisiert diesen Zustand. "Basta" soll alle anderen Gedankengänge abwürgen.

Inwieweit unbeweisbare Annahmen als Ausgangspunkt in der Ökonomie gelten können ist sehr umstritten. Einerseits arbeitet man mit Axiomen, die nicht bewiesen werden (z. B. Milton Friedman, Rationalismus), wenn sie zu fruchtbaren Ergebnissen führen. Andererseits wird ein empirischer Nachweis auch für Annahmen gefordert (D. Hume, Empirismus; Problem der Induktion). Natürlich sind auch Kombinationen möglich.

Grundfrage menschlichen Lebens und der Philosophie ist die Frage nach dem Glück. In Gestalt der Glücksforschung und des Glückssozialprodukts ist diese Idee auch in der Ökonomie auf dem Vormarsch. Der Zusammenhang zur Sittlichkeit und Ethik ist relativ offen. Ethik und Moral sind schwer aus der subjektiven Ebene herauszuholen (kann es ein objektives Fundament geben?). Der Versuch eines Sozialkontrakts oder die Entwicklung ethischer Regeln findet sich bei vielen Philosophen (etwa bei Kant). Die Ökonomie alleine kann schwerlich klären, worin ein gutes Leben besteht. Der griechische Philosoph Epikur schrieb eine Anleitung zur glücklichen Askese (Hedonismus, griechisch hedone = Lust). Seneca, der Lehrer Neros und Senator, spricht vom Glück der Seelenruhe. Sie beruhe auf praktischer Übung (lateinisch: meditatio). Der letzte große deutsche Philosoph, der sich damit befasste, was ist Glück und wie kann ich es erreichen, war Arthur Schopenhauer. In seinem 1819 erschienenen Werk "Die Welt als Wille und Vorstellung" erteilt er darüber Auskunft: Der Mensch erfahre Glück immer negativ, das heißt als Beseitigung eines Mangels, als Befreiung von Unlust, als Erlösung von Schmerz. Der Philosoph Gadamer definiert Glück als das "Gelassene Beschränken auf das noch Zugeteilte".

Viel diskutiert wird das Problem des freien Willens und des Schicksals. Sind wir immer von der gesellschaftlichen Realität beim Denken abhängig oder gibt es Unabhängigkeit und Freiheit (nach Karl Marx z. B. bestimmt die ökonomische Basis das Denken; im Kern hat er Recht; die größten Wissenschaftler kommen immer aus den besten Volkswirtschaften). Unabhängig davon bleibt die Frage, ob der Mensch überhaupt jemals etwas wissen kann. Schon der römische Sklave Epiktet beschäftigte sich damit ("Handbüchlein der Moral"; 50-138 n. Chr.). Er trifft eine scharfe Unterscheidung danach, was von uns abhängt und was nicht von uns abhängt. Thomas Hobbes (1588-1679) war der Ansicht, dass freier Wille und Determinismus einander nicht ausschließen.

Die Frage nach Gott, nach dem Tod, die Frage nach dem Wesen des Menschen (seiner Seele) und die nach dem Materialismus reicht bis in die Ökonomie. Ist die heutige Ökonomie reiner Materialismus? Zumindest hat die moderne Ökonomie gezeigt, dass sie praktisch ist. Anders kann man die Fortschritte der Menschheit in den letzten Jahrhunderten nicht erklären. Natürlich ist sie als "Raubtier-Ökonomie" auch für viele Missstände und Ungerechtigkeiten verantwortlich (und damit auch für viel Leid auf der Welt; "zügelloser Kapitalismus"; vgl. z. B. die Kritik von Naomi Klein am globalen Kapitalismus). "Ich weiß nicht woher ich komme, ich weiß nicht wohin ich gehe, trotzdem bin ich fröhlich", N. N. (bringt die Philosophie auf den Punkt).

Weitere wichtige Aspekte der Philosophie sind Ethik (Kant, Nietzsche, John Rawls), Glauben (Thomas von Aquin, Kierkegaard) und Gesellschaft (Hobbes, Rousseau, Rawls) und Wissen (Platon, Locke, Carnap). Gott schuf den Menschen nach seinem Bilde, sagt die Bibel; die Philosophen machen es gerade umgekehrt, sie schaffen Gott nach dem ihrigen", Georg Christoph Lichtenberg, deutscher Philosoph.

Wenn man nach dem Einfluss großer Philosophen auf die Ökonomie fragt, gibt jeder sicher verschiedene Antworten. Insofern ist meiner Erwähnung einiger Namen durchaus subjektiv (ausführlicher bei Geschichte der Ökonomie): Die griechischen Philosophen (Sokrates, Platon, Aristoteles) haben die Basis gelegt. Der größte ökonomische Denker der Antike war Xenophon. Rene Descartes hat das Bild des Homo Oeconomicus  maßgeblich geprägt. Kant hat für die Berücksichtigung der Moral gesorgt. Hegel als wichtigster Philosoph des Idealismus hat mit seinem dialektischen Materialismus starken Einfluss auf Marx gehabt, dessen Gedanken die größten praktischen ökonomischen Auswirkungen hatten (China, Russland, Kuba, Nordkorea). Von besonderer Bedeutung ist auch John Stuart Mill (1806-1873). In seiner Schrift "Die Hörigkeit der Frau" setzt er sich für die Rechte der Frau ein (und wurde damals verlacht). Wichtige weitere Kernpunkte seines Denkens waren die Freiheit und der Utilitarismus. John Rawls gilt als der Begründer einer modernen Theorie der Verteilungsgerechtigkeit (Theorie der Gerechtigkeit). Sein berühmtes Gedankenexperiment lautete: Wenn ich nicht weiß, ob ich reich oder arm bin, schwach oder stark, dumm oder intelligent, wie sollen dann die Güter für alle verteilt werden?  Sokrates lehrt uns z. B. , dass Klarheit eine Qualität der Erkenntnis ist. Eine gute Regel auch für Ökonomen. Sicher auch folgender Ratschlag der alten Römer: "Si tacuisses, philosophus manisses" (Hättest du geschwiegen, dann hätte man dich weiter für einen Philosophen gehalten).

Wenn man nach großen Namen in diesem und letzten Jahrhundert in der deutschsprachigen Philosophie fragt, kommt man an der hermeneutischen (interpretative Verständnis)  und phänomenologischen Tradition (Erscheinung der Wirklichkeit im Mittelpunkt) nicht vorbei: Edmund Husserl, Martin Heidegger (beide Freiburg), Hans-Georg Gadamer (Heidelberg) haben aktuell international einen großen Einfluss gehabt. Gerade bei Heidegger (1889-1976, Sein und Zeit) wird aber auch deutlich, wie dumm intelligente Menschen sein können: Im Mai 1933 hielt Heidegger als frisch ernannter Rektor der Uni Freiburg seine Antrittsrede. In einem Zeitungsartikel ermahnte der philosophische "Daseinsführer" die deutsche Studentenschaft: "Nicht Lehrsätze und Ideen seien die Regeln Eures Seins. Der Führer selbst und allein ist die heutige und zukünftige deutsche Wirklichkeit und ihr Gesetz". Die Sprache hat eine große Bedeutung für die Struktur der Philosophie. Sehr wahrscheinlich wären die großen Leistungen der deutschen Philosophie nicht ohne die deutsche Sprache möglich gewesen. Es ist noch relativ wenig erforscht, wie die Struktur der deutschen Sprache Denkstrukturen beeinflusst. "If the English language made any sense, "lackadaisical" would have something to do with a shortage of flowers", Doug Larson, US-Journalist, geb. 1926; to lack a daisy - ein Gänseblümchen fehlt; heißt aber halbherzig.

Ich habe mein Studium  mit einer Analyse der Legitimität abgeschlossen (Diplomarbeit; Konzepte von Habermas, Luhmann, Max Weber, Parsons u. a. bei Renate Mayntz in Köln). Die Bedeutung des Legitimitätsglaubens ist aktuell noch gestiegen. Vgl. als kurzen Überblick über die Wissenschaft der Philosophie: Tom Morris, Philosophie für Dummies, Weinheim 2014. Auch: Vogt, Matthias: Philosophie - Von  der Antike zur Gegenwart, 2005. Ebenso: Bassham, Gregory: Das Philosophie-Buch, Kerdriel/NL 2018.

Aktuelle Bedeutung: Wir leben heute in einer Zeit der Wirtschafts- und Demokratiekrise. Gleichzeitig ist es auch eine Orientierungskrise. Vielleicht entsteht ein neues Weltbild. Dafür wird die Philosophie dringend gebraucht. Wir benötigen die Philosophie auch in der Manager-Ausbildung. Wir dürfen es nicht zulassen, dass Maschinen einmal die  Kontrolle übernehmen. Dafür brauchen wir Führungskräfte, die philosophische Denkstrukturen beherrschen. Insbesondere ethisches Verhalten können Maschinen nicht leisten.  Es muss ein Grundverständnis darüber vermittelt werden, was Ethik ist, wie Politik funktioniert und wie Technik auf Gesellschaften wirkt.  Philosophische Denkpraxis ist für Führungskräfte unabdingbar. Wer einmal im permanenten Reaktionsmodus feststeckt, kann dem hektischen Alltag nicht mehr entfliehen", Anders Indset, Wirtschaftsphilosoph ("Wild Knowledge. Outthink the Revolution", "Philosophy@Work"). Auch von ihm: "Wir sind geschaffen, um schöpferisch zu sein. Wir sind auf dieser Welt auf der Suche nach plausiblen Erklärungen und nach einem tieferen Grund für unser Dasein. Das ist unser Antrieb", in: HBM, September 2018, S. 52.

Der größte, noch lebende Philosoph der Welt: Jürgen Habermas (geb. 1929): Er wuchs in Gummersbach auf. Er studierte Philosophie und promovierte in Bonn. 1956 ging er an das Institut für Sozialforschung in Frankfurt (Theodor W. Adorno, Max Horkheimer). 1964 wurde er Professor für Soziologie in Frankfurt. 1971 wurde er Co-Direktor am Max-Planck-Institut in Starnberg. 1983 wechselt er wieder nach Frankfurt. Berühmte Bücher von ihm sind: Strukturwandel der Öffentlichkeit, 1962. Theorie des kommunikativen Handelns, 1981. Legitimationsprobleme des Spätkapitalismus, 1976. 2019 im Herbst 2019 erscheint: Auch eine Geschichte der Philosophie, zwei Bände. Seine Werke wurden in über 40 Sprachen übersetzt. Zentrale Themen sind: Demokratie, Rechtstaat, Rationalismus und globale Ordnung, insbesondere Europa.  2006 wurde ein Asteroid nach ihm benannt. "Mündigkeit ist die einzige Idee, deren wir im Sinne der philosophischen Tradition mächtig sind".

"Ein Mensch, so er denn weise ist, sollte sich niemals schämen, Neues zu lernen und stets seinen Geist dem Wissen zu öffnen", Sophokles.

"Denken ist das Selbstgespräch der Seele", Platon. Dieser Spruch bildet die Verbindung der Philosophie zum folgenden Abschnitt, der Psychologie.

 

 

Psychologie und Ökonomie:

 

Das Bild "Nighthawks" von Edward Hopper, ausgestellt im Art Institute of Chicago/ USA, steht wie kaum ein anderes künstlerisches Werk für psychologische Interpretationen und ist gleichzeitig ein "Icon" der amerikanischen Kultur. Gerätselt wird über die Beziehungssituation des Paares an der Bar.

"Die Grundlage der politischen Ökonomie und, im Allgemeinen, jeder Sozialwissenschaft ist offensichtlich die Psychologie. Es mag ein Tag kommen, an dem wir in der Lage sein werden, die Gesetze der Sozialwissenschaften aus den Prinzipien der Psychologie abzuleiten", Vilfredo Pareto, Manual of Political Economy: A Variorum Translation and Critical Edition, herausgegeben von Aldo Montesanto et. al. Oxford University Press, (1906) 2013, Kap. 2, S. 21.

"Der Mensch ist dem Menschen das Interessanteste und sollte ihn vielleicht ganz allein interessieren", Johann Wolfgang von Goethe, Wilhelm Meisters Lehrjahre.

Beiden Wissenschaften gemeinsam ist die Lage zwischen Sozial- und Naturwissenschaften. Gerade in der Psychologie spielen biologische, medizinische, insbesondere neurowissenschaftliche, Erkenntnisse eine große Rolle (natürlich auch Mathematik und Chemie in der Psychologie).

Die Ursprünge der Psychologie liegen in der Philosophie. Berühmt ist das Motto bzw. der Appell des Orakels von Delphi "Erkenne dich selbst". Er gilt bis heute als Richtschnur und Maxime für ein gutes Leben. Gemäß dem griechischen Denken sollen wir vor allem unsere eigene Hinfälligkeit bedenken uns so dem Laster der Hybris vorbeugen. Vgl. Bettina Fröhlich: Sorge um das Selbst, in: Sektrum Spezial "Die Psychologie vergangener Kulturen", S. 20ff.

Bestimmte ganz alte Behandlungsformen könnte man der Psychologie zuordnen. So der Schamanismus, der bis zu 10.000 v. Chr. zurückgeht. Es ist die Heilkunde analphabetischer und wenig entwickelter Gesellschaften. Es waren die ersten Formen der Psychotherapie. Der Schamane musste die Seele finden und dem Körper zurückgeben. Auch die modere Psychotherapie versucht, das Verlorenen des Menschen wieder zu finden und zurückzugeben. In der Jungsteinzeit sind Schädelbohrungen bekannt (Trepanation). Vielleicht wurde die Methode auch bei Geisteskrankheiten angewandt. Das Handlesen war eine verbreitete Praktik in vielen alten Kulturen. Die vier edlen Wahrheiten Buddhas (500 - 400 v. Chr.) oder die konfuzianische Ethik (550 - 450 v. Chr.) haben viel mit Psychologie zu tun. Berühmt ist das große Werk von Aristoteles "De Anima" (Über die Seele", 300 v. Chr.). Er geht auf die Einheit von Körper und Seele ein. Wissen beginnt mit Wahrnehmung. Auch das Bhagwad Gita (200 v. Chr.) des Hinduismus, das im Kern das Yoga geprägt hat, hat wichtige Sichtweisen der Psychologie beeinflusst. Vgl. Pickren, W. E.: Das Psychologie Buch, Librero 2018, S. 16ff.

Im Mittelalter spricht man eher von Seele statt von Psyche. Aber es gab sowohl Unterschiede als auch Gemeinsamkeiten zu uns heute. Die Kultur scheint einige grundsätzliche Denkweisen und Wahrnehmungen von Menschen zu prägen sowie die Art, wie sie Gefühle ausdrücken und erleben. Dem mittelalterlichen Weltmodell zufolge war der Körper nicht strikt von der Seele unterschieden. Innere Prozesse wurden auf Ereignisse der Außenwelt projiziert. Insbesondere Heldenreisen boten die Möglichkeit, seelische Konflikte aufzuarbeiten (siegreicher Krieger, Suche nach Identität).

"Psychologie" als Begriff wurde von Marko Marulic (1450 - 1524) eingeführt. Das war 1506 in seinen Moralstudien. 1524 erschien das Wort im Titel seines Buches "Psichiologica de ratione animae humanae". Im 16. und 17. Jhd. erwiesen deutsche Gelehrte wie Philipp Melanchton, Johannes Thomas Freigius und Otto Casmann in ihren Veröffentlichungen auf die Psychologie bzw. Psychologia. Richtig bekannt wurde der Begriff durch den Philosophen und Schriftsteller Denis Diderot, der Psychologie in einem Essay zum Thema machte. Vgl. Pickren, W. E.: Das Psychologie Buch, Libreo 2018, S. 44.

Im späten 18. Jahrhundert erkannten Gelehrte, dass Philosophieren allein nicht genügt, um die Welt zu ergründen, sondern vielmehr zur Ergänzung der Beobachtung bedarf. Der Schriftsteller und Pädagoge Karl Philipp Moritz gründete eine Zeitschrift mit Erfahrungsberichten zur Erforschung des "Gewebes der Gedanken". Er gilt als Wegbereiter der experimentellen Psychologie. Antrieb dieser Entwicklung war eine unglückliche Kindheit, die kein "Selbtzutrauen" aufkommen ließ und der Wusch, Wege zur Selbstheilung der Seele aufzuzeigen. Vgl. Steve Ayan: Seelenlehre. Die Leiden des Jungen M., in: Spektrum Spezial "Die Psychologie vergangener Kulturen" 2/2018, S. 84ff.

In der Psychologie heute geht es um die Grundausstattung des Menschen (Fühlen, Wahrnehmen,  Denken, Erinnern und Vergessen, Erleben, Handeln, Verhalten). Vgl. Jordan, Stefan/ Wendt, Gunna: Lexikon der Psychologie, Stuttgart 2005. Als Lehrbuch: Cash, Adam: Psychologie für Dummies, Weinheim 2005.

Psychologie sagt uns damit, wer wir sind und wie wir sein könnten. Mit ihr können wir und erklären, wie wir die Welt konstruieren, wie wir unser Zusammenleben arrangieren und wie wir an unsere Grenzen kommen. Vgl. Oehler, R./ Bernius, V./ Wellmann, K. - H.:  Was kann Psychologie, Weinheim und Basel 2009. "Der Mensch ist ein Zwischenwirt - für Religion und Fußpilz", Gerhard Polt in seinem Programm 2016.

In jedem Beruf ist Psychologie relevant: Wir müssen uns kennen und gleichzeitig die anderen. Jeder führt und wird geführt. Man muss schwierige Situationen meistern, insbesondere Stress im Beruf bewältigen. Vgl. Boris von der Linde/ Svea Steinweg: Psychologie im Beruf, München 2009.

In der Ökonomie steht die Sozialpsychologie im Mittelpunkt. Sie behandelt die Beziehungen zwischen Menschen. Es geht um Soziales Lernen und Sozialisation, Motivation und soziales Handeln, soziale Vergleichsprozesse, soziale Wahrnehmung und Kognition, soziale Einstellungen, Kommunikation, Interaktion (soziale Rollen), Gerechtigkeit, Macht und Führung, Norm und Abweichung, Gruppenstruktur, Konflikt und Wettbewerb. Vgl. Fischer, L./ Wiswede, G.: Grundlagen der Sozialpsychologie, München 2009.

Der wichtigste lebende Psychologe für die Wirtschaftswissenschaften dürfte Daniel Kahneman sein (Vgl. Kahneman: Schnelles Denken, Langsames Denken, München 2012). Er ist auch Nobelpreisträger der Wirtschaftswissenschaften. Das obige Buch ist von großer Bedeutung für den Zusammenhang von Psychologie und Wirtschaftswissenschaften gewesen. Kahneman kommt von der Wahrnehmungspsychologie. In seinem Buch behandelt erfolgende Themen: 1. Zwei Systeme (automatisch und schnell; subjektives Erleben und komplexe Berechnungen). 2. Heuristiken und kognitive Verzerrungen. 3. Selbstüberschätzung. 4. Entscheidungen. 5. Zwei Selbste.

Innerhalb der Sozialpsychologie haben sich Arbeitsgebiete herausgebildet, die besonders relevant für die Ökonomie sind. Einmal die Organisationspsychologie, die alle menschlichen Aspekte der Arbeitswelt behandelt (Personal). Vgl. Lutz von Rosenstiel: Grundlagen der Organisationspsychologie, Stuttgart 2003. Zum anderen die Wirtschaft- bzw. Marktpsychologie, die stark in die Volkswirtschaftslehre und das Marketing hineinwirkt. Es werden sowohl makroökonomische als auch mikroökonomische Prozesse analysiert. Vgl. Günter Wiswede: Einführung in die Wirtschaftspsychologie, München/ Basel 1995.

Durch die Renaissance der Behavioral Economics finden immer mehr psychologische Theorien und Forschungsmethoden (Hirnforschung, experimentelle Forschung) Einzug in die Ökonomie (in deutschsprachigen Raum aktuell vor allem durch die Ökonomen Fehr und Ockenfels).

In mehreren meiner Veranstaltungen beziehe ich psychologische Grundlagen (habe Sozialpsychologie als Fach studiert)  stärker ein, allerdings immer in Bezug auf die Praxis. Das gilt für die Personalökonomik und für Psychologie und Kommunikation/ Interkulturelle Kompetenz.

"Wir wissen von unserer Seele wenig und sind sie selbst", Georg Christoph Lichtenberg.

 

Zehn Regeln der Volkswirtschaftslehre aus unternehmerischer Sicht (Grundfragen):

"Wenn eine Gesellschaft den vielen, die arm sind, nicht helfen kann, kann sie auch die wenigen nicht retten, die reich sind", John F. Kennedy, 1917-1963, US-Präsident (zitiert nach Mankiw u. a., s. unten, S. 482).

Diese Regeln bzw. Grundfragen sind folgendem Lehrbuch entnommen: N. Gregory Mankiw/ Mark P. Taylor/ Andrew Ashwin: Volkswirtschaftslehre für Schule, Studium und Beruf, Stuttgart (Schäffer  Poeschel) 2015:

1. Alle Menschen und Unternehmen stehen vor abzuwägenden Alternativen.

2. Die Kosten eines Gutes bestehen aus dem, was man für den Erwerb eines Gutes ausgibt.

3. Rational entscheidende Menschen und Unternehmen denken in Grenzbegriffen.

4. Menschen und Unternehmen reagieren auf Anreize.

5. Durch Handel kann es jedem besser gehen.

6. Märkte sind für gewöhnlich gut für die Organisation des Wirtschaftslebens.

7. Regierungen können manchmal die Marktergebnisse verbessern.

8. Der Lebensstandard eines Landes hängt von der Fähigkeit ab, Waren und Dienstleistungen herzustellen.

9. Die Preise steigen, wenn zu viel Geld in Umlauf ist.

10. Die Gesellschaft hat kurzfristig zwischen Inflation und Arbeitslosigkeit zu wählen.

"Die Lektüre von ´Volkswirtschaftslehre´ wird Sie besser verstehen lassen, welche Möglichkeiten und Grenzen der Wirtschaftspolitik gesetzt sind und wie sie auf das Verhalten von Unternehmen wirkt", Mankiw u. a. s. oben, S. XV.

 

Die Beutung der Rechtswissenschaften und der Ingenieurwissenschaften für die Ökonomie fehlt hier, weil es sehr spezielle Einsatzbereiche sind: Die Rechtswissenschaften spielen in der Volkswirtschaftslehre vor allem in der Wirtschaftspolitik eine Rolle (z. B. Wettbewerbspolitik) oder in der Betriebswirtschaftlehre etwa in der Personalwirtschaft (Arbeitsrecht). Die Ingenieurwissenschaften finden insbesondere in der Produktionslehre, der Arbeitswissenschaft (z. B. Taylor), der Logistik und der IT-Technologie ihre Anwendung.

 

Fortsetzung des VWL - Lehrbuchs auf der Seite Fallstudie/ E-Learning: hier (Volkswirtschaftslehre, Inhalt: Fallstudien, Funktionsweise, Ideologien (Ideen) und Wirtschaft, wirtschaftspolitische Grundkonzeptionen, Marktbetrachtung (Grundlagen, Finanzmärkte, Umwelt, Arbeitsmarkt), Weltwirtschaftskrise,  Wirtschaftsordnungen) und auf dieser Seite "Methode" (Methode und Wissenschaftstheorie der VWL).

 

"Es gibt in der Pfalz ein liebes Nest, das hält mein Herz und meine Seele fest", Karl May über die Villa Motzenbäcker in Ruppertsberg, Pfalz (am 30. März 1912 starb Karl May in Radebeul bei Dresden).

Der Pfälzer Dialekt bietet eine Menge von Begriffen, um die Benutzer gewisser methodischer Regeln und Verfahren humorvoll zu kennzeichnen: Dappschädel, Dibbelschisser, Dollbohrer, Griwwelbisser, Labbeduddel.

Auch für andere Kommentare gibt es hervorragende Sätze: Uffpasse! Kumm, geh fort!, Pänn mer die Gäns!, Du machst mich ganz heckewelsch, Liewer en Bauch vum Esse wie en Buckel vum Schaffe.