Meine Blog-Liste

Donnerstag, 31. Januar 2013

Rechnungswesen 2.0

In seinem Beitrag Accountants vs. ICountants fordert Jay Draegon ein Umdenken im Rechnungswesen, das noch zu sehr am traditionellen Bild festhält. Statt die Wertschöpfung noch wie üblich durch die Gegenüberstellung von Input und Qutput zu ermitteln und zu dokumentieren, sind für Draegon in der Social Era andere Faktoren als physische ausschlaggebend. Dabei unterscheidet er vier Kategorien: Human Capital, Relationship Capital, Structural Capital und Strategic Capital. 

Der Ansatz enthält Parallelen zur Balanced Scorecard ebenso wie zum Baseline Reporting von Johnsson/Kihlstdedt. In ihrem Buch Performanced Based Reporting wiesen die Autoren bereits vor einigen Jahren auf den begrenzten Informationswert des traditionellen Rechnungswesens für die strategische Unternehmensführung hin. 

Ebenso wie für Draegon sind für Johnsson/Kihlstedt die eigentlichen Werttreiber in dem Beziehungsgeflecht eines Unternehmens mit seiner Umwelt angesiedelt.  Von hier droht die größte Gefahr. Dort liegen aber auch die eigentlichen Einnahmequellen.

Fehlanreize in der Medizin, oder: Die Grenzen der Ökonomisierung

Nachdem in den letzten Jahren auch in der Medizin die Ökonomisierung Einzug gehalten hat, formiert sich mittlerweile Widerstand. Neben den Ärzten, die sich über den zunehmenden Druck in den Kliniken, ihre Fallzahlen zu erreichen, beklagen, sind es die Kunden, die Patienten, die sich auf die Rolle als reine Umsatz- und Ertragsbringer reduziert sehen. Dagegen bleibt die Gesundheit, das eigentliche Ziel aller Bemühungen, allzu häufig auf der Strecke.  

Mittlerweile werden die Grenzen der Ökonomisierung in der Medizin immer offenkundiger. So kommen in der Reportage Vorsicht Operation der ARD einige Patienten und Ärzte zu Wort, deren Aussagen ein Licht auf die z.T. gravierenden Defizite in der Patientenversorgung werfen. Wie Manager in der freien Wirtschaft auch, werden Ärzte, die häufig nur noch befristete Arbeitsverträge bekommen, an Zahlen gemessen, die in den Zielvereinbarungen festgelegt werden. Für jede Abteilung, wie die Orthopädie, werden Planzahlen festgelegt, bei deren Übererreichung entsprechende Bonuszahlungen für die behandelnden Ärzte anfallen. Ein Prinzip, das schon in der freien Wirtschaft, man denke nur an die Banken, zu unbefriedigenden Ergebnissen und Nebenwirkungen geführt hat. In der Medizin sind die Auswirkungen für die Betroffenen noch direkter und von größerer Dauer. Vom Verlust an Lebensqualität, der kaum in Zahlen gemessen werden kann, ganz zu schweigen. 
Einer der vehementesten Kritiker der Bezahlung über Zielvereinbarungen und von Anreizen in Deutschland ist Niels Pfläging

In dem Filmbeitrag der ARD kommt u.a. auch der amerikanische Management-Papst Michael E. Porter zur Wort, der sich bereits seit zehn Jahren intensiv mit der Thematik beschäftigt. In verschiedenen Studien haben sein Team und er die Gesundheitssysteme mehrerer Länder miteinander verglichen, wobei sie für Deutschland eine überproportionale Zahl von Operationen feststellten, insbesondere in der Orthopädie, wo die Operationen im Vergleich zur Inneren Medizin deutlich besser vergütet werden. Auf diese Weise werden die ertragreichen Sparten dazu verwendet, die weniger profitablen zu finanzieren. Es kommt zu einer klassischen Fehlallokation der Ressourcen, um im Ökonomen-Jargon zu reden. 

Erstaunlich in Deutschland ist, dass keine objektiven Zahlen zu den Operationserfolgen, und zwar auf lange Sicht, vorliegen, d.h. niemand kann sagen, in welchen Krankenhäusern die besten Ärzte der jeweiligen Fachrichtungen zu finden sind. Klinische Langzeitstudien sind eine Seltenheit. Michael E. Porter und die in dem Film befragten Ärzte sehen hier den entscheidenden Hebel, um die Gesundheitsversorgung, neudeutsch: nachhaltig verbessern zu können, ohne die Qualität zu beinträchtigen; bei sinkenden Kosten. Michael E. Porter hat dafür ganz in der Tradition seiner Wettbewerbstheorie das Value-Based Health Delivery - Modell entwickelt.  

Wenn schon einer der Hardliner der Wettbewerbsorientierung in der Wirtschaft vor einer übertriebenen und einseitigen Anwendung ökonomischer Prinzipien im Gesundheitswesen warnt, dann läuft wohl wirklich etwas schief. 

Ob sein Weg der einzig wahre ist, steht dagegen auf einem anderen Blatt. Ein Anfang ist es allemal.  

Mittwoch, 30. Januar 2013

Maker-Bewegung: Große Befreiung oder Zuchthausrevolte?

Von Ralf Keuper

Der lang gehegte Traum einer Wirtschafts- und Gesellschaftsform, in der jeder, ohne auf die Hilfe der Industrie und des Handels angewiesen zu sein, die Möglichkeit hat, Produzent von Gütern und Anbieter von Dienstleistungen zu sein, scheint zum Greifen nah. Ermöglicht wird dieser epochale Wandel durch das Internet und 3D-Drucker. Um dieser neuen Produktionsform zum Durchbruch zu verhelfen, hat sich die Maker-Bewegung gebildet, deren prominenteste Anhänger Chris Anderson und Jeremy Rifkin sind. Chris Anderson hat seine Gedanken unlängst in Makers - Das Internet der Dinge: die nächste industrielle Revolution noch ganz altmodisch zwischen zwei Buchdeckel gepackt. 

In einem Interview mit dem Deutschlandradio Kultur antwortet Anderson auf die Fragen von Katrin Heise zum Zukunftspotential der neuen Industriellen Revolution und zu möglichen Gefahren. 
Für Anderson liegen die Vorteile, die sich aus dem Internet der Dinge ergeben, darin, dass im Gegensatz zu früheren Zeiten heute jeder mit einem 3D-Drucker einen Prototypen herstellen und durch Internet-Fabriken zur Marktreife bringen kann, um das fertige Produkt dann auf einem der vielen Internet-Marktplätze zu verkaufen. Der Einkauf der benötigten Materialien erfolgt ebenfalls per Internet, beispielsweise bei E-Bay. 

Jeder wird damit quasi zu einem Selbstversorger, eine Produktionsinsel im großen weiten Internet der Dinge. Design, Produktion und Vertrieb aus einer Hand. Händler mit Monopolstatus werden, wenn überhaupt, nur in Ausnahmefällen benötigt. 

Vorläufer gab es mit dem Verlagssystem bereits im Mittelalter. Prägend für diese Organisationsform war die dezentrale Produktion. Heimwerker stellten Textilien her, die von den Verlegern vermarktet wurden. Dabei fungierten die Verleger auch als Finanzierer, indem sie das Geld für die Rohstoffe vorstreckten. 

Daneben waren es die Manufakturen, die Vorläufer der Fabriken, die unter ihrem Dach Handwerker aus den unterschiedlichsten Ständen vereinten. Hergestellt wurde keine Massenware, auch Serien waren die Ausnahme. Meistens war jedes Produkt ein Unikat. 

Das Internet der Dinge verspricht nun, die Defizite der genannten Organisationsformen aufzuheben und mit der Massenfertigung zu kombinieren, ohne deren Nachteile zu übernehmen. Monopole oder Oligopole gehören im Zeitalter weitgehender Autarkie der Vergangenheit an. 

So weit so gut.

Bisher allerdings hat die digitale Revolution, als Vorläufer der neuen industriellen Revolution, eine erstaunliche Ähnlichkeit mit dem Industriezeitalter. Die Zahl der Akteure mit Einfluss ist überschaubar; der Markt wird von einem Oligopol aus Apple, Microsoft, Google, Amazon, facebook und twitter dominiert. Daneben versuchen noch einige Medien- und Telekommunikationskonzerne ein Stück vom Kuchen abzubekommen. Die große Masse hat dagegen kaum Marktmacht. 

Dietmar Dath bemängelt in einem Interview mit DRadio die blinden Flecken der Maker-Bewegung. So sieht er die Gefahr, dass die Kleinproduzenten im Internet der Dinge der Macht der Oligopolisten hilflos ausgeliefert sind. Denn auch in der neuen industriellen Revolution wird es Unternehmen geben, die im großen Stil die Bedürfnisse der vielen Produzenten und Konsumenten decken werden. Ohne eine gewisse Mindestgröße und das nötige Kapital ist das nur schwer zu schaffen. Die Materialien für die Produktion mit 3D-Druckern wie auch die Drucker selbst, werden bei steigender Nachfrage standardisiert und in großen Mengen hergestellt. Die Bereitstellung, Wartung und der Ausbau der nötigen Infrastruktur wird ebenfalls nur von einigen wenigen Unternehmen mit der nötigen Finanz- und Marktmacht aufgebracht werden können. Die vielen Kleinproduzenten dagegen sind, auf sich allein gestellt, nicht in der Lage ein Gegengewicht zu bilden. Hierfür müssten sie sich zusammenschließen, was nach Dath aber wegen der Atomisierung der Produzenten-Szene kaum möglich ist. Demnach tauchen auch hier wieder die alten Konflikte aus den Anfängen der Industrialisierung auf, die erst durch die Bildung von Parteien und Gewerkschaften entschärft werden konnten. Ein Einwand, den auch Chris Anderson in dem Interview mit Katrin Heise nicht völlig entkräften konnte. 

Für ihn ist die Macht von Google & Co. trotzdem begrenzt. Die Individuen haben, wie er am Beispiel YouTube zeigen will, das Internet okkupiert, quasi in ihren Besitz und unter ihre Kontrolle gebracht, ganz gleich, wer der wirtschaftliche und juristische Eigentümer des Programms ist. 

Kann man so sehen. 

Eine konträre Sicht hat z.B. Katja Kullmann

Ein interessanter Einwand von Katrin Heise, neben dem Hinweis auf das Problem der Produktpiraterie, war die Frage, ob denn jeder bzw. die meisten Menschen überhaupt gewillt sind, in die Produzenten-Rolle zu schlüpfen. Auch im Web 2.0 ist die Mehrzahl als Konsument und nicht als Produzent unterwegs. 
Die Frage ist, ob unser aktuelles Gesellschaftssystem überhaupt die Voraussetzungen erfüllt, um eine industrielle Revolution, wie von der Maker-Bewegung propagiert, durchführen zu können. Wir befinden uns nach wir vor in einer Massengesellschaft, in der die Teilsysteme durch Standardisierung und Konformität aufeinander eingestellt sind. Unser aktuelles Bildungssystem bildet da - allen gegenteiligen Beteuerungen zum Trotz - keine Ausnahme.

Deswegen ist unter den aktuellen Voraussetzungen die Vermutung nicht zu weit hergeholt, dass die Demokratisierung der Produktionsmittel statt Befreiung zu sein, in einer Zuchthausrevolte enden könnte. 

Schaun mer mal.




Big Data: Welche Informationen wollen/brauchen wir?

Die Fortschritte in der Verarbeitung und Aufbereitung großer Datenmengen, wie sie in letzter Zeit für Schlagzeilen sorgen und nur selten ohne die Begriffe "Big Data" und "In-Memory" auskommen, haben bei einigen Kommentatoren einen Enthusiasmus ausgelöst, der einer kritischen Analyse bedarf. Zu fragen ist daher, ob und in welchem Umfang die Möglichkeiten größere Datenmengen als bisher verarbeiten zu können, die Qualität der Informationen verbessert haben. Häufig entsteht nämlich der Eindruck, dass Quantität mit Qualität verwechselt wird. 

So kann Stephen Few auch nur mühsam seine Abneigung gegen rein Marketing-getriebene Aussagen und Versprechungen verbergen, die, wieder einmal, ein neues Zeitalter heraufdämmern sehen, in dem es nun den Unternehmen endlich möglich ist, das Datenmeer so zu filtern, dass die Entscheidungsqualität und damit natürlich auch der Umsatz sowie der Profit in ungeahnte Höhen schnellen.

Wie so oft, so sieht auch hier die Realität deutlich nüchterner aus. Das Problem bei der Bewältigung großer Datenmengen liegt weniger in der Technologie als vielmehr im kognitiven Bereich, d.h. in den Methoden und Verfahren, die nötig sind, um daraus wirklich relevante Informationen gewinnen zu können. Hierfür ist es nötig, Kriterien für die Güte der Informationen zu definieren, da ansonsten der Eindruck entsteht, alle Information sei gleichwertig und der tiefergehenden Analyse würdig. Anderenfalls haben wir es nur mit "Mehr vom Gleichen" zu tun, d.h. eine deutlich höhere Quantität, bei gleichbleibender Qualität.

In seinem Artikel Big Data, Big Ruse formuliert Stephen Few einige Fragen, auf die neue Technologien zur Informationsverarbeitung, wie sie unter dem Begriff Business Intelligence zusammengefasst werden, befriedigende Antworten liefern müssen, soll ihr Einsatz gerechtfertigt sein.

Unterstützung für Stephen Few´s Anforderungskatalog findet sich auch bei Carl-Friedrich von Weizsäcker, der Informationen wie folgt klassifiziert: 
  • Die >syntaktische< Dimension umfasst die Beziehung der Zeichen zueinander;
  • die >semantische< Dimension umfasst die Beziehung der Zeichen untereinander und das, wofür sie stehen;
  • die >pragmatische< Dimension umfasst die Beziehung der Zeichen untereinander, das,  wofür sie stehen, und das, was dies für den beteiligten Sender und Empfänger als Handlungsforderung darstellt. 
Für uns ist vor allem die pragmatische Dimension der Information entscheidend.

Oder in den Worten von Gregory Bateson:
Was wir tatsächlich mit Information meinen, ist ein >Unterschied, der einen Unterschied ausmacht<. ..
In dem Kapitel Irreversibilität und die Entstehung von Information aus ihrem Buch Das Spiel - Naturgesetzte steuern den Zufall schreiben Manfred Eigen und Ruth Winkler:
Eine Nachricht, die man empfängt, soll verstanden werden. Dazu muss sie ihren Sinn >offenbaren<, das heißt an gewisse existierende Erfahrungen oder Vereinbarungen anknüpfen und diese reproduzieren. Gleichzeitig kann sie jedoch auch unsere Erfahrungen bereichern. Das Herstellen von Zusammenhängen, das Eindordnen, das Verstehen ist dann zugleich ein Akt der Schöpfung.  ... Die >neue< Information verdankt ihren Ursprung einem nicht umkehrbaren Ereignis, sie geht aus einer >Sinnbewertung< - denn das ist Selektion schließlich - hervor. Man könnte auch mit Karl Popper sagen: Gewisse, vorher noch mögliche Alternativen werden falsifiziert. Im Falle einer Beobachtung oder beim Lesen einer Nachricht muss ein analoger Prozess im Gehirn ablaufen.
Das ist m.E. die brauchbarste Definition von Information, die sich auch im betrieblichen Alltag verwenden lässt. Relevante Informationen müssen sich in den bestehenden Kontext einordnen und in einen weiteren Zusammenhang bringen lassen oder aber diesen infrage stellen und zu neuen Fragen und Informationssuche animieren. Informationen, die einen bestehenden Status quo lediglich bestätigen und damit verfestigen, und das in großer Menge und mittels ausgefeilter Werkzeuge, sind eher eine Gefahr als eine Hilfe. Daniel Bell sprach in seinem Klassiker Die postindustrielle Gesellschaft von den sog. Intellektuellen Technologien

Unübertroffen sind daher noch immer die Worte Peter F. Druckers:
Der Computer hat dieselbe Wirkung auf strategische Entscheidungen. Er kann sie natürlich nicht treffen. Alles, was er kann - selbst das ist mehr eine Möglichkeit als eine Tatsache - ist durchzuarbeiten, welche Schlussfolgerungen sich aus gewissen Prognosen in Bezug auf eine ungewisse Zukunft ergeben, oder umgekehrt, welche Prognosen gewissen vorgeschlagenen Aktionsprogrammen zugrunde liegen. Alles, was er tun kann, ist wieder rechnen. Aus diesem Grund braucht er klare Analysen, besonders über die Grenzbedingungen, die die Entscheidung zu erfüllen hat. Und dazu ist ein hochwertige Urteil erforderlich, bei dem man Risiken übernehmen muss. 
Oder wie Theodore Levitt es ausdrückte:
What is needed is discrimination in the supply and use of data, not their sheer abundance, regardless of relevance. Discrimination cannot be experienced in a vacuum. Magnitudes must be limited to what is relevant and comfortably usable. The effective use of information is governed by the prinicple of parsimony: limit it to the more-or-less precise purpose at hand. A good thing is not necessarily improved by its multiplication. The governing question is: what is the question to be answered, the problem to be illuminated, the matter to be explored, the issue to be defined? And it is precisely because these are not self-defining concepts that it is essential to think them trough in advance, because not amount of data will tell you what information you´ll need to get at the right questions. 
Aber nicht nur für Unternehmen ist es wichtig, sich mit der Frage der Quantität und Qualität der Informationen auseinanderzusetzen. Jeder von uns sollte sich im Zeitalter des Internets mit dieser Frage beschäftigen, wie es schon vor vierzig Jahren Alvin Toffler in seinem Buch Der Zukunftsschock empfohlen hat, heute unter dem Schlagwort Information Literacy bekannt:
Die >neue< Bildung muss den Menschen lehren, Informationen zu klassifizieren und umzuklassifizieren, ihren Wahrheitsgehalt festzustellen, wenn nötig Kategorien zu ändern, vom Konkreten zum Abstrakten überzugehen und umgekehrt, Probleme aus einer neuen Blickrichtung zu sehen - sich selbst etwas zu lehren. Der Analphabet von morgen wird nicht der Mensch sein, der nicht lesen kann, sondern derjenige, der nicht das Lernen gelernt hat.

Montag, 28. Januar 2013

Chinesische Führung sucht Rat bei Alexis de Tocqueville - keine schlechte Idee

Von Ralf Keuper 

Im Blog Never Mind the Markets schloss Tobias Strautmann  seinen heutigen, lesenswerten Beitrag Wirtschaftskrise und Revolution mit den Worten: 
In letzter Zeit konnte man wiederholt lesen, dass die chinesische Führung ein altes Buch mit besonderem Interesse zu studieren begonnen hat: «L’Ancien Régime et la Révolution» von Alexis de Tocqueville (1805-69).
So weit hergeholt wie die Bemerkung auf den ersten Blick erscheinen mag, ist sie nicht. Obwohl das Buch bereits im Jahr 1856 erschien, liefert es noch heute wichtige Einblicke in das Wirtschafts- und Sozialgefüge einer Gesellschaft am Vorabend der Revolution. 

Das Dilemma der chinesischen Führung besteht darin, dass die Fortsetzung des Reformkurses ihren eigenen Untergang beschleunigen wird. Inzwischen ist die Eigendynamik durch die enge Verzahnung der chinesischen Wirtschaft mit dem Rest der Welt so intensiv, dass sie nicht mehr aufgehalten, bestenfalls noch verlangsamt werden kann. Die Geister, die man rief ..

Wenn man so will, wird die Regierung Opfer ihres Erfolges. Eine Erfahrung, die sie mit dem Ancien Régime Frankreichs teilt. Dort war die Lage nach den Worten Tocqueville´s ähnlich, aus der er in seinem Buch Der alte Staat und die Revolution den allgemein gültigen Schluss zog:  
Man gelangt nicht immer nur dann zur Revolution, wenn eine schlimme Lage zur schlimmsten wird. Sehr oft geschieht es, dass ein Volk, das die drückendsten Gesetze ohne Klage und gleichsam, als fühlte es sie nicht, ertragen hatte, diese gewaltsam beseitigt, sobald ihre Last sich vermindert. Die Regierung, die durch eine Revolution vernichtet wird, ist fast stets besser als die unmittelbar voraufgegangene, und die Erfahrung lehrt, dass der gefährlichste Augenblick für eine schlechte Regierung der ist, wo sie sich zu reformieren beginnt. 
So falsch liegt die chinesische Regierung also nicht, das Buch zu Rate zu ziehen.Leider steht dort nicht, wie eine Revolution verhindert werden kann, wenn der point of no return einmal passiert ist. Die Lektion steht noch aus .. 

Weitere Informationen: 

De Tocqueville has more interesting lessons for China 

Nikals Luhmann und das Dilemma komplexer Entscheidungssituationen

Von Ralf Keuper

Das Dilemma komplexer Entscheidungssituationen, wie sie in Wirtschaft und Politik inzwischen eher die Regel als die Ausnahme sind, ist Thema von Luhmanns Aufsatz Zur Komplexität von Entscheidungssituationen.

So schreibt er: 
Eine Entscheidungssituation wird komplexer, wenn die Zahl der Alternativen zunimmt; sie wird auch komplexer, wenn die Verschiedenartigkeit der Alternativen zunimmt oder wenn die Interdependenzen unter ihnen zunehmen, so dass man sie nicht mehr stückweise abarbeiten kann.
Eine an sich nicht sonderlich aufregende Erkenntnis, nur wird sie beim Homo Oeconicus nicht genügend berücksichtigt. Dort nämlich ist die implizite Annahme, dass der Entscheidungsträger sich der Verschiedenartigkeit und der Abhängigkeiten der Alternativen bewusst ist, sie also überblicken kann - ein Ding der Unmöglichkeit. 
Daher ist es auch nicht allzu verwunderlich, wenn Luhmann dem herkömmlichen Begriff der Rationalität kritisch gegenübersteht: 
Rationalität ist demnach nicht einfach durch das »erste Prinzip praktischer Vernunft«, die Gutheit bzw. den Wert des Zwecks, garantiert. Sie liegt auch nicht in der einfachen Relation von Zweck und Mittel. Sie besteht weder allein in der Maximierung der besonderen Wertrichtung des Zwecks (z.B. in der maximalen Ausbeutung von Ressourcen, größtmöglicher Ernte usw.) noch in der Optimierung der Relation von Mittel und Zweck (oder Aufwand und Ertrag). Für eine abstrakter ansetzende Entscheidungstheorie, die vom allgemeineren Begriff der Entscheidungsbeschränkungen (constraints) ausgeht, wird es zweitrangig, welche Beschränkungen als Zwecke und welche als Mittel fungieren, obwohl der Unterschied seine Funktion behält (hierzu Simon 1964). Zugleich wird der Begriff der Rationalität aus der Relation von Zweck und Mittel in die Relation zwischen möglichen Relationen zwischen Zweck und Mittel verlagert. Jene erste Relation wird nochmals relationiert, und dafür müssen jetzt Kriterien angegeben werden. Dieser Relationierung von Zweck/Mittel-Relationen hatte zunächst das Prinzip der Optimierung gedient. Es blieb jedoch gebunden an die Vorgabe von Beschränkungen in der Form von Zwecken und Mitteln und konnte nicht die Beschränkungen selbst als variabel postulieren. Das geschieht mit Hilfe der Begriffe Kontingenz und Komplexität. Andererseits geht es nicht an, nun die Kontingenz selbst oder gar Beliebigkeit für rational zu erklären.19 Sie ist nur eine Bedingung für Rationalität und verdient den Titel der Rationalität nur, sofern sie genutzt wird, um Entscheidungsbeschränkungen in den Entscheidungsprozessen einzuführen.
Das ist nun - wie bei Luhmann nicht anders zu erwarten - sehr abstrakt formuliert. Sofern ich ihn richtig verstanden habe, bemängelt er an den üblichen Entscheidungstheorien deren Verengung auf eine bestimmte Zweck-Mittel-Relation, ohne weitere in Betracht zu ziehen und sich die Beschränkungen, die zu einer bestimmten Zweck-Mittel-Relation geführt haben, bewusst zu machen. Damit geraten weitere Alternativen aus dem Blickfeld, d.h. die blinden Flecken bleiben unerkannt - die Komplexität und die situative Bedingtheit fallen unter den Tisch. 
Häufig entscheidet ein Individuum, wenn es mit diesem Dilemma konfrontiert wird, impulsiv, d.h. ohne weitere Überlegung. 
Eine adäquate Entscheidungstheorie hat daher bestimmte Voraussetzungen zu erfüllen: 
Sie muss sagen können, unter welchen Bedingungen rationales Entscheiden möglich bzw. wahrscheinlich ist; und das ist leichter, wenn man sich überlegt, unter welchen Umständen eine (vorauszusetzende, weil vorteilhafte) Tendenz zur Rationalität abgebrochen und in impulsives Entscheiden umgebogen wird. Sieht man Rationalität als Nutzenmaximierung, ist es schwierig, darauf eine Antwort zu geben; denn warum sollte ein Entscheider auf die Verfolgung seiner Werte verzichten? Genau hier liegen aber die empirischen Schwierigkeiten jeder Entscheidungstheorie, die von Nutzenmaximierung, Nachteilsminimierung oder sonstigen Richtigkeitskonzepten ausgeht; sie scheitert in dem Maße, als impulsives Entscheiden häufig ist.
Damit erneuert Luhmann seine Kritik an dem stets nutzenmaximierenden Entscheidungsträger, dem Homo Oecnomicus. 
Um mit Entscheidungssituationen erhöhter Komplexität besser umgehen zu können, sollten dem Entscheider entsprechende Techniken zur Verfügung gestellt werden: 
Von solchen Techniken wird es dann abhängen, ob ein Entscheider sich Situationsdefinitionen mit höherer Komplexität leisten kann und ob er deren Komplexität mehr auf der Dimension der bloßen Zahl von Alternativen oder auch in der Verschiedenartigkeit oder gar in Richtung auf höhere Interdependenzen steigern kann.
Eine weiteres Kalkül für den Entscheidungsträger könnte sein:
Kann man darüber entscheiden, ob man »Komplexität reduziert« oder lieber nicht reduziert, ob man sich Möglichkeiten offen hält oder ob man besser fährt, wenn man rechtzeitig so entscheidet, dass man nachher keine anderen Möglichkeiten mehr hat?
Hier bestehen Parallelen zu den Forschungen von Gerd Gigerenzer und den Fast and Frugal Heuristics

Weiterhin interessant ist, wie Luhamnn die Rolle der Reflexivität während des Entscheidungsprozesses definiert, indem er den Begriff der Prozessreflexivität einführt:
Das alles setzt Reflexivität voraus, nämlich die Möglichkeit, den Entscheidungsprozess auf sich selbst zu beziehen. Die meisten Entscheidungstheorien setzen diese Möglichkeit als Bestandteil des Entscheidungsbewusstseins stillschweigend voraus, ohne sie zu problematisieren. Tatsächlich macht jedoch das bloße Entscheidungsbewusstsein als ein Wissen um Wahlfreiheit und Wahlvollzug einen Entscheidungsprozess noch nicht reflexiv. Bewusstsein des Entscheidens ist noch nicht Entscheiden über Entscheiden, so wenig wie Bewusstsein des Forschens Forschen über Forschung ist. Prozessreflexivität entsteht nur, wenn ein Prozess funktional spezifiziert und mit seinem eigenen Funktionstypus auf sich selbst angewandt wird. Das setzt doppelstufige Kontingenz voraus, indem das Entscheiden selbst nochmals als ganzes oder in seinen Prämis- sen oder in seinen Phasen zum Entscheidungsthema wird. Dezisionisten, die das Entscheiden bloß lieben oder bloß wollen, verfehlen diese anspruchsvolle Struktur der Reflexivität mitsamt den von ihr abhängigen Formen der Selektivitätsverstärkung.
Das grenzt schon an Hirnakrobatik und man beginnt zu verstehen warum es auch heisst: „Luhmann lesen ist wie Techno hören.“ ;-)
Die Frage ist nur: Wie weit kann man die Abstraktion treiben, ohne die Orientierung zu verlieren?

Etwas klarer drückt er sich einige Zeilen später aus: 
Nur bei hoher Komplexität der Entscheidungsmöglichkeiten wird das Entscheiden selbst zum Problem, weil dann die richtige Entscheidung nicht ohne weiteres sichtbar ist und zudem davon abhängt, wie die Komplexität reduziert wird. Dann drängt es sich auf, ganz oder zumindest partiell auch über das Entscheiden noch zu entscheiden, um dadurch den Entscheidungsprozess ohne Festlegung des Ergebnisses (das heißt: ohne ihn dadurch schon zu beenden) vorzustrukturieren.
Ähnlich wie Luhmann haben sich dazu auch Schoemaker und Russo geäußert. 

Die eigentliche, spannende Frage lautet für Luhmann: 
Eignet sich Komplexität theoretisch überhaupt zur Entscheidungsprognose? Ist, mit anderen Worten, zu erwarten, dass komplexere Entscheidungsprozesse tendenziell zu anderen Entscheidungen führen als weniger komplexe? Wird jemand, der einen komplexeren Berufswahlprozess durchläuft, systematisch in andere Berufe gelenkt als Bewerber mit einfacherer Orientierung? Kauft jemand, der komplexer entscheidet, andere Wagen? Und dies, weil er komplexer entscheidet? Oder braucht umgekehrt jemand, der sich einen Mercedes leisten kann, gar nicht mehr komplex zu entscheiden?
Damit wären wir wieder am Ausgangspunkt. Sind die Resultate komplexer Entscheidungsprozesse  so viel besser, dass sie den Aufwand rechtfertigen, indem sie verborgene Zusammenhänge sichtbar machen und damit unnötige Risiken vermeiden helfen oder ungeahnte Chancen an die Oberfläche bringen? Oder dreht man sich damit häufig nur im Kreis, um dann zu derselben Entscheidung zu gelangen, die man nach kurzer Beratung oder aus dem Bauch heraus getroffen hätte?

Das hängt davon ab ... 

Sonntag, 27. Januar 2013

Denkstile und Tatsachen in der Ökonomie

Von Ralf Keuper

In die Kritik an der Ökonomie mischen sich immer wieder Stimmen, die am Beispiel der Naturwissenschaften den wissenschaftlichen Gehalt der etablierten ökonomischen Modelle in Zweifel ziehen - nicht ganz zu Unrecht. 
Übersehen wird dabei allerdings gerne die Tatsache, dass auch in den vermeintlich objektiven Naturwissenschaften der Maßstab dafür, was als objektiv wahr gilt, den Schwankungen des Zeitgeistes ebenso unterworfen ist wie die Erkenntnisse anderer Disziplinen. Darauf machte bereits vor fünfzig Jahren Thomas S. Kuhn in seinem Buch Die Struktur wissenschaftlicher Revolutionen aufmerksam. Ein vergleichbares Werk steht für die Ökonomie noch immer aus. 

Zumindest was die kritische Reflexion der eigenen Tätigkeit anbelangt, sind die Naturwissenschaften den Wirtschaftswissenschaften also weit voraus. 

Einige Zeit vor Thomas Kuhn kam der Wissenschaftstheoretiker Ludwik Fleck zu ähnlichen Schlussfolgerungen. Ausschlaggebend für den „Erfolg“ wissenschaftlicher Theorien waren für Fleck >Denkstile<, denen sich die Mehrzahl der Fachleute wie auch seiner Vermittler verpflichtet fühlen. Es sind demnach soziale Faktoren, die dafür sorgen, dass bestimmte Ansichten den Weg in die wissenschaftliche Gemeinschaft und in die Öffentlichkeit finden, um sich dort für lange Zeit festzusetzen. Es bedarf tiefgreifender gesellschaftlicher Veränderungen, damit ein neuer Denkstil an die Stelle des alten treten kann. Die Resistenz des wissenschaftlichen Mainstreams gegen Veränderungen in der äußeren Umwelt darf daher nicht unterschätzt werden, zumal er auf einige bewährte Tricks zurückgreifen kann, wie Fleck in seinem Buch Denkstile und Tatsachen am Beispiel der Naturwissenschaften veranschaulicht. 
Von ähnlichen Gebrechen sind die auch die Wirtschaftswissenschaften geplagt - man denke nur an die Theorie effizienter Finanzmärkte, die „unsichtbare Hand“ oder an den „Homo Oeconomicus“, den der große Historiker Marc Bloch bereits vor etlichen Jahrzehnten als ein Wesen aus dem Reich der Fabel entlarvte. Zur selben Kategorie zählt der Glaube an den freien Markt, dessen segensreiche Wirkungen, überspitzt formuliert, nur dann ausbleiben, wenn der Staat in den Wirtschaftskreislauf eingreift. Auf diese Weise lässt sich eine Theorie vortrefflich gegen Kritik immunisieren, da sich immer eine Aktion des Staates finden lässt, die der natürlichen „spontanen“ Ordnung im Weg steht  - so sehr kann sich ein Staat gar nicht aus dem Wirtschaftskreislauf zurückziehen, als dass dieses Argument nicht gegen ihn vorgebracht werden könnte. Das hat eher etwas von Metaphysik oder einer Offenbarungs-Wahrheit als von seriöser Wissenschaft.

Es ist der Glaube an jene „absoluten Wirklichkeiten“, der den Wirtschaftswissenschaften den Blick für die Abhängigkeit der eigenen Modelle von den Zeitumständen versperrt.

Damit ein wissenschaftlicher Denkstil die Vorherrschaft erringen und behaupten kann, bedarf es über die Gemeinschaft der Forscher bzw. Fachleute hinaus der Vermittlung in die breite Öffentlichkeit. Diese Rolle übernehmen in unserer Zeit Wirtschaftsjournalisten, Forschungsinstitute, Wissenschaftliche Zeitschriften, Blogger und nicht zuletzt die sog.  >Analysten<, die zusammen ein >Denkkollektiv< bilden. Der nach wie vor dominierende Denkstil in der Ökonomie, oft verkürzt als Neo-Liberalismus bezeichnet, kann sich auf ein solides Netzwerk bzw. >Denkkollektiv<  in Politik, Wirtschaft und (Soziale) Medien stützen, wenngleich die nachdenklichen Stimmen zunehmen. Der kritische Punkt für ein Umdenken ist noch nicht erreicht. Zu tief, vielleicht nur auf einer unbewussten Ebene, sitzt noch der Glaube an die Selbstheilungskräfte des Marktes, effiziente Märkte und an den Shareholder Value - an, um mit Ludwik Fleck zu sprechen: „Absolute Wirklichkeiten“, die unabhängig vom Menschen sind.

Stattdessen sollte man sie als sozial bedingt auffassen und damit im wahrsten Sinne des Wortes menschlich und demokratisch gestalten. 

Ein auch für die Ökonomie gangbarer Weg. Die digitale Öffentlichkeit, vielleicht auch die „liquid democray“, könnten die Wegbereiter sein.

Alles in allem täte der Ökonomie mehr Bescheidenheit gut, die sich der Einsicht verdankt, dass auch ihre Erkenntnisse oder „Tatsachen“ nur von begrenzter Dauer und lediglich ein Produkt ihrer Zeit sind - nicht mehr und nicht weniger.

FuturICT: Der Weltgeist als Algorithmus

Von Ralf Keuper

Für den Philosophen Georg Wilhelm Friedrich Hegel war die Geschichte Ausdruck des Weltgeistes. Demnach verfolgt die Geschichte einen Plan, der auf den Prinzipien der Vernunft beruht. Sind diese erst einmal bekannt, ist die Zukunft vorhersehbar. Nach Hegel glaubte Oswald Spengler mit mathematischer Strenge den Beweis für den Untergang des Abendlandes führen zu können.

Hätten Hegel und Spengler schon damals die technischen Möglichkeiten von heute zur Verfügung gestanden, vielleicht hätten sie ein ähnliches Projekt ins Leben gerufen wie FuturICT
Dessen Vordenker Dirk Helbing verspricht nichts weniger als die Berechenbarkeit der Welt und die Vorhersage der Zukunft. Als Ideal schwebt ihm dabei eine Gesellschaft vor, die ohne Reibungen funktioniert. Dysfunktionen und Konflikte würden demzufolge der Vergangenheit angehören, könnten allein schon qua definition nicht mehr vorkommen

Schöne neue Echtzeitwelt? Reibungslos funktionierende Automaten als gesellschaftliche Utopie? Planwirtschaft 2.0?

Eher schon alter Wein in neuen Schläuchen. 

Einer der schärfsten Kritiker von Hegels Geschichtsphilosophie war Karl R. Popper, der diese Denkrichtung auch als Historizismus bezeichnete und als totalitär brandmarkte. Einige Jahrzehnte vorher äußerte sich Jacob Burckhardt in ähnlicher Weise zur Geschichtsphilosophie Hegels mit ihrem Anspruch, in der Geschichte das Wirken des Weltgeistes erkennen zu können:
Wir sind aber nicht eingeweiht in die Zwecke der ewigen Weisheit und kennen sie nicht. Dieses kecke Antizipieren eines Weltplanes führt zu Irrtümern, weil es von irrigen Prämissen ausgeht. (in: Weltgeschichtliche Betrachtungen)
Den Weltgeist nun in Algorithmen zu packen und zu behaupten, die Zukunft sei vorhersehbar, ändert nichts an den fundamentalen Grenzen der menschlichen und  technischen Erkenntnisfähigkeit, die der Mathematiker Kurt Gödel in seinem Theorem aufgezeigt hat. Demnach kann keine Theorie vollständig und konsistent zugleich sein. Ist sie vollständig, ist sie nicht konsistent, d.h. es fehlen wichtige Elemente, ist sie dagegen konsistent, ist sie nicht vollständig, was letztlich aus dasselbe hinausläuft.

Übertriebenen Erwartungen an die Aussagekraft der Erforschung komplexer Systeme erteilt Tor Norretranders, ebenfalls unter Berufung auf das Gödelsche Theorem, in seinem Buch Spüre die Welt. Die Wissenschaft des Bewußtseins einen Dämpfer.

Das Gedicht Hommage an Gödel von Hans Magnus Enzensberger sei daher den Sozialkybernetikern von FuturICT ans Herz gelegt.

Freitag, 25. Januar 2013

Wasser ist ein Grundrecht

Von Ralf Keuper

Weitgehend unbemerkt von der Öffentlichkeit hat die EU-Kommission in den letzten Monaten Pläne zur Privatisierung der Wasserversorgung vorangetrieben. Gestern nun stimmte der Binnenmarktausschuss im Europäischen Parlament dem Vorhaben mit leichten Änderungen zu. Im April steht die Abstimmung im Parlament an, das dem Votum des Ausschusses folgen dürfte.
Die neuen EU-Regeln für die öffentliche Vergabe von Dienstleistungen gelten nicht für reine kommunale Wasserversorger, sondern "nur" für Mehrsparten-Unternehmen. Da die Mehrzahl der kommunalen Wasser-versorger als Teil der Stadtwerke aber zu den Mehrsparten-Unternehmen zählt, sind die Auswirkungen weitreichender, als es auf den ersten Blick erscheinen mag.
Heftige Kritik an dem Entwurf kommt daher u.a. vom Verband kommunaler Unternehmen und vom Präsidenten des Deutschen Städtetages, dem Münchener OB Christian Ude.

Bereits im Dezember berichtete das Politmagazin Monitor von der Geheimoperation Wasser. Was uns hier quasi durch die kalte Küche von EU-Kommissar Michel Barnier serviert wird, ist allen Beschwichtigungen zum Trotz, ein weiteres Kapitel neoliberaler Wirtschaftspolitik (oder vielleicht treffender: Marktradikalismus), die das Wasser zum Spekulations- und Renditeobjekt macht. Das dürfte bei den Vertretern der Nahrungsmittelindustrie Freude auslösen, wie z.B. bei Nestlé-Konzernchef Peter Brabeck, der bereits vor einiger Zeit in einem Interview seine Ansichten zum öffentlichen Gut Wasser von sich gab. 

Überhaupt ist der Nestlé-Konzern, wie man dem sehenswerten Film Abgefüllt entnehmen kann, neben Pepsi und Coca Cola einer der Key-Player auf dem internationalen Wassermarkt. Weitere einflussreiche Akteure sind Suez /Ondeo und Veolia.

Die verschiedenen Kommentare und Stellungnahmen betrachten das Thema meistens aus ökonomischer Sicht und verweisen dabei auf die Theorie Öffentlicher Güter
Ein Öffentliches Gut zeichnet sich durch seine Nicht-Ausschließbarkeit aus, d.h. niemand darf von dem Konsum dieses Gutes ausgeschlossen werden. Es gehört quasi allen. 
Wasser ist nach Ansicht der Kritiker der Privatisierung ein  öffentliches Gut par excellence. Eine Privatisierung, deren Merkmal die Ausschließbarkeit der Güter ist, steht dazu im Kontrast. Ohne Eigentum an einem Gut ergibt deren Verwertung aus betriebswirtschaftlicher Sicht, die auf eine möglichst hohe Rendite zielt, keinen Sinn. 

In der wissenschaftlichen Diskussion stehen sich verschiedene Positionen gegenüber. Während Elmar Altvater, u.a. wissenschaftlicher Berater von Attac, einer Privatisierung ehemals öffentlicher Güter kritisch gegenüber steht, sind die Vertreter des Ordoliberalismus, wie Theresia Theurl, da deutlich offener. Irgendwo dazwischen befindet sich Birger Priddat, der öffentliche Güter als politische Güter interpretiert. 
Allen Unterschieden in der Argumentation zum Trotz, sind sich die genannten Autoren weitgehend darin einig, dass Öffentliche Güter nicht nur ökonomisch, sondern auch politisch betrachtet werden müssen. Wie nicht anders zu erwarten, hat Theresia Theurl ihre Zweifel, spricht sich aber nicht definitiv gegen eine politische Sicht aus.
Während Theurl und Priddat sich im sowohl als auch verheddern, bezieht Altvater eine klare Position. 

Aufgrund ihres vielschichtigen Charakters ist die Bestimmung dessen, was ein Öffentliches Gut ist, eine Definitionssache, die für Altvater in den öffentlichen Raum gehört. 

Die Erfahrungen mit der Privatisierung der Wasserversorgung sind nicht wirklich ermutigend, wie die taz berichtet. 

In seinem Buch Everything for Sale. The Virtues And Limits of Markets argumentierte Robert Kuttner bereits 1999 gegen die schon damals weit um sich greifende Privatisierungswelle: 
Economists have long accepted the proposition that public goods, which are nonrival und nonexcludable, must be provided by government. But the recent swing to extreme conservatism, and the conviction that unleashed market forces can accomplish almost anything, has led to a trivialization of the significance of public goods.  
Ohne sie direkt anzusprechen, weist Kuttner auf die Bedeutung Öffentlicher Güter, wozu für mich auch die Wasserversorgung gehört, für den Zusammenhalt der Gesellschaft hin:
A still broader goal is to vouchsafe the environment to future generations, or to achieve hight living standards at lower overall environmental costs. These are cvic goals that myopic markets cannot identify. So the purpose of public policy in this realm is not just compensate passively for market imperfections, but to ratify public values and stimulate social learning. (ebd.)
Kurzum: Wasser ist ein Öffentliches Gut und keine Handelsware. Die European Citizen´s Initiative liegt daher richtig, wenn sie Wasser zum Grundrecht erklärt. 

Donnerstag, 24. Januar 2013

Zur volkswirtschaftlichen Bedeutung des Profi-Fussballs

Was den volkswirtschaftlichen Beitrag des Profi-Fussballs betrifft, gehen die Einschätzungen auseinander. 
Als Gegenpole erwähnt seien die McKinsey - Studie Wirtschaftsfaktor Bundesliga aus dem Jahr 2010 und die Studie des Deutschen Instituts für Wirtschaftsforschung Zum volkswirtschaftlichen Wert der Fussball-Weltmeisterschaft 2006 in Deutschland aus dem Jahr 2007.

Kritik an der Bereitstellung öffentlicher Gelder für den Profisport kommt u.a. vom hessischen Steuerzahlerbund.  Panaroma widmete dem Thema unter dem Titel Steuergrab Fußballstadion: Politiker im Bauwahn einen Beitrag.

Und die ZBW in Kiel hat unter dem Titel ..  Zum makroökonomischen Einfluss von Fußballgroßveranstaltungen eine eigene Literaturliste erstellt. 
Auf dem Blog Offensivgeist setzt sich Marco Mesirca differenziert mit dem Thema auseinander. Scheint überhaupt ein guter Blog zum Thema zu sein. 

Je nach Standpunkt, wird die volkswirtschaftliche Bedeutung des Profi-Fussballs über - oder unterschätzt. 

Fakt für mich ist: Er ist inzwischen ein wichtiger Wirtschaftsfaktor und integraler Bestandteil der Event-Wirtschaft und des Entertainment. Demgegenüber gerät der sportlich-spielerische Aspekt immer mehr in den Hintergrund. Die Branche folgt ökonomischen Prinzipien.  
Dass dafür Steuergelder und Gebühren aufgebracht werden, darf zumindest kritisch hinterfragt werden. Hinzu kommen noch die Kosten für die Sicherheit. 

Die bereits erwähnte Studie des HWWI wirft die Frage auf:
Es stellt sich die Frage, inwieweit die Fußball-Berichterstattung zum Programm- und Grund- versorgungsauftrag des öffentlich-rechtlichen Rundfunks gehört, da aufgrund der Massenattraktivität des Fußballs eine Bereitstellung durch private Anbieter gewährleistet ist. In der ökonomischen Theorie existiert der Begriff des „öffentlichen Gutes".
Einige Zeilen weiter resümieren die Autoren:
Dies kann jedoch auch durch werbefinanzierte private Anbieter erfolgen und ist insoweit wiederum kein Argument für eine Bereitstellung durch öffentlich-rechtliche Rundfunkanbieter. Hinzu kommt, dass bei einer überwiegenden Gebührenfinanzierung auch all jene zur Finanzierung von „Fußball-Programmen“ beitragen, die nicht am Fußball interessiert sind oder deren Zahlungs- bereitschaft nur gering ist. Dies kommt einer zwangsweisen Quersubventionierung zugunsten der Fußballinteressierten gleich und verstößt gegen das „Äquivalenzprinzip“, demzufolge die Inanspruchnahme von Leistungen durch den Konsumenten und die Höhe seines Beitrags zu deren Finanzierung miteinander korrespondieren sollten. Aus ökonomischer und ordnungspolitischer Sicht fällt aus diesen Gründen ein Mitbieten der öffentlich-rechtlichen Sender um die Fußball- Senderechte nicht zwingend unter deren Grundversorgungsauftrag.
Das ist zumindest diskussionswürdig. 

Vorläufiges Fazit für mich ist, dass die Fussballbranche unter Kosten-Nutzen-Gesichtspunkten schwer zu fassen ist. Vielleicht ein Defizit der bisherigen ökonomischen Forschung. Der Nutzen des Fussballs kann allerdings nicht nur ökonomisch betrachtet werden, er erfüllt eine wichtige soziale Funktion, d.h. er fungiert für Viele sinnstiftend und dient auch zum Abbau von Aggressionen, was keineswegs immer in Gewalt endet. Insofern zieht die Gesellschaft als Ganzes daraus "Gewinn". 
Als weiterer Einwand können auch die teilweise horrenden Ausgaben für Prestige-Objekte der Hochkultur wie der Elbphilharmonie in Hamburg gelten. Allerdings obliegen die Kultureinrichtungen nicht dem Gewinnmaximierungs-Prinzip.

Eine Branche jedoch, die so kommerziell ist wie der Profi-Fussball, muss sich in bestimmten Fragen ökonomischen Maßstäben unterordnen. Darunter fallen dann auch Einnahmen aus Gebühren und Steuern, die ihrem Wesen nach nichts anders als Subventionen, wie für die Landwirtschaft, den Bergbau und viele andere Bereich auch, sind.
Es geht um das Ausmass. Mittlerweile ist die Tendenz, Gewinne zu privatisieren, Kosten jedoch zu sozialisieren in der Wirtschaft als Ganzes für meinen Eindruck zu stark, nicht gesund und auch nicht ökonomisch vernünftig. Da ist der Fussball noch nicht einmal am schlimmsten, was es aber nicht wirklich besser macht. 

Einige Anmerkungen zur Systemrelevanz

Von Ralf Keuper

Kaum ein Begriff hat sich in den letzten Jahren so tief in das öffentliche Bewusstsein gesenkt, wie der der Systemrelevanz. Als die Finanzkrise auf ihrem Höhepunkt war, glaubte man feststellen zu können, dass die Banken, oder zumindest einige von ihnen, so wichtig für das Wirtschaftssystem sind, dass sie nicht untergehen dürfen und daher vom Staat gerettet werden müssen. Seitdem dient das Etikett systemrelevant dazu, ganze Bereiche in Wirtschaft und Gesellschaft für unverzichtbar zu erklären. Neben den Banken ist es in Deutschland vor allem die Automobilindustrie, die ebenfalls als systemrelevant gilt. Auch hier ist im Zweifelsfall der Staat zur Stelle, wenn sich herausstellt, dass einige Blütenträume nicht eintreten wollen und sich die Annahmen als zu optimistisch oder schlicht falsch erweisen. 

Aber damit nicht genug: Auch die Kulturbranche in Deutschland entgegnet Kritikern, die von einer Kulturblase sprechen, ebenfalls systemrelevant zu sein. Ja und auch der öffentlich-rechtliche Rundfunk ließ erst kürzlich verlauten, nicht nur systemrelevant, sondern Stützpfeiler der Demokratie zu sein. Gewöhnt haben wir uns dagegen schon lange an die Systemrelevanz der Landwirtschaft, der Luft- und Raumfahrt und sogar des Profi-Fussballs. 

Irgendwie ist alles systemrelevant. Eine Aussage, der die Systemtheorie, die letztendlich von  nichts anderem handelt, zustimmen dürfte. Kritiker werfen der Systemtheorie ihre konservative Grundtendenz vor. Hat sich ein System erst einmal etabliert und ist es gar in den Rang der Relevanz aufgestiegen, ist es quasi unverzichtbar - zumindest aus Sicht des bestehenden Meta-Systems. 

Die Gefahr besteht jedenfalls, dass sich das Meta-System und damit die Gesellschaft auf einen Zustand bewegt oder dort verharrt, der dem des Stillstands nahe kommt. Damit dieser Fall nicht eintritt, sind abweichende Ideen, neue Akteure und Kritik nötig, die meistens (noch) nicht systemrelevant sind. Die bestehenden Systeme sind dazu häufig nicht mehr in der Lage oder willens. Gesellschaften benötigen zu ihrem Fortschritt den Disput, den Wettbewerb der Ideen. Karl Popper prägte dafür den Begriff der Offenen Gesellschaft. Systemrelevanz steht letztlich im Widerspruch zur Offenen Gesellschaft. Ein Teil eines Gesellschaftssystems darf nie so relevant werden, dass sein temporärer bzw. teilweiser Ausfall alle anderen mit in die Tiefe reißt oder lahmlegt. 


Mittwoch, 23. Januar 2013

Soziale Austauschtheorien als Erklärung für menschliches Verhalten in Gesellschaften

Von Ralf Keuper

Die Theorie des sozialen Austauschs, als deren Hauptvertreter Peter M. Blau und George Caspar Homans genannt werden können, erlebte in den 60er und 70er Jahren des vergangenen Jahrhunderts ihre eigentliche Blütezeit. 
Insbesondere Peter M. Blau griff dabei auf die Erkenntnisse der Anthropologie zurück, wie sie u.a. von Marcel Mauss (Die Gabe), James Frazer (Der goldene Zweig)  oder Claude Lévi-Strauss veröffentlicht wurden. Demnach lassen sich schon in den archaischen Gesellschaften erste Formen des sozialen Austauschs beobachten. Anders als der ökonomische Austausch von Gütern und Dienstleistungen, der erst mit Aufkommen der Marktwirtschaft zu dem beherrschenden Transaktionsmechanismus avancierte, beinhaltet der soziale Austausch, nach heutigem Sprachgebrauch, eher "weiche" Faktoren, wie soziale Anerkennung, Status, Rechte, Information, Motivation etc. In archaischen Gesellschaften beispielsweise konnte eine Person ihren überlegenen sozialen Rang einer anderen gegenüber dadurch geltend machen, indem sie den Empfänger mit Geschenken überhäufte. Der Empfänger bzw. der Beschenkte stand dann vor der Herausforderunng, sich für die erhaltenen Gaben in mindestens demselben Umfang zu revanchieren, wollte er nicht in der sozialen Rangordnung zurückfallen. Daraus wird u.a.  auch deutlich, dass es den sozialen Austausch in Reinform nicht gibt, da auch immer ökonomische Faktoren in die Bewertung der Transaktion durch die Tauschpartner miteinfließen und vice versa.

In seinem Hauptwerk Exchange and Power in Social Life charakterisiert Peter M. Blau den sozialen Austausch wie folgt:
Social Exchange can be observed everywhere once we are sensitized by this conception to it, not only in market relations but also in friendship and even in love, as we have seen, as well as in many social relations between these extremes in intimacy. [...] The institutionalized form the exchange of gits frequently assumes in simpler societies highlights the two general functions of soical as distinct from strictly economic, exchange, namely, to establish bond of friendship and to establish subordination over others.
Insofern bilden die sozialen Austauschprozesse den "Kitt" einer Gesellschaft. Über die sozialen Austauschprozesse erhalten die Interaktionen der Mitglieder einen Rahmen. Mit dem Eintritt in eine soziale Austaschbeziehung schlägt, überspitzt formuliert, die Geburtsstunde des Menschen als einem anerkannten Mitglied der Gesellschaft. Wichtiger Bestandteil zur Aufrechterhaltung einer sozialen Austauschbeziehung ist die Reziprozität, d.h. es werden für Leistungen entsprechende Gegenleistungen erwartet, ohne dass diese im vorhinein genau spezifiziert werden. Blau bezeichnet diesen Zusammenhang dann auch als den Startmechanismus einer sozialen Interaktion. 

Bedingt dadurch, dass die "Vertragsinhalte" in sozialen Austauschbeziehungen nicht genau bezeichnet werden und im Ermessen des Interaktionspartners liegen, stehen am Anfang einer Tauschbeziehung eher kleine "Investitionen", die bei einem erfolgreichen Verlauf ausgedehnt werden können. Wesentlich hierfür ist das Maß an Vertrauen, dass der Tauschpartner in sein Gegenüber setzen kann. Insofern ist das Vertrauen von entscheidender Bedeutung für die Aufnahme sowie die Fortführung einer sozialen Tauschbeziehung. 

Für Blau liegt der Unterschied zwischem einer "klassischen" ökonomischen und einer sozialen Austauschbeziehung im hier dargestellten Sinne u.a. darin, dass bei letzterer Faktoren mit deutlichem Bezug zu ethischem Verhalten prägend sind.

Nach Blau entzieht sich die Bewertung einer sozialen Austauschbeziehung damit weitgehend einer Betrachtung nach monetär messbaren Kosten-Nutzen-Aspekten.

Wenngleich eine exakte Messung der Belohnungen und Kosten, die aus sozialen Austauschbeziehungen resultieren, nicht möglich ist und das Verhalten der Interaktionspartner dem Maximierungsprinzip zumindest auf den ersten Blick, nicht zu unterliegen scheint, spielen Kosten-Nutzen Betrachtungen hierbei sehr wohl eine Rolle. 

Belohnungen, die im Rahmen einer sozialen Austauschbeziehung gewährt werden können, sind soziale Anerkennung (z.B. persönliche Hilfestellungen, Motivation, persönliche Fürsprache), Status (z.B. Entscheidungsbefugnisse), Rechte (z.B. Konzessionen, Landnutzung), Schutz (z.B vor physischen Übergriffen) sowie die Gewährung des Zutritts zu Kreisen, die hohe soziale Belohungen garantieren (vgl. das Symbolische Kapital von Pierre Bourdieu). Zu den Kosten, die im Verlauf einer sozialen Austauschbeziehung anfallen, zählen die entgangenen Möglichkeiten durch die Unterordnung unter die Normen einer bestimmten Gruppe und damit ein möglicher Verlust, wenn auf die "falsche" Gruppe mit ihrem Anführer gesetzt wurde (vgl. The Social Psychology of Groups von Thibaut & Kelley). Als Konsequenz daraus ergibt sich, dass für einen Interaktionspartner bei der Auswahl der zur Verfügung stehenden Tauschpartner die  Attraktivität der Gruppe und deren Anführer von herausragender Bedeutung ist, was zu offenen oder verdeckten Konflikten führen kann.

Neben den interpersonellen sind es für Blau auch die intrapersonellen Konflikte, die eine soziale Austauschbeziehung schwer belasten können. Durch die Anerkennung des höheren Ranges eines Übergordneten und die Eingliederung in die seiner Führung unterliegenden Gruppe, gibt das Individuum einen Großteil seiner Autonomie ab. Das wiegt um so schwerer, je weniger Alternativen dem Individuum zur Verfügung. stehen. In archaischen, ihrem Ursprung nach geschlossenen Gesellschaft ist deren Anzahl sehr überschaubar. Damit kann von Wahlfreiheit, wie sie für eine offenen Gesellschaft kennzeichnend ist, kaum die Rede sein.

Trotz der genannten Einschränkungen hat die Theorie des sozialen Austauschs m.E. noch nicht ausgedient, da sie vieles zur Erklärung von Mechanismen beitragen kann, die für ein Fortbestehen einer Gesellschaft von ebenso großer Bedeutung sind wie rein ökonomische Faktoren, nicht zuletzt auch deshalb, da beide Tauschformen einander bedingen bzw. miteinander verwoben sind.

Weitere Informationen:

Gift Giving and the ‘Embedded’ Economy in the Ancient World

Automobilindustrie in der Sackgasse?

In ihrem aktuellen Blog-Beitrag wirft das Bankhaus Rott einmal mehr einen kritischen Blick auf die europäische Automobilindustrie. Dabei zitiert das Haus die letzten Zahlen vom Automobilmarkt, die deutliche Absatzrückgänge anzeigen. Tendenz weiter fallend. 
Trotz bereits vollzogener und angekündigter Werksschließungen weist der Automarkt in Europa nach wie vor hohe Überkapazitäten aus. 
Betroffen von der Entwicklung waren bisher in erster Linie die Massenhersteller im mittleren und unteren Preissegment, wie Fiat, Peugeot, Ford und Opel. Die Premiumhersteller wie BMW, Daimler und Audi blieben hiervon, auch wegen wieder anziehender Absatzzahlen in den USA und hoher Nachfrage in Ostasien, weitgehend unberührt. Die aktuellen Zahlen zur Entwicklung der Restwerte weisen jedoch darauf hin, dass diese Zeiten bald vorbei sein könnten. 
Da es sich, wie schon erwähnt, laut Bankhaus Rott um eine strukturelle und weniger um eine konjunkturelle Krise der Automobilindustrie handelt, kommen auch auf die deutschen Hersteller harte Zeiten zu. Jedenfalls ist die Anzahl deutscher Automobilfabriken in Europa mit 46 von insgesamt 210 in der EU beachtlich und mit weitem Abstand die höchste aller aufgeführten Länder. 

Wegen ihrer Bedeutung für die Volkswirtschaften werden die Länder Europas einiges bzw. nahezu alles tun, um die Hersteller und damit auch die Automobilzulieferindustrie zu stützen. Erinnert sei an die Abwrackprämie. 
Es ist allerdings fraglich, ob sich der Strukturwandel in der Automobilindustrie auf diese Weise aufhalten lässt - die Stahlindustrie und der Bergbau lassen grüßen.

Die Bedrohungen sind dabei vielfältig und kommen nicht nur aus Fernost. 

In einem Kommentar auf Telepolis behauptet Franz Alt , dass die Automobilindustrie die Zukunft verschlafe. Als Grund nennt er die nur halbherzigen Anstrengungen in Richtung Elektroauto, Ein-Liter-Autos und Hybridautos. Noch immer sei das Denken in den deutschen Autokonzernen von der guten alten Zeit geprägt, in der das Auto Ausdruck der Freiheit war. Der Ressourcenverbrauch war demgegenüber von untergeordneter Bedeutung. 
Das nachfossile Zeitalter, das selbst in den USA bereits an einigen Stellen angekommen zu sein scheint, wird hierzulande nicht zur Kenntnis genommen. 

Weiteres Ungemach droht der Automobilindustrie von dem häufig zitierten Wertewandel, der dazu geführt hat, dass das Auto als Statussymbol bei der Jugend (18 - 25 J.) ausgedient, zumindest jedoch merklich an Bedeutung verloren hat. 

Doch damit nicht genug. 

Denn auch in Fernost, insbesondere in China, will man den heimischen Markt ebenso wie den Weltmarkt keineswegs den ausländischen Herstellern, auch denen aus dem Premium-Bereich, überlassen. Seit einigen Jahren schon kaufen chinesische Staatsunternehmen ausländische Automobilhersteller, um sich so deren Know How anzueignen und die Abhängigkeit zu verringern. Oder wie Helmut Becker in Ausgebremst schreibt: 
Strategisch orientieren sich die Chinesen sehr stark an japanischen Vorbildern. Ähnlich wie die Koreaner sich von der reinen Billigprodukt-Strategie abgewandt haben, stellt auch SAIC die Produktqualität in den Mittelpunkt des Wirtschaftens, um durch zufriedene Kunden und entsprechende Loyalität ein langfristiges und nachhaltiges Wachstum zu generieren. Dazu gehört auch die Akkumulation von Know-How durch eigene Entwicklung von Komponenten und Schaffung eines Zuliefer-Netzwerkes, Zeichen dafür, dass die Chinesen als Konkurrenten in Zukunft ernst zu nehmen sind.
Auf ein weiteres Problem weist Johann-Günter König in Die Autokrise hin. In seinem aktuellsten Beitrag stellt er die ketzerische Frage Wer benötigt ein eigenes Auto? Darin fordert er den Ausbau öffentlicher Verkehrsmittel und Änderungen am Steuersystem, um die CO2-Emissionen zu reduzieren. 

Die Gefährdungen der Automobilindustrie kommen aus unterschiedlichen Richtungen. Sind die ökologischen Probleme schon seit längerem bekannt, deuten die Veränderungen in der Werteskala der potenziellen Käufer wie auch die zunehmende Konkurrenz aus China und demnächst Indien darauf hin, dass die Qualität der Bedrohung eine andere geworden ist. Damit ist nicht zwangsläufig gesagt, dass die deutsche und europäische Automobilindustrie auf die Verliererstrasse gerät. Sinkende Restwerte sind kein neues Phänomen ebenso wenig wie Konkurrenz aus Fernost. Jedoch sind angesichts steigender Automobilpreise, bei stagnierenden Einkommen und hohen Fixkosten (Sunk Costs) der Hersteller die Aussichten nicht wirklich günstig. Schon heute liegt die Leasingquote der Wagen aus der Mittel- und Oberklasse in Deutschland bei 60 Prozent. Der Absatzkanal Autobanken nähert sich der kritischen Grenze.