Home

Texte

Kommentar

Rezensionen

Radio

Schublade

Bilder

Links

 

Kontakt

 

 

 

 

Nichts Neues vom Fortschritt

Ein Warnhinweis hinsichtlich Informationstechnik und Produktivkräften

(KONKRET, September 2017)

 

Historiker sind Spielverderber, aus beruflichen Gründen. Allen anderen steht vor Staunen der Mund offen, eben ereignet sich Unerhörtes, nie Erahntes, aber sie zeigen sich unbeeindruckt. Was den Zeitgenossen brandneu erscheint, kommt ihnen bekannt vor. Geschichte wiederholt sich nämlich, wenigstens die Geistesgeschichte. Es ist verblüffend, wie wortgetreu Generation auf Generation manche Ansichten und Vorstellungen wiederholt. Zum Beispiel diese hier: „Etwa die Hälfte aller heutigen Arbeitsplätze in der westlichen Welt könnten schon 2030 nicht mehr existieren.“
So äußerten sich vor wenigen Monaten die Publizisten Richard David Precht und Manfred Broy. Ulrich Beck wusste allerdings schon in Jahr 1996, dass „das Volumen der Erwerbsarbeit rapide schwindet. Wir laufen auf einen Kapitalismus ohne Arbeit zu.“ André Gorz wiederum erwartete in den 1980er Jahren „die Halbierung der Arbeitszeit bis zur Jahrtausendwende aufgrund der mikroelektronischen Revolution“. Noch früher, im Jahr 1964, schickte eine Gruppe Intellektueller dem Präsidenten der Vereinigten Staaten von Amerika eine Denkschrift, in der es heißt, „die kybernetische Revolution“ führe „zu einem System von nahezu unbeschränkter Produktivität, das immer weniger Arbeit benötigt.“
Begründet wurden all diese Vorhersagen mit den Fortschritten der Digitaltechnik. Es geht aber durchaus auch ohne! Heinrich Popitz war sich in den 1950er Jahren (also noch vor der Ankunft des Mikroprozessors) sicher, dass „durch die Automatisierung der Anteil der Menschen am Produktionsprozess so erheblich vermindert wird, dass nur noch wenige Stunden am Tag gearbeitet werden braucht.“ Im Jahr 1930, auf dem Höhepunkt der vorletzten Weltwirtschaftskrise, stellte John Maynard Keynes die 3-Tage-Woche in Aussicht. Dass die Produktionsgewinne und die resultierende Knappheit der Beschäftigung die gesellschaftliche Ordnung bedroht, wusste (und fürchtete) bereits François-René Chateaubriand im Jahr 1849: „Was soll man mit dem beschäftigungslosen Menschengeschlecht anfangen?“
Das unaufhörliche Ende der Arbeit zieht sich durch die Geistesgeschichte, seit das Kapital den Arbeitsprozess planmäßig umgestaltet, aufgeteilt, mechanisiert, kurz: die ganze Produktion in die eigene Verantwortung übernommen hat und organisiert. So steigt die Produktivität und Arbeitskräfte werden freigesetzt. Die möglichen gesellschaftlichen Folgen ängstigen die Zeitzeugen seit jeher (gerade auch die Bourgeoisie, die doch selbst gar nicht betroffen ist).
Die Erfahrung, dass die genannten Denker falsch lagen, belegt für sich genommen natürlich nicht, dass die Menschheit niemals einen Punkt erreichen wird, an dem sie die Produktion umfassend den Maschinen überantworten und das Arbeiten sein lassen könnte. Allerdings deutet überhaupt nichts auf einen „Peak Arbeit“ hin, einen historischen Moment, ab dem die verausgabte Arbeitszeit nicht mehr wächst. In der Bundesrepublik waren zuletzt gut 44 Millionen Menschen erwerbstätig, so viel wie niemals zuvor. Global wuchs die Zahl der Lohnabhängigen auf ein Rekordhoch (laut der Internationalen Arbeitsagentur auf knapp vier Milliarden).
Auch und gerade die (entschiedene) Linke geht davon aus, dass durch Digitalisierung die Produktivität der Arbeit enorm gestiegen sei oder demnächst steigen wird. Die jüngsten Fortschritte in der Sensorik, Robotik, Miniaturisierung und beim Maschinenlernen – so konkret wird es allerdings selten – gelten als Grundlage für einen neuen Automatisierungsschub. Dies ist ein Vorurteil, das mit vielen weiteren verknüpft ist, unter anderem das Wissenschaft oder Wissen zu einer „unmittelbaren Produktivkraft“ geworden sei und der Kapitalismus „kognitiv“ oder „digital“. Die folgenden Bemerkungen sollen dazu dienen, die Produktivität von Informationstechnik etwas genauer zu bestimmen. Technische Neuerungen haben immer wieder überschießende Hoffnungen und Ängste geweckt. „Wir merken, dass unsre ganze Existenz in neue Gleise fortgerissen, fortgeschleudert wird, dass neue Verhältnisse, Freuden und Drangsale uns erwarten, und das Unbekannte übt seinen schauerlichen Reiz, verlockend und zugleich beängstigend“, notierte Heinrich Heine im Jahr 1843. „Sogar die Elementarbegriffe von Zeit und Raum sind schwankend geworden. Durch die Eisenbahnen wird der Raum getötet, es bleibt nur noch die Zeit übrig.“ Nun war der Eisenbahnverkehr selbstverständlich eine epochemachende Entwicklung – gilt das auch für Kühlschränke mit Internetzugang und digitale Sprachsteuerung?

Die stürmische, sich scheinbar beschleunigende Entwicklung erzeugt ein Schwindelgefühl. „Es beginnt ein neuer Abschnitt in der Weltgeschichte, und unsre Generation darf sich rühmen, dass sie dabeigewesen“, so fasste Heine die Erfahrung prototypisch in Worte. Mit Robert Musil ließe sich antworten, dass in jedem Augenblick eine neue Zeit beginnt. Sie geht dann unter Umständen schnell vorbei. Der Ausdruck der „Wissensgesellschaft“, der um das Jahr 2000 in aller Deutschen Munde war, klingt bereits ziemlich angestaubt. Die Zeitdiagnose ist rasant gealtert, und die Gründe dafür sind interessant. Denn ebenso wie die eines „digitalen Kapitalismus“ war die „Wissensgesellschaft“ – teils ausdrücklich, teils uneingestanden – eine Reaktion auf das Vordringen der Informations- und Kommunikationstechnik. In Zukunft, so die zeitgenössische Annahme, werde die Arbeit ganz neue Anforderungen an die Beschäftigten stellen. Wissen werde immer wichtiger, möglicherweise sogar zum entscheidenden Produktionsfaktor. Diese Debatte war eng mit einem konstatierten „Modernisierungsbedarf“ und „Reformstau“ in der bundesdeutschen Gesellschaft verknüpft. Bildungspolitik galt als Schlüssel zur Lösung, und nahezu jede Interessensgruppe, jeder Verband und jede größere Partei nahm sich des Problems an.
Der Begriff der Wissensgesellschaft rückte die subjektive Seite in den Mittelpunkt, Qualifikationen und Kompetenzen, deshalb ist er heute nicht mehr angesagt. In der aktuellen Digitalisierungsdebatte liegt die Initiative eindeutig bei den Maschinen und Algorithmen. Menschen tauchen wenn überhaupt als zukünftige Arbeitslose auf. Von einer Aufwertung ihres Arbeitswissens ist keine Rede mehr – natürlich nicht, es passt nicht zur Billigarbeit, die übers Netz vermittelt wird, zu Gig Economy und Crowd Work , zu den massenhaft verbreiteten, völlig entleerten bullshit jobs (David Graeber).
Die Frage, wie groß der Anteil des Wissens an einem Arbeitsvollzug ist, lässt sich ohnehin nicht beantworten, sie hat keinen Sinn. Eine Aufgabe mag schwieriger sein als eine andere und längere Erfahrung und Ausbildung voraussetzen. So spricht beispielsweise die Betriebswirtschaftslehre von „wissensintensiven Dienstleistungen“, definiert als Anteil der Beschäftigten in den Bereichen Forschung, Entwicklung und Konstruktion (beziehungsweise dem Prozentsatz der akademisch Ausgebildeten). Eine in diesem Sinne wissensintensive Nationalökonomie produziert auf einen hohen wissenschaftlichen Niveau, sie ist gekennzeichnet durch lange Ausbildungszeiten und starke Spezialisierungen. Bezogen auf eine individuelle und konkrete Arbeit dagegen kann der „Wissensanteil“ nicht quantitativ bestimmt werden. Wissen zeigt sich ausschließlich im Verhalten, in diesem Fall im erfolgreichen Lösen einer Arbeitsaufgabe.
Die Debatte über Datenverarbeitung, Informationstechnik und Wissensgesellschaft krankt daran, dass die zugrundeliegenden Begriffe ganz unscharf verwendet werden, obwohl es gerade auf ihren Unterschied ankommt. „Daten sind keine Informationen“, lautet ein Sprichwort unter den Programmierern. Es drückt ihre Erfahrung aus, dass sich zum Beispiel mit einer Festplatte, die nachhaltig in Unordnung geraten ist, nichts mehr anfangen lässt. Solche Daten sind bedeutungslose Zeichen, zu nichts zu gebrauchen, so wie die Schachfiguren, die vom Tisch gefallen sind. Informationen sind im Gegensatz dazu „strukturiere Daten“: Sie sind eindeutig kodiert, geordnet und daher prinzipiell verständlich. Daten sind Zeichen. Zeichen Bedeutung verleihen können nur Menschen.
Umgangssprachlich ist gelegentlich die Rede vom „Schatz des Wissens“. Bezogen auf die Digitalisierung führen solche Ausdrücke in die Irre. Wissen lässt sich nicht sinnvoll mengenmäßig bestimmen. Erving Goffman prägte den schönen Satz, Wissen sei von allen Dingen am schwierigsten zu bewachen, „denn es kann gestohlen werden, ohne es wegzunehmen.“ Für die Produktion von Stahl ist Wissen ebenso notwendig wie Kohle, aber im Gegensatz zur Kohle wird es nicht in seiner Anwendung zerstört. Es kann nicht verbraucht werden, es wächst sogar mit seiner Anwendung. Daten lassen sich auf einem Trägermedium speichern, sie können maschinenlesbar sein. Wissen dagegen kann nicht von lebenden Individuen abgetrennt werden. Um ihr Wissen zu teilen, müssen sie es entäußern – weniger gestelzt ausgedrückt: es aufschreiben oder aussprechen –; im günstigen Fall wird es so zum Wissen anderer Menschen. Das Vervielfältigen von Computerdateien an sich vergrößert dagegen das Wissen kein bisschen. Menschen müssen sich die Fülle der Informationen erst aneignen. Kurz, Wissen ist das Ergebnis von Verstehen, Begreifen und Erfahren. Wir können den Analphabetismus nicht bekämpfen, indem wir ganz, ganz viele Bücher drucken.

Ausgehend von dieser pragmatischen und handhabbaren, aber substantiellen Bestimmung des Digitalen (verstanden als Verdatung und Maschinenlesbarkeit) lässt sich klarer fassen, was Automatisierung der Arbeit bedeutet. Arbeitende Menschen müssen das Verhalten der Maschinerie vielleicht nicht immer verstehen, aber sie müssen es wenigstens nachvollziehen. In Gestalt der Programmsteuerung tritt ihnen das Wissen anderer Menschen gegenüber, zum Beispiel das Wissen des Ingenieurs oder Programmierers.
Der Abbildcharakter des Digitalen bedingt einerseits, dass weiterhin lebendige Arbeit verausgabt und ausgebeutet werden muss. Andererseits tragen die oft bemühten, aber völlig überbewerteten Fortschritte der Künstlichen Intelligenz kaum etwas dazu dabei, die anstehende Probleme der Menschheit zu lösen, hoffentlich erweisen sie sich nicht als unlösbar. Jedenfalls betreffen sie Stoffumformung, Stoffkreisläufe und Naturaneignung. Unsere gegenwärtigen Möglichkeiten zur Naturbeherrschung versagen gegen die Folgen der Klimaerwärmung auf ganzer Linie, und die Verheerungen werden schnell stärker werden. Dieses Anthropozän – übrigens ein völlig überfrachteter, umwelthistorisch unscharfer Begriff – ist eine einzige Katastrophe. Was kann die Digitalisierung wirklich beitragen zur Energie- und Nahrungssicherung, zur Kontrolle von Krankheiten, zu Ausbildung, Verkehr und Mobilität? All das wird nicht innerhalb von Minecraft stattfinden (auch nicht in einem kommunistischen Minecraft). Aus unerfindlichen Gründen hält die Linke diese Fragen für gelöst oder wenigstens auf Knopfdruck lösbar.

 

Mehr Texte