Selbstoptimiert und fremdbestimmt

Die Objektivierung unseres Verhaltens führt zum Verlust echter Subjektivität

Stefan Selke

In: tv diskurs. Verantwortung in audiovisuellen Medien
21. Jg., 4/2017 (Ausgabe 82), S. 21-25

Durch Livetracker ist der Faulpelz in uns messbar. Vorbei die Zeit, als wir uns Bewegungsmangel oder ein gutes Essen mit viel Wein schönreden konnten. Nun zeigt jeden Morgen die App objektive Bewegungsdaten inklusive Kalorienverbrauch, Gewicht sowie Schlafmenge und -qualität. Was die Hersteller als Hilfe zur Selbstoptimierung verkaufen, führt bei Soziologen verbreitet zu Besorgnis: Was bleibt vom selbstbestimmten Menschen, wenn die Optimierung der gemessenen Daten in den Vordergrund rückt? tv diskurs sprach darüber mit Dr. Stefan Selke, Forschungsprofessor an der Hochschule Furtwangen und Autor des Buches Lifelogging. Wie die digitale Selbstvermessung unsere Gesellschaft verändert sowie Herausgeber zahlreicher wissenschaftlicher Publikationen und Sammelbände zum Thema „Selbstvermessung“.

Vollständiger Beitrag als:

Als ich das erste Mal etwas von sogenannten Livetrackern hörte, habe ich mir kurz darauf einen im Internet bestellt. Wie war das bei Ihnen?

Ich hatte einen Livetracker und habe insgesamt auf diesem Feld recht viel ausprobiert. Zusammen mit Studierenden habe ich selbst eine Livelogging-Kamera entwickelt. Ich habe mich dem Phänomen sehr praktisch, experimentell und anschaulich genähert. Was natürlich nicht heißen muss, dass ich damit einverstanden bin.

Ist es nicht faszinierend, dass wir so einfach aussagekräftige und objektive Daten etwa zu unserem Bewegungsprofil oder dem Kalorienverbrauch bekommen?

Ich persönlich bin ein Verfechter der Anschauung, dass Leben mehr ist als Zellteilung und pünktliches Erscheinen am Arbeitsplatz. Es umfasst eben nicht nur messbare Quantitäten, metrische Maße und Korridore, sondern auch qualitative Prozesse, die wesentlich komplexer darstellbar sind. Aber Zahlen und Grafiken scheinen Menschen das Gefühl von Sicherheit und Handhabbarkeit zu geben, was allerdings auch Tür und Tor für Obsessionen öffnet. Eine Frage ist: Gibt es so etwas wie eine nachweisbare Norm in den Bereichen „Prävention“ und „Gesundheit“? Dann könnten diese Geräte tatsächlich eine Richtschnur sein. Beispiele zeigen, dass es aber offenbar auch noch um etwas anderes geht. Kapitalismuskritisch könnte man sagen, dass hier die Wachstumslogik mit in die Algorithmen eingebaut ist. Jede Norm, die erreicht wird, soll noch einmal getoppt werden – und zwar möglichst so, dass es andere auch mitbekommen. Das ist etwas ganz anderes als bloß eine objektive Rückmeldung zu meiner persönlichen Lebensführung.

Aber ist das nicht eine Frage des persönlichen Umgangs mit solchen Dingen? Ich z.B. amüsiere mich mehr über meine Messungen, vor allem über Lob und Tadel der App, wenn ich über oder unter dem angepeilten Ziel liege.

Natürlich kann man das Ganze auch mit Distanz betrachten, aber dafür braucht man die Fähigkeit zur Ironie; und Lebenserfahrung oder eine entsprechende Bildung – oder vielleicht auch beides. Ich kenne jedoch auch Menschen, die das völlig unironisch betrachten. Florian Schumacher, der Gründer von Quantified Self, ist so ein Mensch. Er sieht all das völlig ernsthaft als Notwendigkeit und versteht Menschen nicht, die das Angebot nicht benutzen oder gar ablehnen.

Was hat derjenige, der heute permanent damit beschäftigt ist, sich selbst zu optimieren, früher gemacht? Vielleicht hat er sich für Fußball interessiert oder ist anderen Dingen nachgejagt.

Aus soziologischer Sicht handelt es sich hierbei nicht um etwas strukturell Neues. Es gibt eine lange Tradition von Selbstvermessungsformen. In Vorträgen zeige ich immer wieder gern das Beispiel, wie die Kalorie als neue Maßeinheit entdeckt wurde. Man hat in der Bircher-Klinik bei Zürich Lebensmittel bis auf eine Nachkommastelle vermessen und gehofft, damit die Lebensführung optimieren zu können. Das ist nur ein Beispiel, welch obsessive Richtung das Bedürfnis nach Selbstoptimierung auch schon früher genommen hat. Dieses Delirium der Rationalität ist also nicht neu. Neu sind ein paar Dinge, die mit der Digitalisierung zusammenhängen: die Dynamik, die Möglichkeit, Daten zu teilen, zu veröffentlichen und sie in andere Kontexte zu stellen. Stichwort „Big Data“: Die Daten werden erhoben und geraten dann über eine Systemgrenze plötzlich in einen anderen Kontext, vom privaten Badezimmer zur Human-Resources-Abteilung des Arbeitgebers oder zur eigenen Krankenversicherung. Das ist neu. Das ist der eigentliche Tabubruch. Die Kalorien wurden in der Klinik gemessen, da wurde keine Systemgrenze überschritten. Aber die heutigen Fitnessdaten lassen sich leicht auf Plattformen teilen – und die Dystopie besteht darin, dass sie dann zu ganz anderen Dingen genutzt werden können.

Früher oder später werden Livetracker dazu genutzt werden, Leben zu retten, indem gespeicherte Daten ausgewertet und im Falle von gesundheitlichen Gefahren frühzeitig Warnhinweise gegeben werden können. Ist das nicht ein schlagendes Argument dafür?

Das bringt mich zu zwei Überlegungen. Zum einen komme ich gerade aus dem Krankenhaus und bin völlig erbost darüber, wie dieses System funktioniert. Wenn Sie mich also heute in dieser Situation fragen, dann würde ich mir in der Tat wünschen, dass es von der Ambulanz bis hin zur Diagnose und Therapie eine Neuorganisation des Datenflusses im Gesundheitswesen geben würde. Geht es also um Datenmanagement im Gesundheitswesen, würden viele Mediziner, Medizinethiker und Gesundheitsinformatiker zustimmen und sagen: Wir brauchen eine bessere Datenübergabe. Zum anderen stellt sich aber immer auch die Frage, was eigentlich mit unseren persönlichen Daten passiert. Werden sie in irgendeiner Weise zusammengeführt? Mein Finanzstatus etwa ist kein zwingender Indikator für einen Herzinfarkt. Worauf ich hinaus will: Big Data soll aus vergangenen und aktuellen Korrelationen etwas herauslesen, was in der Zukunft eintreten kann. Und diese von Ihnen beschriebene Utopie, dass die Technik als eine Art medizinisches Frühwarnsystem genutzt wird, kann eben auch genau gegenteilig angewendet werden, indem man berechnet, wie teuer die Behandlung eines Schwerkranken ist und wann es ökonomisch „sinnvoll“ ist, die Therapie abzubrechen und die Person sterben zu lassen.

Das erinnert mich an den CDU-Politiker Philipp Mißfelder, der die Frage aufwarf, ob es aus Kostengründen vertretbar sei, einem 80-Jährigen ein Hüftgelenk zu operieren.

Was zeigt, dass all diese Technologien bereits von einem gesellschaftlichen Diskurs vorbereitet worden und in diesen auch eingebettet sind. Die Ebene der Selbstoptimierung ist immer eingebettet in eine buchhalterische und volkswirtschaftliche Kostenkalkulation, in ein ideologisches Programm.

Im besten Fall führt ein Lifetracker aber doch tatsächlich dazu, dass ich mich mehr bewege oder meine Schlaf- und Essgewohnheiten verbessere. Er übernimmt also die Rolle, die früher mein soziales Umfeld, die Krankenkasse oder die Deutsche Gesellschaft für Ernährung hatte – nämlich die Ermahnung, mich gesund zu verhalten.

Ich möchte den Ball hier gern zurückspielen: Das, was Sie als gesellschaftliche Resonanz bezeichnen, wird – gerade in Bezug auf das Thema „Gesundheit“ – häufig als Prävention zusammengefasst. Das ist äußerst spannend, wenn man sich anschaut, wo dieser Begriff herkommt: Er wurde im 19. Jahrhundert im Kirchenrecht geprägt und bedeutet „das Recht des Geistlichen, in die Bedarfe des Untergebenen einzugreifen“. Das mag man nun unterschiedlich interpretieren, aber für mich klingt das sehr nach Bevormundung. Ich möchte lieber in einer Gesellschaft leben, in der ich selbst entscheiden kann, wie ich mich verhalte. Der Wesenskern der Autonomie ist, dass ich mir selbst meine Ziele setze und die Mittel wähle, mit denen ich diese Ziele erreichen will und auch die Konsequenzen dafür übernehme. Davon haben wir uns ein Stück weit entfernt, wenn wir den alten Gedanken der Prävention aufgreifen und von bestimmten Eliten definieren lassen, was richtig und was falsch ist.

Aber letztlich ist Optimierung doch eine Grundidee der Evolution. Interessant ist auch, dass es vor dieser körperlichen Optimierung eine „soziale Optimierung“ durch soziale Netzwerke gab, in denen ich vom Nobody zu jemandem werden konnte, der in aller Welt präsent und wahrnehmbar ist.

Das führt mich zu der Frage: Wie viel Resonanzkanäle oder -räume habe ich eigentlich? Ist das jetzt auf einen einzigen reduziert? Ich benutze gern den Begriff „Lebensbewerbung“: In diesem System sind wir alle als eine Art Lebendbewerbung unterwegs. Es gibt viele Untersuchungen dazu, wie sich der Druck zur Performance von der frühkapitalistischen bis hin zur postmodernen Gesellschaft verändert hat. Heute verkaufen wir nicht nur unsere Arbeitskraft wie noch zu Marx’ Zeiten, sondern wir müssen uns mit unserer gesamten Persönlichkeit vermarkten. Jedes Gespräch, jede Kommunikation ist eine Art Bewerbung auf irgendeinem Marktplatz. Das setzt das moderne Selbst unter einen wahnsinnigen Optimierungsdruck, wobei ich das evolutionäre Beispiel nicht heranziehen würde, da es hier immer um die Phylogenese, also um die Gattung und nicht den Einzelnen, geht. Deshalb bin ich als Soziologe mit diesen biologistischen Metaphern sehr vorsichtig. Die Optimierung der Gattung durch Mutation und Selektion ist sicherlich etwas anderes als die Optimierung eines Individuums. Bei Letzterem kommt nicht automatisch eine bessere Gesellschaft heraus.

Die Daten werden aber irgendwo in einem Zentrum gesammelt und gespeichert, womit sich die Möglichkeit ergibt, die Gesellschaft optimal zu überwachen und z.B. auch geringere Gesundheitskosten zu verursachen.

Aus soziologischer Perspektive muss man an dieser Stelle noch einmal einen halben Schritt zurücktreten, denn es geht hier nicht gleich um Überwachung, sondern um eine Reduktion von Komplexität. Lewis A. Coser hat schon in den 1970er-Jahren den Begriff der Greedy Institutions geprägt, der gierigen Institutionen. Er hat beobachtet, dass es diese Institutionen in modernen Gesellschaften gibt, die Menschen wie eine Zentrifuge anziehen, ihnen ein Lebensführungsprogramm offerieren und dadurch Komplexität reduzieren. Es wird eine Koordination und Synchronisation von Leben ermöglicht, dafür aber totales Engagement und Unterwerfung unter dieses Programm gefordert. Der Prototyp einer solchen Institution war für ihn die religiöse Sekte. Die gierigen Institutionen der digitalen Ära haben die Herrschaft über die Algorithmen übernommen. Es sind Firmen wie Facebook oder Google, die uns quasireligiöse Metaprogramme anbieten, die versprechen, die Welt einfacher und beherrschbarer machen. Vergangene Woche habe ich an einem Diskussionsabend im Schloss Bellevue teilgenommen, bei dem es um die Zukunft der Demokratie ging. Einer der geladenen Wissenschaftler hat den ganzen Abend davon geredet, dass rationale Algorithmen bessere Politik als fehleranfällige Menschen machen könnten. Dieser Gesellschaftsvertrag, wie Google das nennt, rückt tatsächlich in greifbare Nähe – und das, was wir jetzt erleben, ist quasi ein Trainingsprogramm, um es akzeptabler zu machen und um zu schauen, wo und wie die Welt durchrationalisiert werden kann. Das Delirium der Rationalität gibt es in vielen Bereichen. „Gesundheit“ ist ein Bereich, der sehr lebensweltlich orientiert ist und uns sehr nahegeht. Genauso geschieht das aber heute auch schon in vielen Firmen. Die Folge der Komplexitätsreduktion sind kopierte Existenzen und Konformitätsdruck, der durch Kontrolle erzeugt und aufrechterhalten wird.

Wenn man mit Schülern oder Studenten spricht, sind den meisten die von Ihnen erwähnten Risiken bekannt, sie verspüren aber keinen Leidensdruck. Wenn sie ihre Daten nicht preisgeben würden, könnten sie an vielen technischen Errungenschaften nicht partizipieren oder Anwendungen nicht voll nutzen. Ich hatte bisher immer geglaubt, dass man das Bewusstsein für die Risiken durch Bildung schärfen könnte. Aber die gefühlsmäßige negative Resonanz scheint nicht vorhanden zu sein.

Ich habe in der letzten Zeit viele Vorträge über digitale Alchemie gehalten, weil ich versucht habe, für das Ganze eine Metapher zu finden. Comenius, der Begründer des modernen Schulwesens, war Alchemist. Alchemie bedeutet im Grunde nichts anderes als die Veredelung eines einfachen Gutes in eine edle Essenz mittels einer geheimen Transformation. Ohne das überstrapazieren zu wollen: Aber bei der Selbstvermessung ist das ähnlich. Wir gehen vom fehleranfälligen, suboptimalen Mängelwesen Mensch aus, das mittels algorithmischer Transformation in ein optimiertes Selbst verwandelt wird. Nach dieser Veredelung gibt es eine Sehnsucht. Vielleicht ist es eine, die sogar anthropologisch begründet ist, aber vielleicht wird sie auch durch Druck, Zwang und Leistungswillen ausgelöst. Letztlich bin ich zu dem Schluss gekommen: Man kann Menschen nicht davor schützen, wonach sie sich sehnen. Wir kennen die gierigen Institutionen, wir kennen deren Werkzeuge, deren Strategien und wir wissen um die Folgen – dennoch willigen wir in eine gewollte Schutzlosigkeit ein. Ein Grundproblem dabei ist meines Erachtens, dass wir nicht mit dieser korrelativen Macht umgehen können. Wir haben gelernt, durch die Sprache mit dem kausalen Aufbau der Welt umzugehen. Wir haben gelernt, die Welt zu klassifizieren. Wir können kausal zusammenhängend denken. Aber für die korrelative Herrschaft der Algorithmen – wenn man das so nennen möchte – haben wir kein Symbol- und Sprachsystem. Deshalb verstehen wir auch nicht, wie weitreichend gefährlich ihre Anwendung ist.

Sie verwenden den Begriff der Angst- und Kontrollgesellschaft. Aus meinem Theologiestudium ist mir in diesem Zusammenhang die lutherische Vorstellung von der Rechtfertigung in den Sinn gekommen: Gott sieht alles, Gott weiß alles! Und am Jüngsten Tag werden wir vor ihm stehen und müssen uns für das, was wir getan haben, rechtfertigen. Gewisse Analogien zu den digitalen Speichern gibt es hier sicherlich und es stellt sich die Frage, ob hinter all der Datensammlung nicht auch die Idee steckt, uns so zu normieren, dass wir uns gesellschaftlich optimal verhalten?

Aber was ist das gesellschaftlich Optimale? Viele haben versucht, genau das zu definieren, sind aber mit ihren Utopien grandios gescheitert. Das ist gerade etwas, was immer wieder neu ausgehandelt wird. Und das ist auch gut so. Es wird erst dann ein Problem, wenn eine Elite, eine einzelne Person oder eben eine Maschine versucht, das Optimum zu definieren. Die Diskurse der letzten zwei, drei Jahrzehnte zeigen auf der einen Seite eine anhaltende Betonung des Verantwortungsimperativs, auf der anderen Seite jedoch omnipräsente Erschöpfungsdiagnosen. Diese gehen durch alle Maßstabsebenen hindurch, vom erschöpften Selbst bis zur planetarischen Erschöpfung. Zwischen der Anrufung, selbstverantwortlich zu leben und gleichzeitig die Erschöpfungen zumindest zu lindern, hat sich eine riesige Kluft gebildet, die man nun mit technologischen statt mit sozialen Utopien zu füllen versucht. Hierbei macht mir vor allem die intransparente Form eines Algorithmus Angst, der ja von Menschen programmiert ist. Die entscheidende Frage ist hier immer: Wer sind eigentlich diese Leute? Welches Welt- und Menschenbild haben sie? Sind sie in irgendeiner Form zu Empathie fähig? Können sie die Standpunkte tauschen? Vielleicht – und damit kehre ich zu Ihrer Frage zurück – sollten wir nicht länger versuchen, den Menschen ihre Sehnsüchte abzugewöhnen, sondern wir sollten versuchen, den Programmierern beizubringen, ethisch zu handeln.

Künstliche Intelligenz z.B. wird bald den Arbeitsmarkt nachhaltig verändern. Schon heute entstehen wirtschaftliche Probleme dadurch, dass wir durch Rationalisierung und Digitalisierung zu viel produzieren und zu wenig Abnehmer haben. Hier zeigt sich der Widerspruch der Optimierung. Müssen wir uns als Soziologen und Ethiker also nicht mit der Frage beschäftigen, wie wir die bevorstehende Zukunft vernünftig und sozialverträglich gestalten können?

Ich denke da in eine ähnliche Richtung wie Sie und glaube, dass es letztlich darauf hinausläuft, dass wir uns freiwillig deprivilegieren müssen. Das gilt natürlich nicht für jene, die ohnehin keine Privilegien haben, aber sehr wohl für Wohlstandseliten. Natürlich steht das in diametralem Gegensatz zu sämtlichen Optimierungsbestrebungen, bei denen es darum geht, über neue Kennzahlen neue Privilegien zu definieren. Wir machen aus der Vielartigkeit von Menschen, die wir einst als Diversity gefeiert haben, eine Vielwertigkeit und exkludieren die vermeintlich Entbehrlichen. Die Möglichkeiten der Exklusion sind unendlich und sie sind unendlich menschenverachtend, weil sie eben rational untermauert werden. Jetzt muss ich niemanden mehr aus rassistischen oder sexistischen Gründen ausschließen, sondern ich kann es ganz einfach rational begründen. Was macht das mit uns und wie blicken wir auf uns selbst und auf andere? Ich befürchte, dass die Abweichungssensibilität zunimmt und dass das algorithmische Menschenbild eher dazu führt, dass wir Unterschiede, Abweichungen und Differenzen wahrnehmen und thematisieren und somit das humanistische Menschenbild in den Hintergrund rückt. Ich meine, dies sogar schon bei meinen Studierenden zu beobachten, die eher auf Unterschiede als auf Gemeinsamkeiten fokussieren.

Was wir mehr denn je brauchen, ist gesellschaftliche Empathie und Solidarität. Wie integrieren wir Menschen, die davon leben, dass sie ihre Arbeit und ihre Arbeitszeit anbieten, die dann immer weniger gebraucht werden?

Es gibt schon eine gewisse Schizophrenie in der Diskussion. Ich habe gerade erst einen Artikel zum Thema „Künstliche Intelligenz“ gelesen, in dem vom letzten Kriterium der menschlichen Restüberlegenheit gesprochen wurde, der Empathie. Aber dann frage ich mich natürlich, warum ein Softwareprogrammierer so viel mehr verdient als eine Krankenschwester!? Wenn Empathie tatsächlich die menschliche Restüberlegenheit bezeichnet, dann muss das in einer ganz anderen Art und Weise bewertet werden und sich auch bei den Löhnen bemerkbar machen. Der Begriff „Empathie“ ist mir noch viel zu eng. Ich glaube, es geht grundsätzlich um das Begriffspaar „Qualität“ und „Quantität“. Alles zu zerlegen und kleine Schnittmengen zu betrachten, geht für mich am Sinn des Lebens vorbei. Wir brauchen mehr Menschen, die noch in Qualitäten denken können. Es gibt eine schöne Liedzeile von Sandra Kreisler, der Tochter des bekannten Anarchisten Georg Kreisler: „Wie misst man Tränen? Am Volumen oder an der Zahl?“ Ich eröffne mit dieser Zeile gern Vorträge – und die Zuhörer fangen dann an, nachzudenken. Natürlich kann man Tränen in beiden Einheiten messen, aber beide Methoden sind eine Reduktion und gehen am Eigentlichen vorbei: Warum weint die Person? Was ist gerade passiert? Da wird ein wesentlicher Weltbezug einfach herausgenommen und ausgelöscht. Das ist das, was im Zentrum dieser Debatte stehen sollte, dass wir die Möglichkeiten der Technologie nutzen, aber dass wir unseren Weltbezug nicht auf etwas reduzieren, was uns dann selbst zu einer Maschine macht. Leben ist mehr als das Befolgen einer Gebrauchsanleitung.

Dr. Stefan Selke ist Forschungsprofessor an der Hochschule Furtwangen.

Prof. Joachim von Gottberg ist Geschäftsführer der Freiwilligen Selbstkontrolle Fernsehen (FSF) und tv-diskurs-Chefredakteur.