Ein Gespräch über unsere Zukunft (noch in Arbeit, ohne abschließende Korrektur)
Dies ist eine Abschrift der ZDF-Sendung PRECHT vom 5. Februar 2018, eines Gesprächs zwischen Richard David Precht und Udo Di Fabio. Das Copyright der Sendung liegt beim ZDF. Diese Abschrift beruht auf einer privaten Initiative und ist allein zur privaten Verwendung gedacht. Sie soll es erleichtern, den Gedankengängen zu folgen und zugleich die Technik eines solchen Gespräches zu studieren. Es ist keinesfalls eine offizielle schriftliche Fassung des gesprochenen Textes; Irrtümer und Missverständnisse meinerseits sind möglich (Jan Reichow). An Ort und Stelle findet man erhellende Pressetexte, siehe den einige Zeilen weiter gegebenen Link. Originaltitel:
Betreutes Leben – Wie uns Google, Facebook und Co. beherrschen
Man sollte nicht versäumen, auch die Originalsendung heranzuziehen, um gegebenenfalls Einzelheiten zu korrigieren. Sie ist noch abrufbar bis zum 5.2.2023 und zwar unter dem folgenden Link: HIER.
Vor allem aber war mein Anliegen, den Stil und den logischen Verlauf des Gespräches im Detail zu verfolgen. Im Verlauf des Live-Hörens hat sich meine Beurteilung (Bewunderung, Skepsis) mehrfach verändert. Der durchweg super-höfliche Ton verhindert natürlich leicht die Wahrnehmung von Dissenzen, meine Spannung stieg zum erstenmal, als Di Fabio (bei etwa 13:45) sagte: So kann man es betrachten, aber ich halte es mit Verlaub für unterkomplex. Irre ich mich, oder folgte später ein Einlenken? Spätestens nach 27:00 (Was mir an dieser scharfsichtigen Beschreibung missfällt, ist, dass Sie jetzt einen Verantwortlichen markieren.) Sehr schön ist es, bei solchen Sätzen das Mienenspiel des Gegenübers zu beobachten. Nur in einzelnen Fällen habe ich das Zweistimmigsprechen anzudeuten versucht (in Klammern stehen immer Zwischenrufe und Einwürfe oder Ergänzungen des jeweils zuhörenden Gesprächspartners). Im täglichen Leben erlebt man das viel häufiger, oft auch als Zeichen der emotionellen Anteilnahme, zuweilen als mutwillige Störung des Gedankengangs, in Talkshows mit Politikern nimmt die Mehrstimmigkeit oft groteske Züge an. Wenn man im Internet nach Reaktionen auf dieses Gespräch sucht, wird man leicht Parteinahmen erkennen (ein Blogger – leicht durchschaubar als vom Beruf her parteilich eingestimmt – sieht einen klaren Sieg Di Fabios und rät, diesen in Zukunft zum Gastgeber zu machen), das ist die Folge der üblichen Talkshows, die offensichtlich auf Konfrontation eingerichtet sind , sogar von vornherein als Schaukämpfe inszeniert werden. Am Ende überwog bei mir die Freude über die mustergültige Abfolge und Kontrastierung der Gedanken, hundertmal besser als eine monomaner Vortrag des einen oder des anderen Protagonisten, und nur so erfolgte die Motivierung, das gesamte Gespräch zu transkribieren. (JR)
Niederschrift des Gesprächs Precht / Udo Di Fabio
PR 1:03 Herr Di Fabio, wer flößt Ihnen mehr Vertrauen ein: jemand wie Edward Snowden, der die großen Zusammenhänge aufgedeckt hat zwischen amerikanischem Geheimdienst und der Internetwirtschaft? Oder jemand wie Marc Zuckerberg, der ein besseres Leben für alle verspricht?
FAB Ja, Vertrauen ist eine knappe Ressource, und auch der Whistleblower, der Vertrauen einflößt, das ist für mehrere, glaube ich, eine ironische Frage. Man könnte sagen, unser Vertrauen liegt irgendwo in der Sittlichkeit des Menschen auf der einen Seite, und im Systemvertrauen, so wie wir auf den Rechtsstaat, auf Marktwirtschaft oder auf Demokratie vertrauen. So kann man im Fall Snowden auch darauf vertrauen, dass nichts wirklich geheim bleibt.
PR Wieviel Vertrauen haben Sie je in die sogenannten GAFA-Mächte, also Google, Amazon, Facebook und Apple, 4 Firmen, die als Unternehmen an der Spitze der Welt stehen und dort die klassische Wirtschaft verdrängt haben, – vertrauen Sie diesen Unternehmen?
FAB Also, ich vertraue, dass es sich um Unternehmen handelt, die letztlich amerikanischem Recht unterstehen; wenn sie in Europa tätig sind, europäischem oder deutschem Recht unterstehen, und insofern sind sie ein Stück weit berechenbar. Sie sind nicht Teil der organisierten Kriminalität, sondern sie sind Teil einer Marktwirtschaft, die dem rechtlichen und demokratischen Zugriff unterliegen. Auch hier wieder institutionelles Vertrauen. Ansonsten handelt es sich um Wirtschaftsunternehmen. Es geht für mich weniger um Vertrauen, sondern eher um die Frage, sind wir naiv, was den Umgang mit solchen Unternehmen angeht. Weil diese Plattformen haben eine interessante Strategie, weil sie deklarieren sich selbst als Gemeinwohlakteure. Als … (sie wollen die Welt besser machen!) sie wollen die Welt besser machen, und ich bin nicht so misstrauisch zu sagen: das erfinden die nur. Das werden sie schon auch so meinen. Ich habe kürzlich jemanden gehört aus dieser Szene, der sogar gesagt hat, dass sie den Kapitalismus überwinden wollen, und an der Stelle werd ich dann misstrauisch.
PR Weil Sie den Kapitalismus nicht überwinden wollen? Oder weil Sie nicht glauben, dass das Silicon Valley das wirklich vorhat?
FAB Was ich will, ist ja nicht entscheidend, aber dass diese Unternehmen, die eine solche Marktmacht haben, und die in ihrem Börsenwert … klar, klassische Realwirtschaft überflügelt haben, dass die mir jetzt erzählen, dass sie den Kapitalismus überwinden, an der Stelle werde ich dann misstrauisch und sage: Leute, Ihr leitet eine Wertschöpfungsrevolution ein, innerhalb des Kapitalismus, und Ihr seid die größten Profiteure einer technisch-kommunikativen Veränderung, (innerhalb eines kapitalistischen Systems, eines urkapitalistischen Geschäftsmodells!) absolut! Und das sollte man nicht verleugnen!
PR 4:11 Das ist natürlich das Schöne daran, es werden lauter Leistungen zur Verfügung gestellt, die offensichtlich hier die Leute auch begeistern und von den Leuten angenommen werden. Also dass ich ne Suchmaschine habe und damit Zugriff auf die Informationen dieser Welt, die mir entsprechend sortiert werden, und das ist großartig, jeder ist gerne bereit, wie sähe das Leben eines durchschnittlichen Menschen aus, wenn er keine Suchmaschine hätte. Ein großer Verkaufsrenner zu Weihnachten war jetzt Alexa; dieses Mikrofonrohr kann ja noch nicht besonders viel, aber irgendwann kann es vielleicht ganz ganz viel, dann brauch ich gar keine Suchmaschine mehr, dann brauche meine Fragen nur noch in den Raum stellen… Soziale Netzwerke haben ganz viele Annehmlichkeiten, sonst würden die Menschen sie nicht nutzen. Also man kann sagen: das Leben vieler Menschen fühlt sich bereichert an durch alles das, was diese Unternehmen zur Verfügung stellen. Allerdings machen diese Unternehmen mit den Menschen – ich weiß noch nicht einmal, ob ich es Vertrag nennen kann, also ich klicke irgendwo Nutzungsbedingungen an, und anschließend dürfen diese Unternehmen meine personbezogenen Daten kommerziell gebrauchen. Ist das für einen Verfassungsrechtler etwas, wo Sie sagen: Na ja, das ist der Lauf der Welt, oder würden Sie sagen: Da läuft was schief.
FAB 5:23 Es ist, was das Prinzip der Privatautonomie angeht, ein Problem entstanden. Das Netz verspricht ja, alles transparent zu machen und macht auch in der Tat ganz vieles transparent, z.B. Preisbildung. Sie können im Netz suchen, wo Sie das günstigste Angebot finden. Und Kartellhüter sagen uns deshalb: ihr müsst ins Netz, dann werdet ihr überhaupt transparent. Das Problem ist, dass Big Dater, also das Geschäft der Plattform, selbst vergleichsweise intransparent ist, – das Netz selbst ist intransparent. Es macht die Realwirtschaft, vielleicht sogar uns, transparent, aber wie es selbst funktioniert, nach welchen Algorithmen und mit welchen Geschäftsmodellen, das bleibt häufig unklar. Und wenn wir einen Nutzungsvertrag, wenn wir da einwilligen, dann wird uns nicht genau gesagt, welchen wirtschaftlichen Wert unsere Daten z.B. haben…
PR Ich hab nicht die geringste Vorstellung, was Google mit meinen Daten macht, gar keine. (Ja!) Nun haben wir aber, und das ist ein wichtiges Gut in unserer Verfassung, ja? Persönlichkeitsrecht, dazu gehört das Recht, auf informationelle Selbstbestimmung, und was wir hier haben, ist informationelle Fremdbestimmung: ich weiß nicht, was die mit meinen Daten machen. Ich kann nicht bei jedem Schritt sagen: das finde ich gut, das willige ich ein, ich hab irgendwas Allgemeines unterschrieben, da ich ohne Suchmaschine quasi nicht leben kann, aber was da passiert, dass die Persönlichkeitsprofile zusammenstellen und irgendwo eintüten, an irgendjemand verkaufen, wo ich nicht weiß, wer das ist, alles das durchschaue ich überhaupt nicht. Ist ein solcher Vertrag nicht eigentlich …, widerspricht der nicht unsern Grundrechten?
FAB 7:10 Also die Asymmetrie, die hier in der Information besteht, sie ist etwas, was ein Stück weit staatliche Schutzpflichten auslöst, so das heißt, der Staat muss gegensteuern, die Staaten müssen gegensteuern mit Regeln, die auf Transparenz dringen, also auch auf wirtschaftliche Transparenz. Welchen Wert hat das, was ich an Informationen eigentlich hier weitergebe, das Big-Data-Modell muss deutlicher werden. Dann würde ich allerdings keine grundsätzliche Gefahr sehen. Wissen Sie, informationelle Selbstbestimmung, das ist eine Idee, die zunächst einmal gegen den Daten sammelnden Staat gerichtet ist. Wenn wir mit dem Grundsatz der Datensparsamkeit kommen und jetzt in die Big-Data-Welt hineinkommen wollen, dann passt das so nicht, weil nämlich die Nutzer, Kunden, bereit sind, für kostenlos scheinende Angebote ihre Daten preiszugeben. Wenn sie wüssten, welcher wirtschaftliche Wert damit verbunden ist, und was damit gemacht wird…
PR Aber das Interessante ist doch, wenn es sich um den Staat handelt, dann frage ich nicht den einzelnen Staatsbürger: möchtest du, dass der Staat deine Daten sammelt? Sondern da sagen wir: da müssen wir im Interesse der Staatsbürger dafür sorgen, dass sie geschützt sind. Wenn es sich um die Wirtschaft handelt, sagen wir: och no ja, denen macht das ja nichts aus, der hat was davon, also plötzlich ist jetzt nicht mehr der Staat dafür zuständig, das Ganze zu regeln, sondern ich sage, ja, wenn du das machen möchtest, dann unterschreib halt solche Verträge. Das verstehe ich nicht.
FAB Der Staat ist schon dafür zuständig, die regeln für die private Vertragsgestaltung allgemein zu setzen. Nur müssen wir eben den Unterschied sehen: wir sind im Privatrecht, das heißt, hier regiert das Prinzip der Freiwilligkeit. Wie Sie richtig sagen, wenn der Staat Daten erhebt, ohne unsre individuelle Einwilligung, dann sind wir im öffentlichen Recht, dann verlangen wir nach gesetzlichen Grundlagen usw.
PR 9:11 Die Menschen aus dem Silicon Valley, wenn sie sich dazu äußern, oder viele Leute Bücher schreiben, die beschreiben eigentlich immer eine technische Evolution, die sie darstellen, als sei sie ein Naturgesetz. Also ne normale Evolution, das ist völlig klar: erst hat der Mensch das Feuer erfunden und irgendwann die Dampfmaschine und dann irgendwann das Handy, und das geht irgendwann jetzt immer so weiter, und am Ende wird der Mensch in irgend so einer Art Cloud verschwinden oder er wird in einer Matrix leben und ganz ganz am Ende steht dann möglicherweise die Herrschaft der Maschinen. Naja, so etwas, was man Singularität nennt, ein Zustand, in dem nicht mehr der Mensch über die Erde herrscht, sondern ein neues Zeitalter anbricht, das Technozän. Und das glauben sehr viele dieser Leute und sagen, das ist eine ganz natürliche Entwicklung, und diese natürliche Entwicklung würde,wenn es denn stimmt, dass sie eine natürliche Entwicklung ist, dazu führen, dass das, wofür Sie Ihr ganzes Leben lang gestanden haben, der bürgerliche Rechtsstaat zum Beispiel, unsere Vorstellung von Demokratie und von Freiheit, irgendwann in der Zukunft einfach überholt sein werden.
FAB 11:12 Ich glaube nicht, dass es eine natürliche, aber eine mögliche Entwicklung ist. Und weil es eine mögliche Entwicklung ist, müssen wir jetzt drüber nachdenken, bevor die technischen Systeme eine solche Wirkmacht und eine solche Unentbehrlichkeit erlangt haben, dass man schlecht abschalten kann oder die Kosten zu hoch werden, wenn man gegensteuert. In der Tat, es ist keine Zwangsläufigkeit, aber wir ersetzen zur Zeit eben nicht Muskelkraft oder so etwas, wie im industriellen Zeitalter, sondern (Hirnaktivität!) wir fangen an, kognitive Fähigkeiten zu ersetzen, künstliche Intelligenz, Automatisierung, das wird die Gesellschaft dramatischer verändern, als andere technische Entwicklungen. Und wenn wir einmal beginnen, wenn wir beginnen, unsere höheren geistigen Leistungen zu ersetzen, einfache, wie Rechenleistungen, haben wir schon lange ersetzt, aber wenn wir die höheren geistigen Leistungen ersetzen – viele denken darüber nach, ob man Richter, ob man Ärzt*innen durch KI ersetzen kann, in Japan wird mit Pflegerobotern experimentiert, und z.T. schon seit Jahren experimentiert, es verändert sich etwas, was wir im Grunde genommen heute nur in den Anfängen beobachten.
PR Ja aber die natürliche Entwicklung wäre wohl tatsächlich, dass die technokratische Bedeutung immer stärker wird, und dass die Rolle der Politik immer schwächer wird. Und das ist ja was, was wir tatsächlich auch schon beobachten können. Also ich denke schon beobachten zu können, dass die Politik in Deutschland und in anderen Ländern genau so mit diesen Herausforderungen der Digitalisierung, die ja ihr gesamtes Gesellschaftsmodell in Frage stellen, auch die Demokratie langfristig in Frage stellen, ziemlich überfordert ist. Also ich hab immer den Eindruck, wir dekorieren gerade auf der Titanic die Liegestühle um. Ja? Also hier noch mal irgendwo kucken, das erlauben oder nicht, und, obwohl Sie mir ja gerade gut erklärt haben, dass das nicht geht, aber wenn ich mal das Gedankenspiel nur mal so durchgehe: gesetzt den Fall, wir würden den kommerzialisierten Handel mit personenbezogenen Daten verbieten, mal gesetzt den Fall, das wäre juristisch möglich, ja? Dann hätte das einen enormen volkswirtschaftlichen Nutzen. Denn es gibt keinen volkswirtschaftlichen Nutzen des kommerzialisierten Datenhandels mit Personendatemn, worin soll der bestehen? Also, wenn ich jetzt ganz raffiniert hingehe. Ich versuche es mal als Tableau volkswirtschaftlich aufzumachen, wo ich Sie jetzt hier viel gezielter bewerben kann, weil ich Ihr Onlineverhalten studiere und ganz genau weiß, wann Sie wo einkaufen, und dann weiß ich, wann ich Ihnen welche Werbung aufs Handy schalte und welche verführerischen Angebote ich mache, dann werden Sie vielleicht mehr Geld für bestimmte Produkte ausgeben, aber Sie haben ja nicht mehr Geld in der Tasche, das heißt, Sie werden also nicht mehr konsumieren, sondern anderes konsumieren als Sie vorher konsumiert haben, ja?, wir haben es mit einer Umverteilung zu tun, und die Herren der Daten, das ist ja, Google verkauft ja die Daten – oder Apple – der Kaffeetrinker, ja?, an StarWax, also an die Großen, die viel dafür bezahlen können, na und dann macht StarWax an allen genau errechneten Knotenpunkten seine Filialen auf, und das kleine Kaffeelädchen verschwindet. Volkswirtschaftlich ist das eine Umverteilung von klein nach groß. Viele Bereiche der Digitalisierung sind wertschöpfend: Wenn ich nen Roboter anstelle, wo vorher ein Mensch gearbeitet hat, erhöhe ich die Produktivitätskraft, spare Kosten. Aber der kommerzialisierte Handel mit personenbezogenen Daten, der bringt ja volkswirtschaftlich, vorsichtig ausgedrückt, keinen Mehrwert.
FAB 13:43 So kann man es betrachten, aber ich halte es mit Verlaub für unterkomplex. Das… das ist… das ist kein Nullsummenspiel, wie das hier stattfindet. Sie haben das jetzt als Nullsummenspiel dargestellt. Wenn es rein … wenn es rein letztlich um die Lenkung von Konsumbedürfnissen (genau!) geht, dann … kann man dem auch folgen, aber die Wirklichkeit, auch die Wirklichkeit der großen Plattformen ist komplizierter. Weil es werden ja zugleich Leistungen angeboten, es werden Leistungen angeboten, die einen enormen volkswirtschaftlichen Nutzen haben (zum Beispiel!?) Wenn Sie z.B. mit Google Maps arbeiten.Wenn Sie mit Medizindaten arbeiten, entstehen reale Veränderungen im Wirtschaftsleben (ja selbstverständlich, aber dafür brauchen Sie keinen kommerzialisierten Datenhandel …) Sie brauchen ihn vielleicht mittelbar, sonst würde es sich vielleicht gar nicht lohnen. Das bedeutet: kein Mensch liest eine Tageszeitung, wenn er 20 Euro für die Tagesausgabe zahlen muss, die Werbung war eigentlich immer das, was eigentlich die Pressefreiheit gestützt hat. Genau so gut könnte man heute sagen, dass – wenn Google mit personenbezogenen Daten Geld verdient, hat es die Ressourcen, um nützliche Dienstleistungen anzubieten, und die nützlichen Dienstleistungen, sie sind andererseits heute bereits die Achillesferse einer Infrastruktur, die neu entsteht, und die sind insofern auch tatsächlich wertschöpfend und also nicht nur in einem Nullsummenspiel umverteilt. Das macht die Sache jedenfalls komplizierter.
PR 15:09 Es wird seit Jahren ja schon davon geredet, dass die Europäische Union eine eigene Suchmaschine entwickelt. Jetzt stellen wir uns mal vor, der Staat sagt: also im modernen digitalen Zeitalter, da stellen wir nicht Straßen zur Verfügung, für den Personennahverkehr, sondern auch den entsprechende Datenzugang für jedermann und eine entsprechende Suchmaschine, und da werden die personenbezogenen Daten nicht gespeichert, bei einigen vielleicht von der Polizei gespeichert, aber wir werden sagen wir mal kommerziell nicht benutzt, ja, das wäre doch großartig, da brauch ich doch kein Google für. Dann brauche ich doch keinen privaten Anbieter, der dafür n paar Trilliarden verdient.
FAB Sie sagen, sie werden vielleicht von der Polizei gespeichert, (dafür gelten genau die gleichen Datenschutzgesetzte, über die wir im Anfang gesprochen haben) schon, aber das würde bei manch einem Nutzer Misstrauen auslösen, aber – das ist nicht mein Punkt, der Punkt ist, wir haben sowas schon erdacht, konzipiert in Europa, um ein Stück weit Souveränität über das Plattformgeschehen für Europa zu beanspruchen, denn wenn man ehrlich ist, was die Plattform angeht, sind wir in Europa im Hintertreffen.
PR Der Staat braucht also die europäische Union, kann ja private Firmen damit beauftragen, sozusagen das alles zu machen, und es wird dann anschließend nicht von privaten Firmen kommerziell genutzt. o.k.
FAB Sie können natürlich in Europa versuchen zu fördern in diese Richtung, so wie wir mit Airbus ja auch ein Staatsunternehmen auf den Weg gebracht haben, also jedenfalls nicht so ganz, und trotzdem viel gefördert haben. Ich würde das nicht ausschließen. Man sollte es aber mit marktwirtschaftlichen Mitteln machen, die durchschaut werden können. Nicht der Staat sollte antreten, wissen Sie, das Problem ist, da wo der Staat antritt, China etwa, da hat das auch etwas mit Verformung zu tun, und die Welt, die daraus entsteht, ist keine bessere als die von Google und Amazon. Deshalb muss man aufpassen, dass man nicht das Kind mit dem Bade ausschüttet. Es kommt darauf an, dass wir in Europa wettbewerbsfähig auf einem Gebiet, auf dem wir hinterherhinken, das ist nicht zu übersehen, und manche sagen: aussichtslos hinterherhinken.
PR 17:39 In der digitalen Welt gibt es im Wettbewerb ganz ganz disruptive Modelle, also: n distruptives Modell ist, wenn ich nicht das Auto weiter… das bisherige Auto weiter verbessere, sondern wenn ich mit dem autonomen Auto n ganz anderes Verkehrskonzept entwickle, womit das bisherige Modell gar nicht mehr konkurrieren kann, weil das aus dieser DNA des bisherigen Modells gar nicht mehr logisch weiter hervorgeht, Deutschland kann noch so gute Autos bauen, in dem Moment, wo diese kleinen Elektrokisten autonom fahren, dann nur noch über n Provider genutzt werden, ist die deutsche Automobilindustrie quasi weg. Also viele disruptive Modelle und hinter all diesen disruptiven Modellen steht eine bestimmte Art zu denken. Also das ist das, was Evgenij Morozow Solutionismus genannt hat. Der weißrussische Journalist, der ein wunderbares Buch geschrieben hat über die smarte neue Welt, und er sagt: Im Grunde genommen werden auch große gesellschaftliche Fragen heute von technischen Problemlösern übernommen. Er nennt die Solutionisten, das ist n Begriff aus der Architekturtheorie, also man denke, Le Corbusier wollte mal die Hälfte von Paris, also die Hälfte von der Innenstadt, das rechte Seine-Ufer abreißen, ja, weil das alles so dreckig war usw. und verkehrstechnisch nicht gut, und dann wollte der da 18 riesige Hochhäuser hinsetzten, und wollte sozusagen die ideale Lösung am Reißbrett ersinnen, und das, der kritische Begriff dafür ist Solutionismus. Also: n Problem, und dann am Reißbrett die ganz große Lösung, und dann ist das Problem weg. Und dieser Solutionismus ist im Silicon Valley sehr verbreitet. Also sagen wir haben ein Welternährungsproblem, was müssen wir machen? Wir haben ein Verkehrsproblen, was müssen wir machen, und dann werden immer so Le-Corbusier-artige Vorschläge gemacht, und die greifen ja sehr sehr tief in unser Leben ein. Wenn ich z.B,. ne smarte Stadt baue, ja, oder ne Stadt mit smarten Geräten ausrüste, d.h. überall mit solchen Sensoren, wenn ich mit Video-Kameras alle Menschen überwache, dann ist das ein wunderbares Mittel der Kriminalitätsprävention. Gleichzeitig schränke ich die Freiheit der Menschen ein, und dieser Prozess ist im Gange, und der geht auch immer schneller vorwärts. Müsste nicht auch das einem überzeugten Demokraten Angst machen, wenn so viele Sachen, die vorher eine Frage von Abstimmung waren, ein Frage, dass man Grauzonen zugelassen hat in der Gesellschaft, denen das Recht eingeräumt hat, Verbrechen zu begehen, aber dafür bestraft zu werden, und jetzt in eine Gesellschaft kommen, die von Anfang an zu versuchen, alles Negative auszumerzen. Das muss doch auch etwas sein, das Ihnen mit Ihrer Vorstellung, Ihrem Begriff von Freiheit ein Unbehagen bereitet. Oder?
FAB 20:12 Ja, das Unbehagen habe ich ja schon seit geraumer Zeit artikuliert, ich nenne das nicht Solutionismus, ich nenne das den sozialtechnischen Tunnelblick. Also die Vorstellung, dass man die Gesellschaft steuern kann in bestimmter Hinsicht, ohne ihre tieferen soziokulturellen Grundlagen mit auf dem Radarschirm haben zu können (genau! Die kommen da gar nicht drin vor!) Die können da auch nicht drin vorkommen, das würde die Sache viel zu kompliziert machen, man würde dann mit irgendwelchen Alltagsweisheiten kommen und (das interessiert so wenig wie Le Corbusier sich dafür interessiert hat, dass da vor hundert Jahren ne Stadt gewachsen war) genau! genau! Und diese Art eines zu stark technisch-zentrierten, sozialtechnischen ist in der Tat ne Gefahr, und sie wird größer, wenn man die Steuerung noch sozusagen als Vorfeld-Steuerung, präventive Steuerung begreift. Wir haben von den USA herüberschwappend eine Diskussion über Nanjing (?) beispielsweise, wo auch auf eine intransparente Weise gelenkt werden soll (also ich finde das Auslegen von Ködern) genau! (damit wir in eine Richtung geschubst werden, Bestimmtes zu tun) genau! genau! Und das … eh das klingt smart, genau so ist es smart, die zu erkennen durch Persönlichkeitsprofile, die wir im Netz bei unseren Aktivitäten künftig mit einem Internet der Dinge hinterlassen, als Spuren hinterlassen, möglicherweise schon herauszufinden, dass Sie ein Gefährder sind, dass Sie kriminell sind, bevor Sie das selbst wissen!
PR Man kann, auf Grund meines Nutzungsverhaltens kann man erkennen… (ich kann Sie schon in die Therapie schicken, bevor Sie überhaupt wissen, was der Anlass dafür ist).
FAB Und diese Art von spezialtechnisch und sozialpräventivem Denken verändert ganz allmählich unser Bild vom Menschen, (ja!) denn plötzlich wirds der Mensch, der regelwidrig handelt, der wird zum Betriebsunfall. Das hätte man doch voraussehen müssen! Wir diskutieren da nicht so sehr über Benachteiligung oder sowas, sondern wir diskutieren, warum ist der Gefährder nicht erkannt worden! Wir kennen solche Diskussionen bereits polizeilich (absolut!), aber das hat noch ein viel größeres Anwendungsfeld, und unser Bild vom Menschen (ja!) als einer eigenwilligen Persönlichkeit, als einer Persönlichkeit, die überraschend sein kann, auch im negativen Sinne, das würde zu einer Anomalie werden, und damit wären wir in einer anderen Welt.
PR 22:52 Also um klarzumachen, was ich hier mit Urteilskraft meine, – Jewgenij Morosow bringt hier ein schönes Beispiel: er vergleicht die U-Bahn in Berlin mit der U-Bahn in New York. In der U-Bahn in New York ist es so, man kann nicht schwarz fahren, weil es gibt überall Barrieren, da muss man seine Karte reinstecken, damit man überhaupt in die U-Bahn gehen kann, das heißt, es gibt keine Schwarzfahrer, weil das System es technisch verunmöglicht, dass man schwarz fährt. In Berlin kann jeder in die U-Bahn steigen, er muss sich selber überlegen, ob er das Risiko eingehen will schwarz zu fahren oder ob er das für ethisch gut hält, schwarz zu fahren. Also ne ganz andere Situation. Und durch die Technik kann es natürlich entstehen, dass wir mehr und mehr in eine New Yorker Gesellschaft kommen und immer weniger in eine Berliner, und das Risiko besteht, dass die Leute sich über ihr Verhalten dann auch nicht so viele Gedanken machen müssen. Welches der beiden U-Bahn-Modelle ist Ihnen für die Zukunft sympathischer?
FAB 23:42 Das liberale Berliner Modell liegt uns näher, aber auf den zweiten Blick ist das liberale Modell daran gebunden, dass Schwarzfahren bei uns einen Straftatbestand verwirklicht und deshalb darin das Risiko für den Einzelnen darin liegt. Im Augenblick diskutieren wir, ob wir davon abgehen sollen, als keinen Straftatbestand dafür normieren, das würde aber voraussetzen, dass wir vielleicht solche Zugangsbarrieren errichten, also eher für das New Yorker Modell uns entscheiden. Es hängt davon ab: wie geht eine Gesellschaft mit Freiheit um und wieviel Sicherheit wollen wir mit präventiven Barrieren, Zugangsbarrieren erreichen? Das bleibt immer eine offene Frage.
PR 24:30 Aber das Versprechen der Technikleute besteht ja darin: wir können technischerweise immer mehr Sicherheit herstellen, und vielleicht ist ja jedes einzelne so, dass man sagen kann: das ist ja ne gute Idee, wenn wir das machen. Also wenn wir Sensoren in die Stadt machen, dass wir die Leute n bisschen besser überwachen, dass wir Kriminalitätsbekämpfung von vornherein machen, von Anfang an vereiteln, da findet man je jede einzelne Maßnahme eigentlich ganz gut, nur die Summe von vielen einzelnen Maßnahmen bringt eine andere Gesellschaft hervor, und dann sind wir irgendwann komplett in der New Yorker Welt, und die Berliner Welt ist weg.
FAB 25:03 Das … kann so sein, das muss aber nicht so sein. Man darf nur nicht dem Irrglauben erliegen, dass man an die Stelle von menschlichem Verhalten mitsamt den Risiken menschlichen Verhaltens komplett eine technische Präventionsbarriere errichten kann. Denn das würde unserem Menschenbild nicht mehr entsprechen, und es würde uns in eine verwaltete Welt führen. (ja!)
PR Also, philosophisch ausgedrückt, das Menschenbild, das unserm Grundgesetz, unserer Verfassung entspricht, was unserer freiheitlichen Demokratie entspricht, ist das Menschenbild der Aufklärung. Das Menschenbild der Aufklärung sagt: Freiheit besteht darin, frei von seiner Urteilskraft Gebrauch zu machen, ja, und dann selber zu entscheiden, wie man sich sittlich verhält. Das ist die Vorstellung, die wir vom Menschen haben. Also jeder ist sozusagen Herr dessen, seiner eigenen Taten, und je mehr Bildung er hat, je mehr Herzens- oder Lebensbildung, um so reichhaltiger macht er vielleicht davon Gebrauch, aber im Prinzip ist der Mensch frei, und er ist Herr seiner eigenen Taten. Das Menschenbild des Silicon Valley, das Menschenbild der Technokraten ist ein anderes. Es ist das Menschenbild des Behaviorismus oder der Kybernetik. Dieses Menschenbild sagt: es gibt keine Freiheit, es gibt auch keine Urteilskraft, es gibt nur Verhalten. Verhalten ist der Schlüsselbegriff der Kybernetik. Und das bedeutete: so wie die Ratte, ja, im Versuch, ja, dahin geht, wo das Futter ist, und nicht dahin, wo sie verhungert, ist der Mensch eine Reiz-Reflex-Maschine, die überall da, wo es ihm Glück, Bequemlichkeit, Annehmlichkeit usw. gibt, da geht er hin, und überall da, wo er das nicht kriegt oder wo er irgendwo Ärger kriegt, da geht… das versucht er zu vermeiden. Also der Mensch ist im Grunde genommen wie eine Ratte im Versuchslabor etwas, was sich auf Grund seines Verhaltens analysieren kann, das Verhalten kann ich algorythmisieren, und wenn ich etwas algorythmisieren kann, kann ich es irgendwann auch steuern, mehr und mehr steuern. Das ist das Menschenbild des Silicon Valley. Und wenn dieses Menschenbild unser bisheriges Menschenbild ersetzt, dann brauchen wir keine freiheitlich Demokratie mehr. Und auch keinen Rechtsstaat mehr. Dann haben wir für alles technische Lösungen.
FAB 27:19 Was mir an dieser scharfsichtigen Beschreibung missfällt, ist, dass Sie jetzt einen Verantwortlichen markieren. (Gut, sagen wir mal: das Denken der Technokraten, auch in China.) … ist meines Erachtens so nicht richtig. Weil: es geht mehr über die Bande. Das Silicon Valley will meines Erachtens Geschäfte machen, sein Wertschöpfungsmodell … ausbauen, verteidigen, die Welt ist schnelllebig, die Giganten von heute müssen nicht die Giganten von morgen sein, jedenfalls bei allem Gemeinwohlinteresse, das sie formulieren, sind sie in erster Linie Wirtschaftsunternehmen. Als Wirtschaftsunternehmen reagieren sie auch auf das, was wir, die weltweiten Nutzer, Milliarden von Nutzern, was wir wollen und worauf wir uns einlassen. Und da sind sie sehr empfindlich. Das heißt, wenn wir uns entscheiden, nicht mehr zu twittern oder nicht mehr über Facebook zu kommunizieren, hat das dramatische Folgen für diese Giganten. Sie können uns nur beherrschen, wenn wir das wollen. (Aber wenn Sie als Kind in so eine Welt reingeboren werden…) das Problem ist… das Problem ist deshalb, wenn wir das als Problem wiederum an uns adressieren müssen. An uns als Gesellschaft, als Individuum ehm adressieren müssen und die Frage stellen: wie bequem sind wir eigentlich? Wie käuflich sind wir eigentlich, wenn wir eine kostenlose Leistung angeboten bekommen? Müssen qwir – alle reden über digitale Bildung – müssen wir nicht unsere Bildung wieder auf das stärker konzentrieren, was sie immer war, nämlich kritische Aneignung der Welt und nicht unkritische Aneignung.
PR Ich bin ganz auf Ihrer Seite, aber jetzt bin ich natürlich gespannt, wie Sie das praktisch machen wollen, mit Kindern, die mit Whatsapp aufwachsen, manchmal schon mit Kleinkindern, die schon mit ihren Wischbewegungen bespaßt werden und vollkommen in diesen Welten leben, und – meine Befürchtung – Urteilskraft und Freiheit vielleicht gar nicht mehr so wichtig finden, sondern wirklich Annehmlichkeit und Bequemlichkeit wichtig finden.
FAB 29:35 Ja, aber weil wir es ihnen vorgemacht haben. (Wir haben sie in diese Welt hineinleben lassen…) es ist unsere Welt. Wir wischen bis zur Kanzlerin hinauf starren wir auf unser Handy, das machen wir alle so, da will ich auch keinen anklagen, aber man muss sehen, es hat sich eine Konvention gebildet, eine Konvention, dass im Grunde genommen es geduldet wird, dass während …Menschen sich face to face unterhalten, kucken alle noch mal eben ihre Nachrichten an. Es ist die Frage, ob man solche Konventionen wirklich auf Dauer dulden will als Gesellschaft. Wir erwarten, dass alles sofort in Echtzeit zur Verfügung steht, und zwar umfänglich. Ist diese Erwartung nicht schon ein Stück weit Hybris? … Ich denke, dass wir einfach mal darüber nachdenken müssen, was wir so tun, und dieser Prozess ist im Gange.
PR 30:39 Sie appellieren an jeden Einzelnen?
FAB Wir appellieren immer. Sie haben gerade eben von der Aufklärung gesprochen, an wen appelliert denn die Aufklärung? An wen appelliert denn unser humanistisches Modell, (an Menschen, die immer stärker beeinflusst werden, an die ist immer schwieriger zu appellieren) ja, aber das ist ja immer schon gesagt worden. Als der Buchdruck erfunden wurde, wurde auch gesagt, was macht das mit den Menschen? Mit die ersten Schriften, die gedruckt wurden, waren pornographische Schriftenat den Sittenverfall erwartet, das ist aber schon 500 Jahre her. Als der Film entstanden ist, hatte man wieder ähnliche Erwartungen, als das Fernsehen aufkam. Also wir müssen aufpassen, dass wir nicht in einem … in einen Kulturpessimismus geraten, andererseits wollen wir glaube ich auch beide nicht eine technische Jubelstimmung, wie das häufig der Fall ist …
PR In einem Punkt dürften wir uns einige sein: ich bin ein großer Freund der Technik überall, wo sie uns helfen kann, die Gesellschaft humaner zu machen. Das ist für mich der Maßstab. Für mich ist nicht der Maßstab, wo könnte überall ein verstecktes oder ein offensichtliches Geschäftsmodell liegen, sondern dient die Technik dem Menschen oder führt sie uns in eine Entwicklung, das wäre sozusagen die Dystopie, dass wir, nachdem wir den Höhepunkt unserer Mündigkeit erreicht haben, so Stück für Stück wieder zu Kindern gemacht werden oder in einer Art embryonaler Phase irgendwie wieder in eine Welt kommen, in der Google uns von der Diktatur der Freiheit befreit, weil wir nicht mehr frei wählen müssen, sondern weil Google oder wer immer schon weiß, was für uns gut ist, weil sie uns in- und auswendig kennen und sogar wissen, was wir als nächstes denken oder tun und uns die nächste Kaufempfehlung bescheren. Und dies Scenario, das ich gerad entwickelt hab, ist ja kein völlig unrealistisches Scenario, sondern eines, wenn man sich die Entwicklung der letzten Jahre ankuckt und so ne Hochrechnung machen würde, durchaus eintreten könnte, also ich mache sozusagen Angst, dass die Menschen so unmündig werden könnten, dass die Gefahr besteht – ich sag nicht, das muss so kommen -, dass ich an ihre Urteilskraft nicht mehr appellieren kann.
FAB 32:42 Es gibt Tendenzen in diese Richtung, es gibt immer Gefährdungen in diese Richtung, vor allem mit jeder Veränderung der Kommunikationstechnik gibt es solche Tendenzen, weil die alten Institutionen, die eine gewisse Erwartungssicherheit, was etwa Urteilskraft, was soziale Ordnung angeht, das was die gewährleistet haben, das wird im technischen Umbruch erschüttert. Das gehört zu diesem technischen Umbruch. Und insofern ist es wichtig, die Sensibilität zu haben für bestimmte Leistungen, die etwa früher Verlage ausgeübt haben, die nicht jeden einfach gedruckt haben, wo nicht jeder zu Wort kommen konnte, die nach Qualitätsmaßstäben operiert haben – Qualitätsjournalismus war mal eine Vokabel, die heute schon irgendwie verstaubt wirkt. Verstaubt, weil im Netz wir schon eine beispiellose Dezentralisierung erleben. Aber was wir heute unter Netikette erleben, ist der Versuch, die alte institutionelle Leistung, was Ordnung, was Sittlichkeit, was Urteilskraft angeht, wieder zu etablieren. Und man kann bei so etwas wie dem Netzwerkdurchsetzungsgesetz furchtbar kritisch sein, – ich gehöre auch eher zu den Kritikern -, es ist der Versuch, bestimmte Regeln auch im Netz wieder durchzusetzen. Und deshalb wäre ich nicht per se pessimistisch, dass hier eine Welt untergeht und kein adäquate neue entsteht.Sondern wir ,müssen eben dafür streiten, dass sittliche Maßstäbe, dass Urteilskraft im Netz möglich bleiben, vielleicht sogar verbessert werden, verstärkt werden.
PR 34:27 Also ich bin auch nicht pessimistisch, allerdings nur aus dem Grund heraus, weil Pessimismus keine Lösung ist. Ja, also, ich glaube, dass ein Optimist, der seinen Idealen nicht bestätigt wurde, immer noch n besseres Leben führt als n Pessimist, der sich immer noch auf die Schulter geklopft hat es ist alles so miese gekommen, wie ich mir das vorgestellt hab. Das ist es eigentlich nicht. Aber meine Befürchtung, also Grundbefürchtung besteht darin, dass diese Aufklärungsgesellschaft, also diese Werte der Aufklärung sukzessiv abgebaut werden, und ich möchte das noch an einem Beispiel klarmachen. Es gibt ein sehr berühmtes Beispiel, das werden Sie sicher kennen: 1974 hat der amerikanische Philosoph Robert Nozick, konservativer amerikanischer Philosoph, ein Buch geschrieben „Anarchie, Staat und Utopie“, und darin stellt er eine Erlebnismaschine vor. Er sagt, stellen Sie sich mal vor, Sie könnten in eine Erlebnismaschine steigen – das ist so ähnlich wie der Film Matrix -, dann sind Sie in einer komplett künstlichen Welt, erleben aber den Unterschied zwischen künstlich und real nicht mehr. Das heißt, Sie erleben alles real, und in dieser Erlebnismaschine werden alle Ihre Bedürfniss nach Ihrer Vorstellung befriedigt. Das heißt, Sie sind also in einem vollkommenen Wohlfühlparadies, Sie kriegen die schönsten Frauen, die Sie haben wollen, und wenn Sie Familienglück haben wollen, kriegen Sie das auch, und wenn Sie gutes Essen wollen, alles! Würden wir in diese Maschine steigen? Das ist eine rhetorische Frage, denn Nozick ging davon aus: niemand würde in eine solche Maschine steigen. Und ich nehme an, bei uns würden vielleicht einige in diese Maschine steigen, aber die meisten würden es nicht tun. Was aber, wenn ich nicht ein große Entscheidung in meinem Leben treffen muss, in diese Maschine zu steigen oder nicht, sondern wenn diese Maschine in ganz, ganz kleinen Stücken, Stück für Stück via Bequemlichkeit, Annehmlichkeit, Fiktionen, Virtual Reality in mein Leben kommt, so dass ich also auf einem schleichenden Übergang in so eine Maschine hineinkomme, dann glaube ich würde die überwältigende Mehrheit an keinem Punkt ein Stoppschild hochhalten…
FAB Wir sind ja auf dem Weg dahin, wir sind auf dem Weg dahin, die Nutzungen etwa eines Smartphones, die sind heute noch, sie sind heute noch längst nicht so weit, wie uns das die Protagonisten manchmal weismachen wollen, aber die Entwicklung, sie wird diesen Weg nehmen. Es ist eine Gesellschaft nicht nur abstrakt denkbar, sondern konkret bereits prognostizierbar, die uns umsorgt. Wenn man sich eine Scenario vorstellt, das Menschen mit einem bedingungslosen Grundeinkommen versorgt, in ihrem Smartphone sitzen, mit einem selbstfahrenden Auto von A nach B kommen, falls sie überhaupt von A nach B wollen, dann ist eine umsorgte Existenz denkbar, die auf unsere Wünsche hin sofort ganz smart reagiert. (Betreutes Leben!) Betreutes Leben. Sie zwingt uns dazu zu fragen, wie wir eigentlich mitmachen wollen. Das Problem ist: Sie werden eine solche Entwicklung kaum staatlich unterbinden können, die Vorstellung (aber Sie sehen das direkt im zivilen Widerstand von Menschen, wieviele Leute sich jetzt zu Weihnachten eine Alexa gekauft haben, verschenkt haben und sich ausspionieren lassen zu Hause, weil sie nichts zu verbergen haben, usw., ich sehe keinen einzigen Punkt, wo sich ein solcher Widerstand ernsthaft formiert.) Aber: wir sind eine volatile Gesellschaft im Schlechten wie im Guten, ich glaube, sowas kann sich schnell ändern. Ein Buch wie der „Circle“ hat die Gefahren deutlich gemacht und hat viele Leser gefunden, und subkutan bildet sich auch das kritische Bewusstsein. Das geht nicht immer so schnell, die technische Entwicklung von Alexa ist zunächst mal ein ziemlich dummes Gerät, das da steht, aber (aber es wird schlauer werden) aber es nimmt auf und leitet weiter, und es wird schlauer werden, wie Sie sagten, und zwar vermutlich viel schlauer, denn wir sind aus der Phase einer linearen Entwicklung raus, wir werden und, was KI, was Künstliche Intelligenz angeht, viel schneller entwickeln, als wir uns das heute so vorstellen können.
PR 38:37 Aber Sie erwarten, dass sich Menschen irgendwann gegen ihre eigene Bequemlichkeit entscheiden. Aus freien Stücken heraus…
FAB Sie müssen sich ja nicht gegen Ihre eigene Bequemlichkeit entscheiden, Sie müssen nur die Grenzen, die Grenzen deutlich, Sie müssen die Grenzen finden. Die müssen wir suchen, wir müssen fragen, wohin gehen die Daten, also Symmetrie also unser Gesprächseingang. Auch Alexa darf nicht unkontrolliert agieren, vielleicht müssen wir die Daten über Stellen leiten, die unser besonderes Vertrauen haben, das muss nicht der Staat sein. Kann auch n privater Akteur sein, den wir beauftragen, damit wir sehen könne, was wird damit gemacht, und den Menschen sagen können: das passiert mit dem, was du in deinem Heim, privat, sagst.
PR Ich könnte mir vorstellen, dass die Menschen sich an allem dem [all das], was die Konzerne mit ihren Personendaten machen, gewöhnen. Weil es auch jetzt so in kleinen Schritten, so dann erfahr ich n bisschen mehr, und die verdienen n bisschen Geld damit usw., irgendwann sind die Leute auch daran gewöhnt. Was glauben Sie realistisch, wir habe ja so verschiedene Bilder, wir haben gesagt, wir können die Urteilskraft schulen, wir können bestimmte Prozesse aufhalten, andererseits haben wir jetzt auch Dystopien gemalt, was glauben Sie ganz ernsthaft: wo steht die Gesellschaft in 10 Jahren? Können Sie es in wenigen Strichen skizzieren?
FAB 39:54 Wissen Sie, Sie haben gerade gesagt: Pessimismus und Optimismus. Das Problem ist ja, wir kennen die Zukunft nicht. Wir können die Zukunft immer nur hochrechnen aus Daten, die wir jetzt kennen, die sind heute schon defizitär, und vor allem verändern die sich auch noch in der Zukunft, wir kennen die Zukunft nicht genau, geht man mit einem pessimistischen Bild an die Zukunft ran, dann verstärkt man die Möglichkeit, dass dieses negative Scenario eintritt. Deshalb sind wir also (zum Optimismus verdammt!) wir sind verurteilt zum Optimismus, allerdings nicht zu einem blinden, sondern zu einem kritischen Optimismus. Und insofern würde ich sagen, die Menschen sind eigenwillig immer gewesen! Schon Heinrich Heine hat vom Volk als dem großen Lümmel gesprochen. Ich glaube, dass es nicht ausgemacht ist, dass wir diese wunderschöne technische Welt, diese Angebote, die Leimruten, die ausgelegt werden, dass wir die auf längere Sicht tatsächlcih alle so wahrnehmen. Es ist auch möglich, dass wir mit den neuen technischen Möglichkeiten auch eine Gegenwelt installieren. Ich halte … Widerstand hätte man in den alten 60er Zeiten gesagt .. eh .. Ästhetik des Widerstandes – ich halte auch Widerstand MIT den technischen Waffen für möglich. Teilweise ist ja so etwas bereits unterwegs, auch eine Internetöffentlichkeit muss nicht dezentral, anonymisiert und chaotisch und sittenlos sein.Sie kann auch neue Sittlichkeit und neue Ordnung aufbauen. Deshalb… daran müssen wir glauben, und dafür müssen wir etwas tun, damit es wahrscheinlicher wird, dass wir diesen Entwicklungsverlauf nehmen.
PR Die erste Voraussetzung für eine solche Ästhetik des Widerstandes wäre, dass es uns gelingt, neben den vielen negativen Bildern über die Zukunft uns eine positive Zukunft auszumalen, wie wir die Technik im humanen Sinne und nicht im kybernetischen Sinne verwenden. Herr di Fabio, ich danke für das Gespräch. (Danke!)
Abschrift des Gesprächs (JR) nach der Fernsehsendung ©ZDF!