Gastkommentar

Digitale Freiheit – die Zukunft ist nicht vorprogrammiert

Die Digitalisierung scheint unaufhaltsam zu sein. Das schürt in der liberalen Demokratie Misstrauen und Ängste. Geht unsere Freiheit verloren? Nicht, wenn der Mensch künftig in den Prozessen der Digitalisierung stärker in den Mittelpunkt gerückt wird.

Thomas Beschorner und Roberta Fischli 8 Kommentare
Drucken
Wie können wir eine Überwachungsgesellschaft verhindern? Und: Was möchten wir an ihrer Stelle sehen? Welche gesellschaftlichen Ideale soll sie fördern – und wer darf das bestimmen?

Wie können wir eine Überwachungsgesellschaft verhindern? Und: Was möchten wir an ihrer Stelle sehen? Welche gesellschaftlichen Ideale soll sie fördern – und wer darf das bestimmen?

Steffi Loos / Getty

Die dystopische Episode «Nosedive» der Fernsehserie «Black Mirror» zeichnet ein Zukunftsbild einer Gesellschaft, in der alles vollständig vermessen und eingeordnet wird: Menschen bewerten ihr Verhalten gegenseitig nach einem Punktesystem. Gutes Verhalten bedeutet Pluspunkte, schlechtes Verhalten wird mit Minuspunkten bestraft. Flankiert wird diese gegenseitige Kontrolle durch allerlei staatliche Überwachungssysteme. Über Gesichtserkennungstechnologien beispielsweise wird jeder Schritt der Menschen verfolgt.

Die Episode war schon bei ihrer Erstausstrahlung im Jahr 2016 eine Anspielung auf und eine Kritik an dem sich anzeichnenden Social Credit System in China. Doch auch in der westlichen Welt kennen wir schon heute ähnliche Entwicklungen. Lacie Pound, die Protagonistin der Folge, stürzt in dieser Gesellschaft ab. Ihr Score sinkt, sie gerät in eine Abwärtsspirale. Am Ende landet sie im Gefängnis. Es ist der einzige Ort, an dem man in dieser Gesellschaft frei sein kann.

Metapher des Gefängnisses

Die Metapher des Gefängnisses ist in der Diskussion zur Digitalisierung wichtig und dient nicht selten als Sinnbild für den neuen Überwachungskapitalismus, der uns Freiheit nimmt, uns auf eigentümliche Art und Weise einsperrt. In Jeremy Benthams Skizze eines Gefängnisses als Panoptikum beobachten wenige (Wärter) viele (Gefangene). In Zeiten der Digitalisierung hat sich dies verlagert, so der norwegische Kriminologe Thomas Mathiesen. Er spricht von einem Synoptikum, in dem durch die neuen technischen Möglichkeiten jeder und jede jeden sozial kontrolliert. Dabei ist es sogar gleichgültig, ob dies faktisch stattfindet, schon das Wissen möglicher sozialer Massregelungen dürfte handlungswirksam sein.

So wichtig die wissenschaftlichen Arbeiten und politischen Diskussionen zu Fragen der Überwachungsgesellschaft sind – sie verstellen den Blick auf andere, wichtige Fragen im Kontext der Digitalisierung. Warum?

Kontrolle und Überwachung sind Begriffe, die mit einem spezifischen Freiheitsverständnis verbunden sind: der Freiheit von etwas – von Kontrolle, Sanktionen, Zwängen. Der Philosoph Isaiah Berlin nennt dies «negative» Freiheit. Dieses Freiheitsverständnis ist eng mit den liberalen Werten unserer westlichen Gesellschaften verbunden. Die Idee einer Befreiung von Zwängen schwingt auch mit, wenn wir über die Möglichkeiten und Gefahren der Digitalisierung diskutieren. Entsprechend sind die wichtigsten Parameter oft jene, die dem liberalen («negativen») Freiheitsverständnis entsprechen: Autonomie, Unabhängigkeit, Wahlmöglichkeiten. Doch obwohl dieser Fokus uns wertvolle Einsichten beschert hat – hinsichtlich der Gefahr der Überwachungsgesellschaft beispielsweise –, riskieren wir auch, andere, ebenso wichtige Erkenntnisse zu verpassen.

Andere Freiheitsverständnisse können genau hier Abhilfe schaffen: «positive» und «soziale» Ansätze. Der erste Ansatz befasst sich mit der gesellschaftlichen Teilhabe und dem Streben nach der eigenen Version des Guten. Im Kontext der Digitalisierung werden wir eingeladen, über die Werte und Ziele der Digitalisierung zu diskutieren. Also nicht nur: Wie können wir eine Überwachungsgesellschaft verhindern? Sondern auch: Was möchten wir an ihrer Stelle sehen? Welche gesellschaftlichen Ideale soll sie fördern – und wer darf das bestimmen?

Auch das zweite Verständnis von Freiheit, das vom Frankfurter Sozialphilosophen Axel Honneth in die Diskussion gebracht wurde, ist relevant im digitalen Kontext: «soziale» Freiheit. Honneth argumentiert, dass wir als soziale Wesen permanent mit anderen Menschen interagieren. Unsere Mitmenschen konstituieren, wer wir als Person sind. Freiheit realisiert sich nicht nur durch sie, sondern in ihnen, wie umgedreht unser Handeln andere bestimmt. Es gibt ein «Wir im Ich» und ein «Ich im Wir».

Neue Räume, neue Distanzen

Die angedeutete Trias negativer, positiver und sozialer Freiheit sollte uns zu einem Gefängnisausbruch auffordern, zum Ausbruch aus einem allzu verengten Denken von Freiheit als der Abwesenheit von Zwang. Für die Diskussion im Kontext der Digitalisierung erscheinen uns dafür drei Problemfelder wesentlich:

Erstens zeigt die Forschung deutlich, dass Softwareentwicklungen weiterhin überwiegend von einer spezifischen gesellschaftlichen Gruppe realisiert werden: weisse, gut ausgebildete Männer. Dies führt (gewollt oder ungewollt) dazu, dass algorithmische Systeme «biases» aufweisen, die eben genau jenes gesellschaftliche Milieu favorisieren. Hier wird bestimmt, was relevant ist. Hier wird das Wir definiert. Umgekehrt ist die starke Homogenität in den Entwicklungsabteilungen von Softwareunternehmen eine Quelle für systematische – und nicht nur zufällige – Benachteiligungen anderer gesellschaftlicher Gruppen, die mitunter schlicht nicht gesehen werden.

Dies spiegelt sich, zweitens, in Diskriminierungen durch Algorithmen wider. Es war das Versprechen des Internets, Räume zu öffnen, ja eine räumliche Distanz ein Stück weit in den Hintergrund treten zu lassen. Dadurch haben sich die Möglichkeiten eines Wir erweitert. Zugleich deuten die Entwicklungen der vergangenen Jahre darauf hin, dass wir uns in sozialen Netzwerken in Bubbles und Echokammern mit unseresgleichen bewegen. In diesen neuen Territorien konstituieren wir nicht selten ein «wir contra ihr». Diskursfronten verhärten sich. Diese Entwicklungen nehmen uns vor dem Hintergrund eines umfassenden Freiheitsbegriffs unsere soziale Freiheit, die uns als Person ausmacht – oder ausmachen sollte.

Ebenso wenig wie eine Demokratie ohne aufgeklärte Bürgerinnen und Bürger funktioniert, wird, drittens, eine digitale Zukunft ohne Digitalkompetenz und Medienverantwortung des oder der Einzelnen gelingen können. Digitalkompetenz meint dabei nicht notwendigerweise die Kenntnis von Programmiersprachen, sondern wesentlicher: ein Wissen um das eigene Handeln auf digitalen Territorien. Damit geht unter anderem auch eine Verantwortung der User einher, sich nicht hinter «Unklar-Namen» zu verstecken oder Medienbeiträge nur auf der Grundlage einer Überschrift zu kommentieren, um nur zwei Beispiele zu nennen. Vielmehr sollen sie sich eine substanzielle, aufgeklärte Meinung bilden.

Wenn wir fragen, wie wir in diesen drei Aspekten gesellschaftspolitisch weiterkommen können, so dürften drei Optionen handlungsleitend sein: Selbstbindungen durch Unternehmen, harte Regulierungen durch politische Institutionen und eine Stärkung der Zivilgesellschaft.

Hinsichtlich der ersten Option darf man zunehmend skeptisch sein. Seit der Anhörung des Facebook-Gründers Mark Zuckerberg vor dem amerikanischen Kongress anlässlich des Verdachts einer politischen Einflussnahme bei den Präsidentschaftswahlen 2016 schiessen zwar ethische Selbstverpflichtungserklärungen in der Branche wie Pilze aus dem Boden. Ob dies jedoch mehr als Talk ist, kann durchaus hinterfragt werden. Google entliess Ende 2020 die prominente Forscherin Timnit Gebru aus der eigenen Abteilung zur künstlichen Intelligenz und Ethik; sie hatte sich angeschickt, einen kritischen Forschungsartikel zu publizieren. Facebook schränkte 2021 den Zugang zum Ad Observatory der New York University (NYU) ein, weil dort zu Fragen von Falschinformationen von politischen Ads geforscht wurde.

Vielversprechender, als bloss auf eine Verantwortungs­übernahme durch Technologieunternehmen zu setzen, erscheinen die anderen beiden Optionen: Die EU hat in den vergangenen Jahren verschiedene Initiativen zur politischen Regulierung lanciert, allen voran den aus dem April des Jahres resultierenden Vorschlag «Zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz». Dieser erste Rechtsrahmen für künstliche Intelligenz (KI) in der EU ist ein wichtiger Meilenstein für die Regulierung datenbezogener Geschäftspraktiken. Diese und ähnliche Gesetzesinitiativen sollten jedoch von partizipatorischen Elementen flankiert werden.

Insbesondere die Zivilgesellschaft, vor allem in der organisierten Form von Nichtregierungsorganisationen, ist von entscheidender Bedeutung für eine echte Neugestaltung im Bereich der KI. NGO können zum einen die Funktion kritischer Begleiter oder Gegenspieler gegenüber ökonomisch-geleiteten Interessen erfüllen. Wichtig dürfte die Rolle zivilgesellschaftlicher Akteure jedoch noch aus einem weiteren Grund sein: Seitens der Unternehmen, aber auch seitens der Politik hat sich in den vergangenen Jahren die Formel «humans in the loop» eingebürgert, mit der ausgedrückt werden soll, dass der Mensch bei den Entwicklungen der Digitalisierung stets berücksichtigt, ja im Mittelpunkt stehen soll.

Menschen in der Programmierschleife

Diese Metapher jedoch verengt trotz einem gewissen Charme den Denk- und Diskursraum, denn sie verortet den Menschen a priori in einer (Programmier-)Schleife. Sie drückt begrifflich aus, was wir in der praktischen Diskussion gut beobachten können: Der zunehmende Einsatz von KI scheint unaufhaltsam, die Zukunft vorprogrammiert – und zwar in allen Lebensbereichen.

Was damit in den Hintergrund rückt, ist die grundsätzlichere Frage, in welchen Bereichen unserer Gesellschaft wir den Einsatz von KI aus prinzipiellen Gründen ausschliessen wollen, weil sie unsere demokratisch-liberale Grundordnung gefährdet. Wollen wir KI-gestützte Waffensysteme, Überwachungssysteme durch Gesichtserkennungstechnologie, sollen Algorithmen Triage-Entscheidungen in der Notfallmedizin treffen dürfen?

Diese und viele weitere Fragen zu adressieren und darüber einen gesellschaftlichen Verständigungsprozess zu initiieren, wäre die Voraussetzung für eine wahrhaft menschenzentrierte Entwicklungsperspektive der Digitalisierung, bei der der Mensch nicht lediglich «in the loop», sondern «outside the code» ist.

Thomas Beschorner ist Direktor des Instituts für Wirtschaftsethik der Universität St. Gallen; Roberta Fischli ist Forschungs- und Lehrassistentin an der School of Economics and Political Sciences an der Universität St. Gallen.

8 Kommentare
Michael Wendling

Digitalisierung ist im Endeffekt nichts anderes als Freiheitsberaubung und Total-Überwachung: also Ent-Menschlichung!  Sorry, für dieses harte Urteil  -  das Rad der Geschichte wird niemand aufhalten, ich weiß, aber so rollen wir totsicher auf den Abgrund zu:  wir sollten schnellstens eine Vollbremsung hinlegen!

Werner Moser

Die Digitalisierung in einer Demokratie, in welcher die Freiheit im Sein (i.e. die Freiheit des Geistes und der Körpers) nur durch die Freiheit seiner Gegenüber begrenzt ist (i.e. Liberalismus!), schürt die Hinwendung vom analogen- zum digitalen Dasein das natürliche Misstrauen und Ängste, weil man sich vor einer Intrasparenz der Algorithmen (i.e. Befehlsketten)  fürchtet. Weil diese über das effiziente Potenzial verfügen, Freiheiten "verschwinden" zu lassen, welche den Menschen immer wieder von neuem durch analog gelebtes Leben zukommen. Da kann der Mensch noch so stark in den Mittelpunkt der Prozesse der Digitalisierung gerückt werden: so lange die digitale Transparenz nicht gewährleistet ist, werden sich all' die Gefahren eines Freiheitsverlusts nicht vermeiden lassen. Es ist das Fehlen u/o Ungenügend der Transparenz, welche in einer liberalen Demokratie Misstrauen und Ängste schürt. Nicht die Digitalisierung. Gerade weil die Zukunft nicht vorprogrammiert ist!