Festvortrag im Rahmen der Eröffnungsveranstaltung zur Jahrestagung der Akademie für Ethik in der Medizin 2018
"Der Mensch ist die ultimative Maschine."
"Der Mensch ist nur ein biologistischer Algorithmus."
"Der Mensch ist ein Irrtum der Natur."
Solche Parolen, die neben dem Optimierungsbedarf des Menschen auch die Unschärfe von Mensch und Maschine propagieren, begleiten jene digitalen Geräte und Lieblingsmarken aus dem Silicon Valley, an die viele von uns ihr Dasein, ihre Identität, ihr tägliches Leben fest gebunden haben. Das Paradox daran: Der Mensch des 21. Jahrhunderts ist ein technisch erweiterter Mensch: Smartphone, AR-Brille oder Tablet-PC sind wie neue Extremitäten, die dem Menschen erweiterte Fähigkeiten verleihen. Gleichzeitig wird er auf nichts als seine Daten reduziert.
Doch die enge Verbindung von Menschen mit digitalen Angeboten erfolgt nicht ohne Hintergedanken der digitalen Industrie. Der "Mensch als Datenhaufen" ist ein neues Menschenbild, jene Ideologie oder Anspruch, der tief eingewoben ist in die digitalen Angebote des Valley und für das wir uns mit dem Kauf seiner Hardware und Software ein erstes Mal unbewusst entscheiden. Denn digitale Angebote sind keinesfalls wertfrei oder neutral. Wer digitale Angebote und Geräte aus dem Silicon Valley nutzt, kauft sich die "Werte" einer kontinuierlichen Überwachung und eines ständigen Profiling der eigenen Person ein und legitimiert sie soziologisch, wenn er kritik- und gedankenlos mitmacht. Wird aber der Mensch zum steuerbaren Algorithmus, mindestens zum Datenhaufen erklärt und von digitalen Angeboten auch dauerhaft so behandelt, verändert dieses neue Verständnis vom Menschen schließlich auch den Menschen selbst, seine Selbstwahrnehmung, sein Wertesystem und sein Zusammenleben in Gesellschaft und Staat.
Das kann und wird nicht ohne Folgen bleiben für die künftige Gestaltung unserer Gesellschaft durch das Rechtssystem. "Nichts ist so entscheidend für den Stil eines Rechtszeitalters wie die Auffassung vom Menschen, an der es sich orientiert", äußerte sich der große Rechtsphilosoph Gustav Radbruch schon 1927. Eine Gesellschaft, die soziologisch normiert, dass der Mensch auf das naturwissenschaftliche Messbare – eben auf Big Data –, auf das empirisch Beobachtbare reduziert wird, muss und wird dieses Menschenbild früher oder später auch im hoheitlich gesetzten Recht manifestieren. Denn Recht ist nichts anderes als "geronnene Politik".
Während der Würdeanspruch des Menschen nach abendländischem Rechtsverständnis darin besteht, nicht zum "Objekt eines anderen" zu werden, würde eine solche Manifestation gegen alle Erfahrung mit der NS-Zeit das Ende des souveränen, mit einem unantastbaren Würdeanspruch ausgestatteten Menschen bedeuten, der, mit Vernunft begabt, moralisch handeln und zwischen Gut und Böse entscheiden kann.
Datum
13. September 2018
Zeit
18:00 Uhr
Ort
Aula der Universität zu Köln
Hauptgebäude
Albertus-Magnus-Platz
50923 Köln
Yvonne Hofstetter, 1966, Juristin und Essayistin, hat sich zu den Technikfolgen von Künstlicher Intelligenz (KI) vielfach in den Medien geäußert. Ihre Bücher „Sie wissen alles“ (2014) und „Das Ende der Demokratie“ (2016) sind beim C. Bertelsmann Verlag erschienen. 2018 wurde Hofstetter für ihr demokratiepolitisches Engagement mit dem 53. Theodor-Heuss-Preis ausgezeichnet. Sie begann ihre Karriere in der Informationstechnologie 1999 als Produktmanagerin für Systeme der Verteilten KI (Multiagenten-Systeme). Nach der Fusion ihres Arbeitgebers mit dem US-amerikanischen Weltmarktführer
für Wertschöpfungskettenmanagement (Nasdaq: EXEE) war Hofstetter im Stab des Technologievorstands in Dallas, Texas, tätig. Aus Anlass einer M&A-Transaktion schied Hofstetter 2004 bei ihrem amerikanischen Arbeitgeber aus und übernahm 2005 die Leitung der deutschen Niederlassung einer irischen Fintech-Firma für den KI-basierten Währungshandel amerikanischer Währungsfonds. 2009 gründete Hofstetter mit ihren Kollegen aus F&E das Unternehmen TERAMARK Technologies GmbH mit Sitz im Münchener Norden. Das Unternehmen entwickelt und pflegt mit Big Data und Künstlicher Intelligenz erstellte Lagebilder zur Bewertung
von (geopolitischen) Risiken. Kunden sind Investmentunternehmen oder die staatliche Sicherheitsvorsorge, etwa europäische Konsortien, die Zivilschutz betreiben.