10/03/2020

Wolkenschaufler_32

Schöne neue Welt

Die Kolumne Wolkenschaufler von Wenzel Mraček zu Lebensraum, Kunst und Kultur(-politik) erscheint jeden 2. Dienstag im Monat auf GAT.

.

10/03/2020

Logo der Computerschach-WM „Chess003“ im Rahmen der Kulturhauptstadt Graz 2003

©: Elmar Ranegger

Eine Kollegin erzählte mir zu Ende des Vorjahres vom Erlebnis eines Freundes während dessen Aufenthalts in Singapur. Nach Besuch eines Restaurants wieder auf der Straße, stand er im Begriff, sich eine Zigarette anzuzünden. In diesem Moment ging auf seinem Smartphone eine SMS mit der Aufforderung ein, das Rauchen zu unterlassen, nachdem an diesem Ort striktes Rauchverbot verordnet sei.
Ohne über weitere Details Bescheid zu wissen, könnte eine laienhafte Überlegung, wie es zu diesem Ereignis kommen kann, etwa so ausfallen: Bei Ankunft in Singapur müssten biometrische und persönliche Daten registriert werden sowie die Nummer des Mobiltelefons. Diese Informationen müssten in eine Verwaltungs-Datenbank eingespeist sein. In einem Bericht der Nachrichtenagentur Reuters vom April 2018 heißt es, Singapur sei mit über 100.000 Überwachungskameras im öffentlichen Raum ausgerüstet. Deren Aufnahmen müssten wiederum permanent mit jenen der Verwaltungs-Datenbank abgeglichen werden. Analyseprogramme, Algorithmen, schließen infolge auf Regelverstöße und weisen diese Individuen zu, quasi in Echtzeit ergeht die automatische Verwarnung an die betreffende Person. Wann sich unser Tourist an welchem Ort befunden hat, wissen die Maschinen einerseits über Ortung des Mobiltelefons, andererseits über den Standort der Kameras. Die Kameras erfassen zudem nicht allein die Handlungen unseres Touristen, sondern aller biometrisch registrierten Personen. Im Umkehrschluss würden die Maschinen nun nicht allein vom Tun des Touristen informieren. Sofern er sich entscheidet, nicht zu rauchen, wäre auch sein Handeln durch ein vielleicht intelligent zu nennendes System von Automaten gelenkt. – Wir sind erinnert an Norbert Wieners rückkoppelnde, kybernetische Systeme, die nun nicht allein den Informationsaustausch zwischen Maschinenelementen besorgen, sondern nun auch den systemischen Zusammenschluss (Kurzschluss) von Maschine und Mensch – beziehungsweise an die Literatur eines George Orwell, wo Big Brother aus Big Data schöpft. Privatsphäre, ist in der NZZ (April 2019) zu lesen, spiele in Singapurs Big-Data-Welt nur eine Nebenrolle. „Das Sammeln von Daten, Auswertungen und Anwendungen wie Gesichtserkennung sieht man in Singapur in erster Linie unter dem Blickwinkel von Sicherheit und wirtschaftlicher Innovation.“

Die Datenanalystin Yvonne Hofstetter führt in ihrem Buch Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt (2016) über das angeführte Beispiel hinaus. Mit dem Internet of Everything werde
   der Trend, die Gesellschaft mithilfe von Programmcode zu gestalten, weiter zunehmen. Dafür sorgen weniger künstliche Politiker […] und ihre Kontrollstrategien, sondern mehr ihre algorithmischen Ebenbilder aus privatwirtschaftlicher Hand. Die Ausstattung unseres gesamten Umfelds mit IP-Adressen und die damit verbundene Aktivierung unserer Umwelt erlauben die vollständige, lückenlose Überwachung unseres Verhaltens. Intelligente Maschinen erstellen Verhaltensprofile, denen unsere persönlichen Datenspuren zugrunde liegen.

Am 19. Februar dieses Jahres hat EU-Kommissionspräsidentin Ursula von der Leyen ein Weißbuch für Künstliche Intelligenz (KI) und eine Datenstrategie vorgestellt. Europa soll führend in Entwicklung und Anwendung von KI werden. Im Weißbuch genannt ist zunächst der umfassende Ausbau des 5G-Netzes, während an 6G bereits gedacht wird. Das „nachhaltige Wirtschaftswachstum und das gesellschaftliche Wohlergehen“ stützten sich bereits jetzt und in Zukunft auf „die zunehmende Wertschöpfung durch Daten“.

Insgesamt erweist sich der Entwurf als vorwiegend wirtschafts- und industriefreundlich. Das Weißbuch beinhaltet Vorschläge und Überlegungen, die Richtlinien für Gesetzesentwürfe sein sollen. Vor allem sollen Konzerne, klein- und mittelständige Unternehmen verstärkt Zugriff auf „nicht personenbezogene Daten“ erhalten, freilich auch Verwaltungen und Exekutive – die dagegen wohl mit persönlichen Daten umgehen müssten. Auf mehreren Seiten, dennoch kursorisch, wird auf die Privatsphäre von Personen eingegangen. „Biometrische Fernidentifikation“, wie oben am Beispiel Singapurs beschrieben, dürfe auch hinkünftig nur angewendet werden, „wenn sie begründet und verhältnismäßig“ ist. Als Kriterien werden hier immer wieder „europäische Werte“, Ethik und Grundrechte genannt, die eigentlich nicht weiter erklärt sind.
Was KI eigentlich sein könnte, wird mehrmals an Beispielen automatisierter Steuerungssysteme (Fahrzeuge, Produktionsanlagen oder Deep Learning etc.) einigermaßen erläutert, in zwei Fußnoten wie folgt:
   Künstliche Intelligenz (KI) bezeichnet Systeme mit einem „intelligenten“ Verhalten, die ihre Umgebung analysieren und mit     einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen.
Und nochmals:
   Künstliche-Intelligenz-(KI)-Systeme sind vom Menschen entwickelte Software- (und möglicherweise auch Hardware-) Systeme, die in Bezug auf ein komplexes Ziel auf physischer oder digitaler Ebene agieren, indem sie ihre Umgebung durch Datenerfassung wahrnehmen, die gesammelten strukturierten oder unstrukturierten Daten interpretieren, Schlussfolgerungen daraus ziehen oder die aus diesen Daten abgeleiteten Informationen verarbeiten und über die geeignete(n) Maßnahme(n) zur Erreichung des vorgegebenen Ziels entscheiden. KI-Systeme können entweder symbolische Regeln verwenden oder ein numerisches Modell erlernen, und sind auch in der Lage, die Auswirkungen ihrer früheren Handlungen auf die Umgebung zu analysieren und ihr Verhalten entsprechend anzupassen.

Erforschung, Entwicklung und Ausbau von KI müsse forciert werden, wozu die EU jährlich 20 Milliarden Euro aufbringen will, „um Europa zum führenden KI-Standort“ zu machen – gemeint ist hier wohl weltweit.
Naturgemäß treten nach Veröffentlichung des Weißbuchs zum Umgang mit KI Kritiker auf den Plan. In einem Ö1-Beitrag (Digital.Leben, 20.02.20) meldet sich etwa Alexander Fanta, der für netzpolitik.org aus Brüssel berichtet. Wir seien, meint Fanta, „an einem Punkt angelangt, an dem viele Behörden in ganz Europa KI-Systeme zur Personenerkennung testen“. Biometrische Daten werden mit Datenbanken zur Identifikation verglichen. Das sei bereits ein Eingriff in Persönlichkeitsrechte, und der öffentliche Raum bekomme damit einen anderen Charakter. Die Frage wird sich stellen, wie weit man sich in der Öffentlichkeit anonym bewegen können wird.
Im Weißbuch wird auch angedacht, neue KI-Systeme zunächst testen zu wollen, um sie zu zertifizieren bevor sie auf den Markt gelangen. Angesprochen sind hier „Hochrisiko-Anwendungen“ wie bei automatischen Entscheidungssystemen, die im Bereich Polizei, Verkehr, Medizin und Justiz Anwendung finden. Das allerdings klingt wie eine frommer Wunsch, nachdem auch Probleme der „Opatizität“, also der Durchschaubarkeit vernetzter Programme, angesprochen werden. Die EU-Kommission meint, neue KI-Systeme sollen en détail von Fachleuten überprüft, in ihren Inhalten, Verknüpfungen und jeweiligen Wirkungen verstanden werden können. Abermals ein frommer Wunsch, wenn man bedenkt, dass bereits in Betrieb befindliche KI-Systeme im Sinn von Black Boxes in detaillierten Interaktionen oft nicht mehr nachvollzogen werden können, die Beobachtung sich oft nur mehr auf In- und Output richtet.
Ein aktueller Fall wurde in den Niederlanden gerade gerichtlich verhandelt. Seit 2014 stand ein Tool namens System Risico Indicatie (SyRI) in Verwendung, das, nach Eingabe diverser behördlicher Daten, Sozialbetrüger finden sollte. Menschenrechtsaktivisten reichten dagegen 2019 Klage ein, weil vor allem ärmere Bevölkerungsschichten per Anwendung der Maschine diskriminiert würden und deren Recht auf Privatsphäre und soziale Sicherheit verletzt sei. Ein niederländisches Gericht gab nun dieser Klage statt und begründete, die Anwendung sei unvereinbar mit Regeln der Europäischen Menschenrechtskonvention – Menschen seien unter anderem aufgrund ihres Wohnorts verdächtig –, zudem sei das System in seiner Funktionsweise – welche Daten werden wie analysiert – undurchschaubar, also opak. Die Hersteller von SyRI waren auch nicht bereit, Parameter und Programmierung ihrer Maschine offenzulegen, was hinsichtlich konkurrierender Firmen durchaus verständlich erscheint. Merkwürdig, dass die EU-Kommission in ihrem Weißbuch auf das langfristige Ziel hinweist, dass möglichst firmenübergreifend und im Verband mit wissenschaftlichen Einrichtungen an Entwicklungen von KI gearbeitet werden möge, um Europa an die Weltspitze zu bringen. Rechtlich, heißt es wiederum in dem Schreiben, müssten gegenüber dem Einsatz von KI-Systemen neue Grundlagen geschaffen werden. Als Beispiele werden autonome Fahrzeuge genannt und die Frage nach Verursachern im Fall von Personenschäden sowie abermals die Wahrung persönlicher Rechte bei Datentransfer.

Immerhin geht die Kommission in diesem Entwurf auf abzusehende Problemsituationen ein: zunehmend seien
   Bürgerinnen und Bürger und juristische Personen von Maßnahmen und Entscheidungen betroffen, die von oder mithilfe von KI-Systemen gefällt werden und zuweilen schwer nachvollziehbar sind oder kaum wirksam angefochten werden könnten. Darüber hinaus bietet KI immer mehr Möglichkeiten, die täglichen Gewohnheiten von Menschen zu erfassen und zu analysieren. So besteht z. B. potenziell die Gefahr, dass KI – unter Verstoß gegen die Datenschutz- und andere Vorschriften der EU – von staatlichen Behörden oder anderen Stellen zur Massenüberwachung oder von Arbeitgebern zur Überwachung des Verhaltens ihrer Angestellten genutzt werden. Durch die Analyse großer Datenmengen und die Feststellung von Verbindungen zwischen ihnen kann KI auch dazu genutzt werden, Daten von Personen gezielt zurückzuverfolgen und zu de-anonymisieren, wodurch neue Risiken für den Schutz personenbezogener Daten entstehen, selbst wenn die Datensätze an sich keine personenbezogenen Daten enthalten. KI wird auch von Online-Mittlern genutzt, um Informationen für ihre Nutzer zu priorisieren und Inhalte zu moderieren. Dabei können die verarbeiteten Daten, die Art und Weise, in der die Anwendungen ausgelegt wurden, und beschränkte Möglichkeiten für ein Eingreifen des Menschen auf Kosten des Rechts auf freie Meinungsäußerung, des Schutzes personenbezogener Daten, der Privatsphäre und politischer Freiheiten gehen.

Netzwerktreffen
16. + 17.11.2023
 
GAT+