Schwach verkabelt

1989 und die Folgen für unsere Daten

Künstliche Intelligenz, Datenkraken, Privatsphäre: Das digitale Zeitalter durchdringt alle Lebensbereiche, auch die Politik. Welche Rolle der Staat einnimmt, ob und wie viel er regulieren soll – das war nun Thema einer Veranstaltung in Wien, die einen Austausch zwischen Parlament und Wissenschaft intensivieren will. Dass Europa derzeit nur Zuschauer bei einem digitalen Wettrüsten zwischen USA und China ist, liege auch daran, dass „wir unsere Infrastruktur aufgegeben haben“, so die KI-Expertin Yvonne Hofstetter. Als einen der Gründe nennt sie den Fall der Mauer 1989.

„Wir haben sie nicht weiterverfolgt. In den 90er Jahren waren wir gleichauf mit dem Silicon Valley“, sagt Hofstetter im Hinblick auf die heute fehlende Infrastruktur in Europa. Die Essayistin beschäftigt sich seit über zwei Jahrzehnten beruflich mit IT und künstlicher Intelligenz (KI), sie selbst verwendet kein Smartphone – und auch Facebook-Konto hat sie keines. Am Montag war sie Teil einer vom Parlament initiierten Diskussionsrunde im Technischen Museum Wien zum Thema „Wie souverän ist der Souverän im digitalen Zeitalter?“, moderiert von ORF.at-Chefredakteur Gerald Heidegger und ORF-III-Chefredakteurin Ingrid Thurnher.

Die Ursprünge für diese Entwicklung sieht Hofstetter bereits in den 60er Jahren – und verweist auf die militärische Vergangenheit des Internets: Schon früh habe etwa die NASA ihr Forschungszentrum im Silicon Valley im US-Bundesstaat Kalifornien angesiedelt, das Militär habe wesentlich an der Entstehung von Technologien gearbeitet, da seien „viele Staatsgelder hingeflossen.“

„Technologieentwicklung überlassen wir den Amerikanern“

Das Wissen der Militärindustrie sei dann in andere Bereiche getragen worden. Auch in Europa: Durch den Fall der Berliner Mauer habe man die Verteidigungsbudgets eingespart, Beschäftigte hätten einfach „das gesamte Wissen, das sie angesammelt haben, mitgenommen und in anderen Industrien zum Einsatz gebracht“, so Hofstetter.

Gefährdet Digitalisierung die Demokratie?

Wie souverän ist der Staat noch gegenüber den Entwicklungen im digitalen Markt? Muss er zuschauen, wie die großen Firmen ihre Standards setzen? Diese Fragen versuchte eine Diskussion im Technischen Museum in Wien zu klären.

Doch während die USA sich schon früh dazu entschieden haben, auf Digitalisierung zu setzen, haben „wir gesagt: Gut, wir nehmen das Geld nicht nochmal in die Hand, wir pumpen die Gelder in die Sozialsysteme – die Technologieentwicklung überlassen wir den Amerikanern.“ Das schlägt sich heute besonders sichtbar nieder: US-Konzerne sind aus dem Web nicht mehr wegzudenken – und die Daten, die sie sammeln, werden bevorzugt in den USA verarbeitet.

„So funktioniert der Überwachungskapitalismus“

Infrastruktur bedeutet daher nicht nur Rechenzentren – für Sarah Spiekermann-Hoff, Leiterin des Lehrstuhls für Wirtschaftsinformatik und Gesellschaft an der WU Wien, ist auch die Einhaltung des Datenschutzes eine strukturelle Frage: So müsste man die schon existierenden Datenschutzbehörden nicht nur mit entsprechenden Möglichkeiten für Sanktionen ausstatten, sondern auch „verzwanzigfachen“, um ihnen damit zu ermöglichen, Internetriesen wie Google und Facebook zu überprüfen.

Yvonne Hofstetter: „Haben die Technologieentwicklung den USA überlassen“

„Nach 1989 haben wir in Europa die Technologieentwicklung den USA überlassen und uns auf die soziale Frage konzentriert“, konstatiert Yvonne Hofstetter in der Diskussion.

Denn während es im Forschungsbereich kein Problem sei, Daten zu erheben, weil Menschen dafür ihre Zustimmung geben, komme das „in den normalen Abläufen der Digitalisierung“ äußerst selten vor, so Spiekermann-Hoff. „99 Prozent der Daten werden nicht gespendet, sondern gestohlen“, Menschen würden „ellenlangen“ AGB zustimmen, das seien „Unverträge“ – „so funktioniert der Überwachungskapitalismus“. Um das aufzubrechen, müsse man die Datenverarbeitung „nach Hause holen“, so die Informatikerin.

Hinweis

Die Diskussionsrunde ist in voller Länge dann auch in tvthek.ORF.at abrufbar.

„Müssen verlässlich wissen, wo Daten landen“

Ähnlich sieht das auch der Informatiker Christoph Meinel, Geschäftsführer des Hasso-Plattner-Instituts für Digital Engineering – er nennt hier das aktuelle Beispiel Schule im Distance-Learning: Hier gebe es „große Diskussionen“, dass beispielsweise Cloud-Produkte von Microsoft zum Einsatz kommen und damit „alle Daten bei Microsoft landen. Das wird gar nicht reflektiert.“ Man müsse „verlässlich wissen, wo diese Daten landen, wir wissen das im Schulbereich nicht“ – und das gehe weiter in Bereichen wie Gesundheit und E-Government. „Das muss auf heimischen Systemen unter den Regulierungsbedingungen, die bei uns gelten, stattfinden“, so Meinel.

Nationalratspräsident Wolfgang Sobotka (ÖVP) sprach sich für entsprechende Regulierungen aus. „Das Internet war die Freiheit der Ideologie“, doch „jetzt sehen wir die Grenzen“ – entsprechend reagiere man jetzt mit Gesetzen wie jenes zu Hass im Internet. Entscheidend sei einerseits die Frage nach der Haftung, zum anderen, zu welchem Zweck Daten verwendet werden. Allerdings: „Wenn wir jetzt noch Big Data und Künstliche Intelligenz den anderen überlassen, sind wir endgültig zur Rolle der Zuschauer verdonnert“, so Sobotka.

Diskussionsveranstaltung „Künstliche Intelligenz – Gefahren der Demokratie“
Parlamentsdirektion/Johannes Zinner
Christoph Meinel, Sarah Spiekermann-Hoff, Gerald Heidegger, Ingrid Thurnher, Wolfgang Sobotka und Yvonne Hofstetter (v. l. n. r.)

Die Hürden bei künstlicher Intelligenz

Doch gerade dieser Wunsch nach Regulierung sei bei Technologien wie künstlicher Intelligenz schwierig, sagt der Informatiker Meinel: „Es ist schwierig mit der Regulierung, wenn noch etwas im Entstehen ist.“ Er sieht mehrere Gefahren und Probleme: „Wir sollten etwa verstehen, warum die KI zu einem Schluss gelangt“, doch: „Wissen wir von unserem menschlichen Gegenüber, wie Entscheidungen zustande gekommen sind?“ Problematisch sei auch, „mit welchen Daten so eine Maschine lernt“ – daraus könnten etwa rassistische Systeme entstehen.

Hofstetter sagt, dass sie „nicht Technologie an sich regulieren“ würde. Stattdessen gelte es, „Szenarien zu überlegen“, die abfangen, wie Technologie nicht sein sollte. Dabei sei es wichtig, das „Augenmaß beizubehalten“ – auch im Vergleich zu den USA und China. „Die setzen KI ganz anders ein als wir“, etwa zur Kontrolle und auch mit militärischem Fokus. „Das ist der Krieg, den wir zu kämpfen haben.“ Die Frage, die sich dabei stellt: „Wie stellen wir uns auf?“ Regulierung an sich sei jedenfalls keine Hürde: „Als Ingenieur sag ich: Regulierung ist kein Problem.“

Spiekermann-Hoff sieht hier vor allem das Prinzip „Ethics by Design“ als Lösungsansatz. Wenn es darum gehe, „etwas Neues zu bauen“, müsse ganz am Anfang des Innovationsprozesses auch über die Auswirkungen nachgedacht werden. Mit Hilfe von ethischen Verfahren solle ermittelt werden, was schiefgehen könnte, eine Art „Impact Assessment“. Und erst dann „baut man die Technik – nicht agil, sondern systematisch“. Dafür werde gerade auch der erste Standard finalisiert – wie eine ISO9000-Zertifizierung gebe es dann den IEEE-P7000-Standard für ethische Technik.

Expertin für digitale Ethik Sarah Spiekermann-Hoff, Nationalratspräsident Wolfgang Sobotka (ÖVP), Direktor Technisches Museum Wien Peter Aufreiter, Kurator der Ausstellung, Direktor des Hasso-Plattner-Instituts Christoph Meinel, Autorin Yvonne Hofstetter
Parlamentsdirektion/Johannes Zinner
Hofstetter (r.) plädiert dafür, auch im Vergleich mit den USA und China bei KI das „Augenmaß beizubehalten“

„Gesetz bekämpft immer nur Symptome“

Problematisch im Hinblick auf eine Regulierung durch die Politik sieht die Wirtschaftsinformatikerin, dass ein Gesetz „immer nur Symptome bekämpft, wie beim menschlichen Körper“. Dabei gehe es um die Gründe, „was systematisch schiefläuft“. Das sieht auch NR-Präsident Sobotka ähnlich: „Ich gebe Ihnen recht, dass wir immer ein Stück hinterher sind“, verweist aber auch auf Initiativen wie die Technikfolgenabschätzung im Parlament, die Abgeordnete über aktuelle technische Entwicklungen informiert.

Ein Blick in die Zukunft

Umso größer ist die Aufgabe, in die Zukunft zu blicken: Hier überwiegt bei einigen durchaus der positive Blick nach vorn – wenngleich es viele Forderungen gibt. Meinel sagt, er wolle die Potenziale der Technologie in Erinnerung rufen, etwa in der Medizin – „es ist toll“. Nun müsse auch der ethische Anspruch erfüllt werden, um „diese Potenziale weiter erschließen zu können“. Für Sobotka gehe es darum zu fragen: „Wo liegen die Chancen? Wo liegen auch die Gefahren?“ – und dann „die Balance finden“.

Hofstetter und Spiekermann-Hoff zeigen sich zurückhaltender optimistisch. Hofstetter wünsche sich „als Juristin, dass wir über das Ethische hinausgehen“. Sie glaube, dass man bei der Regulierung weiterkommen werde, „auch was KI anbelangt“, etwa im Hinblick auf eine Gefährdungshaftung. Spiekermann-Hoff sieht unterdessen das Aufstreben einer konkreten Technologie bis 2025, nämlich Sprachassistenten. Mit denen werde man sich „perfekt unterhalten“ können.

Doch: „Die werden alle aus US-Datenzentren betrieben, und die Leute werden es lieben – davor habe ich Angst“, so die Wirtschaftsinformatikerin skeptisch. „Darauf sind wir politisch nicht eingestellt, solche Systeme zu kontrollieren.“ Die Frage, ob und wie Regulierung den Drahtseilakt zwischen ungebremster Innovation und Wahrung der höchstpersönlichen Lebensbereiche zustande bringt, wird damit wohl auch die kommenden Jahre einen wesentlichen Aspekt des technischen Fortschritts ausmachen.