Navigation

Wissenschaft

Die Maschine und die Moral

Die digitalen, vernetzten Technologien bergen grosse Chancen für Wirtschaft und Gesellschaft, werfen aber ethische Probleme auf, etwa bei der Gesichtserkennung. Die Schweiz, die im Bereich Künstliche Intelligenz zu den führenden Nationen gehört, ist gefordert.

Dieser Inhalt wurde am 31. März 2021 - 11:00 publiziert
Luigi Olivadoti (Illustration)

Arbeitsplatzverlust wegen Automatisierung, Entstehung von Filterblasen, Datenschutz, Gesichtserkennung, Deepfake-Videos, Cybersicherheit und Missbrauch von KI-Technologien: Die Digitalisierung hat eine historisch beispiellose Zahl neuer ethischer Herausforderungen gebracht.

Was alles geschehen könnte, sollte KI in die falschen Hände geraten, mag man sich erst gar nicht ausmalen. Die Nationen der Welt sind sich beispielsweise weiterhin uneins, ob es strikte Regeln für Killerroboter braucht. Wochenlange Gespräche in den Gremien der Vereinten Nationen in Genf blieben weitgehend ergebnislos.

Zwar existieren derzeit noch keine solchen vollautonomen Waffen. Aber gemäss Aktivistinnen und Aktivisten könnten sie angesichts der raschen Fortschritte und hohen Ausgaben im Bereich der Künstlichen Intelligenz und anderer Schlüsseltechnologien in wenigen Jahren im Kampf eingesetzt werden.

Die Schweiz gehört mit zu den führenden Ländern bei der Entwicklung von KI. Unter Künstlicher Intelligenz oder Artificial Intelligence (AI) versteht man eine Software, die lernt, wie ein Mensch zu denken und zu entscheiden. Dabei basiert der Lernprozess auf der Verarbeitung grosser Datenmengen.

Zahlreiche Startups in der Schweiz entwickeln solche lernfähigen Systeme – sei es in Form von Robotern, Apps oder digitalen Assistenten –, die dank Big Data unser Leben erleichtern sollen. Dabei sind diese Unternehmen ständig mit Fragen der Ethik konfrontiert. Das unterschwellige Dilemma: Ein Unternehmen will primär Technologien verkaufen, wo soll es die rote Linie ziehen?

Besonders augenfällig wird diese Problematik an der Schnittstelle zwischen Forschung und konkreter Anwendung. So sind Schweizer Universitäten auch an Projekten beteiligt, die durch das US-Militär finanziert werden. Von Luftraum-Überwachungskameras bis zu autonom gesteuerten Aufklärungsdrohnen.

Schweiz bringt sich in Stellung

Die Schweiz will bei den ethischen Standards im Zusammenhang mit KI eine Vorreiterin sein. Wo aber kann sie ansetzen beim Versuch, die angestrebte Vorreiter-Rolle einzunehmen? Ein Versuch ist das Swiss Digital Trust Label, mit dem das Vertrauen der Nutzerinnen und Nutzer in neue Technologien gestärkt werden soll. Die Idee dahinter ist, mehr Informationen über digitale Dienste zu vermitteln, Transparenz zu schaffen und die Achtung ethischer Werte zu gewährleisten.

"Gleichzeitig soll das Label dazu beitragen, dass ethisches und verantwortungsbewusstes Verhalten auch zu einem Wettbewerbsvorteil für Unternehmen wird", sagt Niniane Paeffgen, Direktorin der Swiss Digital Initiative, die hinter dem Swiss Digital Trust Label steht.

Dass es Regeln braucht und klare Definitionen, wo die ethischen Grenzen liegen, darüber gibt es einen grossen Konsens. Der Bundesrat hat dazu die interdepartementale Arbeitsgruppe "Künstliche Intelligenz" ins Leben gerufen. Ende November 2020 verabschiedete er Leitlinien "Künstliche Intelligenz"Externer Link für die Bundesverwaltung.

"Für die Schweiz ist es wichtig, die Potenziale, die sich durch die neuen Möglichkeiten der KI ergeben, zu nutzen", heisst es im Bericht der Arbeitsgruppe an den BundesratExterner Link. "Dazu gilt es, bestmögliche Rahmenbedingungen zu gewährleisten, damit sich die Schweiz als einer der weltweit führenden innovativen Standorte für Forschung, Entwicklung und Anwendung von KI etablieren und weiterentwickeln kann. Gleichzeitig gilt es auch, die mit der Anwendung von KI verbundenen Risiken zu adressieren und rechtzeitig Massnahmen zu ergreifen."

Unterschiedliche Moralvorstellungen

Von vielen Seiten wird ein global verbindlicher Standard gefordert. So setzt sich auch das Europäische ParlamentExterner Link intensiv mit der Frage der Chancen und Risiken von KI auseinander. Und eine Expertengruppe der Europäischen Kommission legte Ende 2018 Ethik-LeitlinienExterner Link vor.

Insgesamt gibt es bereits zahlreiche solche Leitlinien und Stellungnahmen. Eine systematische Analyse des Health Ethics and Policy Lab der Eidgenössischen Technische Hochschule Zürich (ETH) ergab jedoch, dass in 84 einschlägigen Dokumenten kein einziges gemeinsames ethisches Prinzip zu finden war.

Angesichts der grossen Unterschiede zwischen den ethischen Grundwerten, die in einzelnen Staaten gelten, ist höchst ungewiss, ob es im internationalen Kontext je zu einer einheitlichen KI-Regelung kommen kann. Immerhin wurden in mehr als der Hälfte der Erklärungen fünf grundsätzliche Werte erwähnt: Transparenz, Gerechtigkeit und Fairness, Verhindern von Schaden, Verantwortung, Datenschutz und Privatsphäre.

Diese Diskussion scheint auch bei Tech-Riesen wie Google hitzig geführt zu werden. So entliess der Konzern kürzlich zwei Ethikexpertinnen im Streit. Dieser Entscheid stellt in Frage, ob ein Moralkodex rund um KI wirklich zu den obersten Prioritäten der technologischen Grossunternehmen gehört.

Zumindest auf europäische Moralwerte setzen will nun ein neues KI-Zentrum an der ETH. In diesem Zentrum soll die KI-Forschung der gesamten Hochschule gebündelt werden. Dabei soll der Mensch im Zentrum stehen, wie der Leiter Alexander Ilic im Interview sagt.

"Der Mensch, der etwas Neues entwirft, trägt auch eine gewisse Verantwortung. Darum ist es uns wichtig, diesen Dialog mitzuprägen und unsere europäischen Werte in die Entwicklung von KI-Anwendungen einfliessen zu lassen", sagt Ilic.

Das wohl wichtigste Argument für den Einsatz künstlicher Intelligenz ist, dass sie unser Leben vereinfachen kann. Hauptsächlich, indem ihre Systeme uns helfen, Zeit zu sparen. Im besten Fall kann KI sogar Menschenleben retten, zum Beispiel in Kombination mit einer Rettungsdrohne, die in engsten Verhältnissen arbeiten kann.

Ausserdem schätzt der Think Tank des Europäischen Parlaments, dass KI bis 2030 zwischen 1,5 bis 4% des Beitrags zur Verringerung der globalen Treibhausgas-Emissionen leisten kann. Das wäre grob geschätzt etwa so viel, wie der gesamte Flugverkehr verursacht.

"Die Herausforderungen für die Transformation der Systeme in den Bereichen Energieversorgung, Ernährung, Wohnen und Mobilität sind gross", schreibt die KI-Arbeitsgruppe des Bundes. Sie glaubt, KI werde "als Schlüsseltechnologie eine wichtige Rolle spielen, um diesen Herausforderungen zu begegnen".

Wegen der Coronavirus-Pandemie wurden zahlreiche Dienstleistungen quasi über Nacht digital verwandelt. Das führte zu einem regelrechten Boost von KI im Alltag. Zum Beispiel beim Einsatz von Robotern zur Desinfektion von Räumen in öffentlichen Gebäuden wie Schulen und Krankenhäusern.

Angst um Jobs

Viele Menschen aber stehen der KI kritisch gegenüber. So sagte der weltbekannte Astrophysiker Stephen Hawking: "Künstliche Intelligenz ist entweder das Beste oder das Schlimmste, was der Menschheit jemals passieren wird." KI und Roboter könnten nicht nur Jobs, sondern auch die Menschen an sich gefährden, befürchten Kritiker der so genannten "Killer-Roboter".

Auch in der Gesellschaft wächst die Skepsis. Die Industrie befindet sich bereits mitten in einer Revolution: Big Data, künstliche Intelligenz, das Internet der Dinge, 3D-Drucker verändern die Anforderungen an Arbeitnehmende. Einfache Arbeiten werden immer häufiger an Maschinen delegiert.

Es wird deshalb erwartet, dass die Nutzung von KI am Arbeitsplatz eher früher als später zur Wegrationalisierung von Arbeitsplätzen führen wird. Denn wie die Forschung zeigt, können mehr als die Hälfte der gegenwärtig von Menschen erledigten Arbeiten schneller und effizienter von automatisierten Systemen ausgeführt werden.

Der Schweizer Forscher Xavier Oberson schlägt deshalb vor, Roboter zu besteuern, wenn diese eine Arbeit übernehmen, die traditionell von Menschen erbracht wird. Die Einnahmen einer solchen Robotersteuer sollten in die Finanzierung des Sozialversicherungs-Systems und die Ausbildung von Arbeitslosen investiert werden, meint er.

Und wo bleiben in dieser ganzen Diskussion die Konsumentinnen und Konsumenten? Sie zeigen sich häufiger skeptisch gegenüber KI-Anwendungen. Gemäss StudienExterner Link sorgen sie sich aber nicht primär darum, dass KI die Menschheit auslöschen oder kontrollieren könnte, sondern eher darum, dass ihre Daten sicher sind. Deshalb stehen Hersteller zunehmend unter dem Druck, ihre Technologie gegenüber den Nutzerinnen und Nutzern transparent zu machen.

Experte Alexander Ilic nennt dazu ein Beispiel aus den Zielen seines KI-Zentrums: "Wir wollen im Dialog mit der Öffentlichkeit zeigen, was die KI tatsächlich bewirken kann. Dazu gibt es viele greifbare Beispiele. Gerade was im Bereich Medizin und digitale Gesundheit passiert, betrifft alle Leute, ist leicht verständlich und bringt viele positive Veränderungen mit. Wir wollen aber auch aufzeigen, dass die Künstliche Intelligenz Menschen unterstützt, nicht ersetzt."

Diesen Artikel teilen

Diskutieren Sie mit!

Mit einem SWI-Account erhalten Sie die Möglichkeit, Kommentare auf unserer Webseite sowie in der SWI plus App zu erfassen.

Login oder registrieren Sie sich hier.