Die Schweiz könnte in Ethikfragen den Ton angeben

Getty Images/istockphoto / Peshkova

Aufkeimende Technologien wie künstliche Intelligenz sind nicht reguliert, und es fehlen internationale Standards. Die Schweiz als Demokratie-Vorbild und starker Forschungsstandort könnte im Bereich KI-Ethik eine Vorreiterrolle übernehmen.

Sara Ibrahim

"Künstliche Intelligenz ist entweder das Beste oder das Schlimmste, was der Menschheit jemals passieren wird", sagte einst der bekannte Astrophysiker Stephen Hawking. Seine Aussage zeigt, wie kontrovers selbst in der Wissenschaft das Thema KI diskutiert wird. Viele Menschen fragen sich, welche Rolle schlaue Computersysteme in Zukunft spielen werden und fordern Schutz und Transparenz.

Eine von der Europäischen Kommission eingesetzte Expertengruppe legte Ende 2018 Ethik-Leitlinien vor. Bisher fehlt jedoch eine weltweite Strategie, welche Grundsätze und Regeln hinsichtlich Transparenz, Datenschutz, Fairness und Rechte in Bezug auf künstliche Intelligenz definiert.

In der Schweiz ist das Thema auch aktuell, und der Bundesrat beteiligt sich an Diskussionen auf internationaler Ebene. Die Alpennation wäre prädestiniert, international eine Führungsrolle bei der Erarbeitung einer Strategie einzunehmen: Sie ist politisch neutral, hat eine starke Demokratie und gilt als hochkarätiger KI-Forschungsstandort.

 

Was ist KI?

Es gibt keine einheitliche, weltweit akzeptierte Definition der künstlichen Intelligenz. Sie wird oft in zwei Kategorien unterteilt: die allgemeine künstliche Intelligenz, die darauf abzielt, die kognitiven Fähigkeiten des Menschen eng zu reproduzieren, und die schwache künstliche Intelligenz, die sich auf eine einzige Aufgabe konzentriert, wie Gesichtserkennung, maschinelle Übersetzung oder Inhaltsempfehlungen wie es Youtube für Videos praktiziert.

End of insertion

Durch die Coronavirus-Krise ist die Debatte noch einmal befeuert worden. Es gibt Bedenken im Zusammenhang mit der Verwendung so genannter Contact-Tracing-Apps. Das sind Programme auf dem Smartphone, die dabei helfen, Personen aufzuspüren, die mit einem Infizierten Kontakt hatten. Sie werfen Fragen hinsichtlich Datenschutz und Privatsphäre auf.

Zentral oder dezentral?

Bei der Technologie existieren zwei Ansätze. Im Kern geht es um die Frage, wo die Kennungen der Kontakte mit den Kennungen von Infizierten abgeglichen werden: dezentral auf dem Smartphone oder zentral auf einem Server. 

Die europäische Initiative namens "Pan-European Privacy-Preserving Proximity Tracing" oder kurz PEPP-PT verfolgt einen zentralen Ansatz. Das System löste grosse Bedenken hinsichtlich Transparenz und Governance aus, weshalb er von vielen Staaten, auch der Schweiz, nicht eingeführt worden ist. Kürzlich beschloss Deutschland, aus PEPP-PT auszusteigen.

Stattdessen bevorzugen diese Länder nun die "Schweizer Lösung": Ein dezentrales System namens DP-3T (Decentralized Privacy-Preserving Proximity Tracing), das für den Datenschutz besser geeignet ist.

"Europa hat eine sehr lebhafte Debatte über die Vorzüge des zentralen und dezentralen Ansatzes zum Contact Tracing geführt", erläutert Jim Larus, Dekan der Abteilung Kommunikation und Computerwissenschaften der EPFL Lausanne. Er gehört zu der Gruppe Forschender der EPFL sowie der ETH Zürich, welche gemeinsam mit Kollegen anderer internationaler Spitzenuniversitäten die DP-3T-Technologie entwickelt haben.

"Diese Debatte war sehr wichtig, da sie die Probleme einer breiten Bevölkerung bewusst machte. Sie zeigte auch, wie gross die Besorgnis in Bezug auf solche Apps sind. Die Menschen werden sie nur verwenden, wenn sie nicht das Gefühl haben, dass sie dafür ihre Privatsphäre opfern müssen."

Gemäss einer im April durchgeführten Umfrage sind fast zwei Drittel der Schweizerinnen und Schweizer bereit, ihre Bewegungen per App nachverfolgen zu lassen, um die Corona-Krise einzudämmen. Die DP-3T-App ist am 13. Mai probeweise eingeführt worden, das Parlament erteilte der Regierung Anfang Mai den Auftrag, eine Gesetzesgrundlage zu erarbeiten.

Auch wenn die Schweizer Contact Tracing App weder auf künstlicher Intelligenz basiert noch solche Technologien nutzt: Die Debatte darüber zeigt, wie dringlich die Beantwortung von Fragen zur Ethik und Steuerung von bisher unregulierten neuen Technologien ist.

Der "Schweizer Weg"

Der Bundesrat will die richtigen Bedingungen schaffen, um die digitale Transformation der Gesellschaft zu beschleunigen. Im vergangenen Dezember legte eine Arbeitsgruppe dem Bundesrat einen Bericht mit dem Titel "Herausforderungen der künstlichen Intelligenz" vor. 

Darin steht, dass die Schweiz bereit ist, das Potenzial von KI auszuschöpfen. Die Autoren entschieden sich aber dafür, die ethischen Fragen und die soziale Dimension nicht speziell hervorzuheben und stattdessen auf verschiedene Anwendungsfälle der KI und die sich daraus ergebenden Herausforderungen zu fokussieren.

"Der Bundesrat schreibt keine übergreifende Vision zu Ethik und KI vor. Das wäre mit unseren demokratischen Traditionen unvereinbar", sagt Daniel Egloff, Leiter des Ressorts Innovation beim Staatssekretariat für Bildung, Forschung und Innovation (SBFI) gegenüber swissinfo.ch. 

Egloff ergänzt, dass es auch schwierig sei, absolute ethische Grundsätze festzulegen, da sie sich von einem technologischen Kontext zum anderen ändern könnten. "Eine Vision für ethische KI entsteht in Zusammenarbeit zwischen nationalen und internationalen Interessengruppen, einschliesslich der Öffentlichkeit, und der Bundesrat nimmt eine aktive Rolle in dieser Debatte ein", erklärt er.

Der Bundesrat betont immer wieder, dass er sich international sehr engagiere, wenn es um Diskussionen zu Ethik und Menschenrechte gehe. Botschafter Thomas Schneider, Leiter des Dienstes Internationales im Bundesamt für Kommunikation (Bakom), sagt gegenüber swissinfo.ch, dass die Schweiz in dieser Hinsicht "eines der aktivsten Länder im Europarat, in den Vereinten Nationen und in anderen Foren ist". Er fügt hinzu, dass es denn auch das Bestreben des Bakom und des Departements für auswärtige Angelegenheiten EDA sei, Genf zu einem globalen Zentrum für Technologie-Governance zu machen.


Nur ein weiteres Schlagwort?

Doch wie ist es möglich, zu definieren, ob eine Technologie ethisch oder unethisch ist? Laut Pascal Kaufmann, Neurowissenschaftler und Gründer der Mindfire Foundation, ist das Konzept der Ethik in Bezug auf künstliche Intelligenz wenig sinnvoll. Es sei bloss ein weiteres Schlagwort, sagt er. 

"Es gibt viel Verwirrung beim Thema künstliche Intelligenz. Was viele als KI bezeichnen, hat wenig mit Intelligenz und vielmehr mit Brute-Force-Computing zu tun. Deshalb ist es wenig sinnvoll, über ethische KI zu sprechen", erklärt Kaufmann. "Um ethisch zu sein, muss die KI für die Menschen und nicht für autokratische Regierungen oder für grosse Tech-Unternehmen geschaffen werden. Die Erfindung ethischer Richtlinien bringt uns nicht weiter und hilft uns nicht, entsprechende KI zu kreieren.''

Anna Jobin, Forscherin am Health Ethics and Policy Lab der ETH Zürich, sieht das nicht so. Basierend auf ihrer Forschung ist sie der Ansicht, dass ethische Überlegungen Teil der Entwicklung einer KI sein sollten: "Wir können KI nicht als etwas rein Technologisches behandeln und am Ende etwas Ethik hinzufügen. Stattdessen müssen ethische und soziale Aspekte von Beginn weg betrachtet werden." 

Weil die Auswirkungen der KI auf unser tägliches Leben nur zunehmen würden, so Jobin, müssten Bürger an Debatten über neue Technologien, welche KI einsetzen, beteiligt sein. Und bei Entscheidungen müsse die Zivilgesellschaft mitreden können. Doch auch Jobin sieht Grenzen: Damit ethische Grundsätze erarbeitet werden könnten, sei ethische Regierungsarbeit nötig.

Für Peter Seele, Professor für Wirtschaftsethik an der USI Lugano, besteht der Schlüssel zur Lösung dieser Probleme darin, Wirtschaft, Ethik und Recht auf eine Ebene zu stellen. "Unternehmen fühlen sich von Vorschriften angezogen. Sie brauchen einen rechtlichen Rahmen, um erfolgreich zu sein. Gute Gesetze, die Geschäft und Ethik in Einklang bringen, schaffen das ideale Umfeld für alle Akteure", sagt er. Die Herausforderung bestehe darin, ein Gleichgewicht zwischen diesen drei Säulen zu finden.

Der Schweizer Ansatz beruhe zwar hauptsächlich auf Selbstregulierung, doch "ein Rechtsrahmen würde der Wirtschaft und Gesellschaft einen erheblichen Impuls geben", ist Seele überzeugt.

Bürger behalten Kontrolle über Daten

Bei der Festlegung ethischer Leitlinien in Bezug auf KI, Personendaten und neue Technologien könnte das politische System der Schweiz ein guter Nährboden sein. KI-Fachleute der Schweizerischen Akademie der Technischen Wissenschaften (SATW) erarbeiteten Empfehlungen für eine nationale Strategie im Umgang mit KI.

In ihrem 2019 veröffentlichten Bericht forderten sie den Aufbau einer nationalen Datenplattform, die einer demokratischen Kontrolle unterliegt. Die MIDATA-Genossenschaften für Gesundheitsdaten könnten hierbei als Modell dienen. Das Vertrauen der Gesellschaft in die Technologie müsse gestärkt werden, teilte die SATW mit.

Eine solche Genossenschaft würde die Kontrolle der Bürger über die Verwendung ihrer Daten gewährleisten und als Treuhänder für die Datenerfassung fungieren. Inhaber eines Datenkontos können Mitglieder von MIDATA werden und an Entscheidungsprozessen der Genossenschaft teilnehmen. Sie können auch den selektiven Zugriff auf ihre persönlichen Daten für klinische Studien oder andere medizinische Forschungszwecke ermöglichen.

Die Entstehung eines offenen Datenökosystems, das die Beteiligung der Zivilgesellschaft fördert, sensibilisiert für die Auswirkungen der Verwendung personenbezogener Daten. Es wird zwar argumentiert, dass das dezentrale System die Grundrechte besser schützt als der zentrale Ansatz, aber es existieren auch dort Bedenken, etwa hinsichtlich der Anfälligkeit für Cyberangriffe.

Die Schaffung einer Rechtsgrundlage für KI könnte somit eine öffentliche Debatte über den Einsatz und die Ethik solcher digitaler Systeme auslösen, und davon könnten letztendlich alle profitieren.

Dieser Artikel wurde automatisch aus unserem alten Redaktionssystem auf unsere neue Webseite importiert. Falls Sie auf Darstellungsfehler stossen, bitten wir um Verständnis und einen Hinweis: community-feedback@swissinfo.ch

Diesen Artikel teilen