Ist KI doch eine Kraft für die Demokratie?
Während in seinem Heimatland grosse Tech-Firmen die KI-Landschaft prägen, schöpft Cybersicherheitsexperte Bruce Schneier mit Blick auf die Schweiz Hoffnung. Optimismus gibt es auch in der Schweiz. Eine Schweizer Expertin ist überzeugt, dass KI Teil der demokratischen Institutionen wird.
«Ist hier jemand aus der Schweiz?» rief Bruce Schneier ins Publikum. Gelegenheit zum Antworten gab es am World Forum for DemocracyExterner Link in Strassburg dann nicht.
Der US-amerikanische Cybersicherheitsexperte Schneier redete dort im November 2025 über KI und Demokratie. Und immer wieder verwies der Dozent der Harvard Kennedy School auf die Schweiz: auf die Idee einer Assisted Democracy, die an der ETH Zürich entstanden ist, aber vor allem auf Apertus, das von der ETH Zürich entwickelte Sprachmodell.
«Ohne Profitinteresse und gestohlene Daten» zeige das KI-Modell aus der Schweiz, dass eine KI für das Gemeinwohl möglich sei.
«Ich glaube, wir haben viele Probleme mit der Demokratie. Es sind keine Probleme, die KI ausgelöst hat. Es sind oft Probleme, die KI verschärft hat», sagt Schneier bei einem Signal-Anruf im Januar 2026. «Die Frage ist: Gibt es Wege, wie wir sie für mehr Demokratie nutzen können? Ich denke, die Antwort ist ja. Aber wir müssen es auch tun.»
Eine gute Prognose für Apertus von Bruce Schneier
Im Time MagazineExterner Link hat Schneier kürzlich den Vergleich zur Eisenbahn im 19. Jahrhundert gemacht: Damals hätten die neuen Eisenbahnrouten in den USA das Potenzial gehabt, «die Getrennten zu verbinden» und den Zugang zur Macht gleichberechtigt zu gestalten – stattdessen machten sie einige Wenige unfassbar reich. «Eisenbahnen sind wie KI heute öffentliche Infrastruktur. Wir nutzen sie alle für etwas anderes. Darum ist Apertus so mächtig, es ist eine Plattform, auf die alle bauen können», erklärt Schneier.
Es sei beispielhaft dafür, dass es die Technologie ohne Konzerne geben kann. «Können wir KI-Modelle haben, die nicht von einem Haufen weisser, männlicher Tech-Milliardäre mit Profitabsicht gebaut worden sind?», fragt Schneier rhetorisch. Ein kleines Land habe gezeigt, wie es machbar ist. «Die Kosten sinken und man wird mehr dieser Modelle sehen», führt er aus. Die einzelnen Sprachmodelle würden dann «weitgehend austauschbar» und entsprechend glaubt er, viele werden offene Modelle wie Apertus oder Sea LionExterner Link aus Singapur nutzen.
Lesen Sie auch unseren Artikel, wo wir die Fakten und Mythen rund um Apertus erklären:
Mehr
Was kann Apertus? Fakten und Mythen über das neue Schweizer KI-Modell
Ob die KI-Dienste dann von Institutionen eingesetzt werden oder aus Bürgerinitiativen entstünden, sei nicht entscheidend für ihre Bedeutung für die Demokratie. Schreibmaschinen würden innerhalb von Institutionen genau eingesetzt wie ausserhalb. «Die Schreibhilfe Grammarly wird genutzt, um Dinge in der Demokratie zu editieren», so Schneier.
Der Frage, ob mangelndes Vertrauen in KI nicht negativ auf die Demokratie abfärben könne, hält er entgegen: «Jeder, den Sie kennen, nutzt KI, um Schritt für Schritt Wegbeschreibungen auf dem Handy zu bekommen», sagt er. Über echtes Vertrauen denke man nicht nach. «Echtes Vertrauen bleibt im Hintergrund», so Schneier.
Pessimismus in der Gegenwart, Optimismus für die Zukunft
Man müsse anschauen, welcher KI man vertraue. «Öffentliches Vertrauen in KI mit gewissen Geschäftsmodellen mag tief sein. Ich würde Facebook bei gar nichts vertrauen. Aber Sie vertrauen der KI, die ihre Röntgenaufnahmen analysiert. Ärztinnen und Ärzte nutzen sie, weil sie es besser kann.» Dies sei der Inbegriff von Vertrauen. «Wenn KI Schlechtes bewirkt, beschuldigt die Konzerne! Gebt nicht der Technologie die Schuld!» Die Ursache liege in Unternehmensentscheiden begründet.
In Strassburg tönte Schneier begeistert. Ebenso lesen sich seine Artikel zur Zukunft im Time MagazineExterner Link. Als er im Mai 2025 vor dem Aufsichtskomitee im US-KongressExterner Link sprach, klang es anders: «Die vorherigen vier Sprechenden behandelten die Versprechen dieser Technologie. Ich möchte über die Folgen für die nationale Sicherheit sprechen, darüber wie unser Land Daten verbindet und sie an KI-Modelle füttert.» Schneier führte aus, wie DOGE-Mitarbeitende der Trump-Regierung Datenbanken absaugen und «sie privaten Firmen wie Palantir» anböten. «Diese Handlungen führen zu irreparablem Schaden für die Sicherheit unseres Landes und die Sicherheit von allen, inklusive allen in diesem Raum, unabhängig von ihrer politischen Zugehörigkeit», erklärte Schneier dort. Wenn Schneier über die Realität der Gegenwart spricht, ist er kritisch. Sein Optimismus ist vor allem ein Appell für die Zukunft.
In der Schweiz, wo Apertus herkommt, ist das Vertrauen in KI in der Bevölkerung durchwachsen. Laut der e-Government-Studie 2025Externer Link wollen 23% der Menschen in der Schweiz KI nur in Ausnahmefällen in der Verwaltung eingesetzt wissen – und 40% nur dort, wo ein eindeutiger Mehrwert besteht. In der Sicherheit 25Externer Link-Studie der ETH Zürich bildet KI das Schlusslicht im Hinblick auf das gesellschaftliche Vertrauen. Der Wert von 4,3 (von 10) ist gegenüber dem Vorjahr noch um 0,3 gesunken.
Demokratische Staaten sollen im KI-Bereich kooperieren
Doch auch hier gibt es vorwärts gerichteten Optimismus. Dirk Helbing, Professor für Computational Social Science an der Universität Zürich, findet: «Der mit Apertus eingeschlagene Weg sollte konsequent weitergegangen werden.» Er könne erweitert werden mit «Suchmaschinen und demokratie-fördernden Plattformen für zivilgesellschaftliche Projekte.»
Apertus könne «vielleicht sogar ein Exportschlager» werden. Helbing glaubt, internationale Kooperationen könnten sich für die Weiterentwicklung von Apertus lohnen. Er empfiehlt im KI-Bereich generell «Kooperationen mit demokratischen Ländern, die sich den Menschenrechten verpflichtet sehen». Als Beispiele nennt er Japan, Südkorea, Taiwan und Indien.
Andererseits könne KI in Diktaturen auch eine auf Massenüberwachung bauende Herrschaft stabilisieren – mit transnationalen Auswirkungen.
Warum KI schlecht für die Demokratie sein kann
Dass es um die Demokratien der Welt nicht gut bestellt sei, habe auch «mit dem Weg zu tun, den die Digitalisierung und KI jüngst genommen» hätten. «Unternehmen möchten grösstmögliche Märkte, aber viele Menschen leben nicht in Demokratien. Die Software, die für autokratische Systeme entwickelt wurde, färbt auch auf jene ab, die hier verwendet wird», so Helbing.
Es sei bekannt, dass Sprachmodelle «uns deutlich effektiver manipulieren können als andere Menschen». Zudem können dieselben Systeme, die «heute in Ordnung sind», morgen schon auf einem anderen Algorithmus basieren.
Helbing führt viele Gründe für Pessimismus auf, aber nennt sich parallel auch «optimistisch», weil «es am Ende gut ausgehen muss, sonst hätten wir es wirklich für eine sehr, sehr lange Zeit vermasselt».
«Leider weniger erforscht» sei, wie Digitalisierung zu «Freiheit, Menschenrechten und Demokratie» beitragen könne. «Zivilgesellschaftliche Initiativen» wie «Open Data, Open Source, Open Access, Hackathons, Maker Spaces und Bürgerwissenschaft sowie partizipatives Budgeting» sollen unterstützt und «Aufklärung über Machtmissbrauch und Missbrauchsmöglichkeiten digitaler Technologien» vorangetrieben werden.
«Alles, was Menschen ermöglicht, sich mehr um ihr eigenes Schicksal zu kümmern, sollte unterstützt werden», fordert Helbing und führt damit ein Leitprinzip der liberalen Gesellschaft ins KI-Zeitalter. Die Wissenschaft könne einen grossen Beitrag leisten, aber Helbing findet, die Politik müsse «endlich» handeln: «Wir Menschen werden zu Datenminen gemacht, unsere Menschenrechte eingeschränkt. Dem muss man entgegenwirken!»
Lesen Sie auch unseren Artikel, wo wir die Idee einer Assisted Democracy erklären, die auch Bruce Schneier erwähnte:
Mehr
«Digitale Bürger» als Idee für die Demokratie in der Schweiz – und überall
Wenn KI Daten sammelt und Biases verbreitet
Das Risiko sieht auch Laetitia Ramelet. Ramelet ist politische Philosophin und befasst sich bei der Schweizer Stiftung TA-Swiss mit den Folgen von Technologie auf die Gesellschaft. KI-Einsatz «zur Analyse unseres Verhaltens und unserer Präferenzen» mache ihr im Hinblick auf die Demokratie gegenwärtig am meisten Sorgen.
Personalisierte Empfehlungen und Inhalte in grossen Mengen können von «Profis, die solche Methoden gut beherrschen», genutzt werden, «um Menschen subtil zu beeinflussen».
Auch in der Gestaltung von Abstimmungs- und Wahlkampagnen wirkt KI aus Ramelets Perspektive bereits direkt auf die Demokratie. «Zwei Dinge kann man jetzt sicher sagen, denn sie sind mehrfach belegt: Schriftliche KI-Outputs können sehr überzeugend wirken – und Überzeugungskraft bewirkt viel in einer Demokratie», erklärt sie.
Die KI-Modelle würden dabei ihre Biases, Verzerrungen und Tendenz zur Uniformierung vervielfachen, zumindest wenn es keine präventive Massnahmen gibt. Ramelet, die sich vertieft mit Deepfakes befasst, sieht natürlich auch die vielen schnell generierten falschen und irreführenden Inhalte als Risiko für die Information und Orientierung in einer Demokratie.
Neben den Wechselwirkungen rechnet Ramelet mit KI-Diensten als Teil der demokratischen Institution. Es gebe «viele laufende Projekte» und «Vorhaben in diesem Sinne». Im Schweizer öffentlichen Sektor zumindest, beobachtet sie, dass Grundrechte, Datenschutz und Kontrolle in diesem Prozess «ernst genommen» würden.
Die gegenwärtige US-Regierung schert sich um solche Dinge nicht. «Ja, die Regierung wird KI weiter nutzen, um die Demokratie abzubauen – weil das ihr Ziel ist», sagt Bruce Schneier. «Und die Leute, die sich ihr entgegenstellen, werden KI für die Demokratie nutzen.» KI ändere nichts am Gleichgewicht. Sie gebe beiden Seiten mehr Macht.
Glauben Sie, dass KI eine Kraft für die Demokratie werden kann? Erzählen Sie es uns:
Mehr
Editiert von Marc Leutenegger
In Übereinstimmung mit den JTI-Standards
Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!
Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch