Nach US-Zahlungsstopp: Bietet KI die Lösung für die Finanzierungsprobleme im humanitären Sektor?
Der Zahlungsstopp der US-Regierung an USAID setzt Hilfsprogramme weltweit unter Druck. Künstliche Intelligenz könnte helfen, die Hilfe effizienter zu gestalten. Doch die Technologie muss umsichtig eingesetzt werden, um unbeabsichtigten Schaden zu vermeiden.
Die jüngste Entscheidung der US-Regierung, USAID zu schliessen, hat zu massiven Finanzierungslücken bei Hilfsprogrammen weltweit geführt. Um die Auswirkungen abzumildern, ist es zentral, innovative technische Lösungen voranzutreiben – darunter auch Künstliche Intelligenz (KI).
Denn KI kann dabei helfen, begrenzte Hilfsbudgets effizienter zu verwalten. Die Tools können humanitäre Krisen genau vorhersagen, den humanitären Bedarf vor Ort schnell analysieren und Tempo und Logistik von Hilfslieferungen verbessern.
Doch der Einsatz von KI birgt auch eine Reihe von Risiken. Die Art und Weise, wie Technologieunternehmen, Regierungen und der humanitäre Sektor mit diesen umgehen, wird darüber entscheiden, wie KI in der humanitären Hilfe künftig eingesetzt wird.
Mehr
Unser Newsletter zur Aussenpolitik
Gefährliche Unterfinanzierung
Im Jahr 2024 stellte USAID mehr als 40%Externer Link der 4,8 Milliarden Dollar an Spendengeldern für das UN-Flüchtlingshilfswerk (UNHCR) bereit. Durch seinen plötzlichen Rückzug sind Flüchtlingslager, humanitäre Hilfe in Konfliktgebieten und schnelle Einsätze bei Umweltkatastrophen gefährlich unterfinanziert.
Auch auf globale Gesundheitsprogramme wirkt sich die Schliessung laut der New York TimesExterner Link aus. Sie gefährdet den Zugang zu HIV-Behandlungen für über 20 Millionen Menschen, darunter 500’000 Kinder. In 50 Ländern wurde die Behandlung in der Folge unterbrochen, meldet die Weltgesundheitsorganisation (WHO).
Hinzu kommt, dass auch Länder wie Deutschland, Frankreich und Grossbritannien ihre Budgets für humanitäre Hilfe gekürzt habenExterner Link, nachdem sich ihre wirtschaftlichen Prioritäten verschoben haben und weil viele von ihnen die Verteidigungsausgaben erhöhten.
Auch in der Schweiz hat das Parlament die Ausgaben für die internationale Zusammenarbeit (IZA) gekürzt. In der Folge droht zahlreichen Programmen der Direktion für Entwicklung und Zusammenarbeit (DEZA) die Schliessung.
Lesen Sie hier, wie die Schweiz in absehbarer Zeit mit einem schrumpfenden Entwicklungshilfebudget zurechtkommen muss:
Mehr
Wo die Schweizer Entwicklungshilfe heute steht
Früherkennung von Katastrophen und Vertreibung
KI könnte helfen, die Folgen abzumindern, indem sie die Effizienz verbessert und die Ressourcenverteilung im humanitären Sektor optimiert. So wie die KI die Produktivität in der Industrie massiv steigert, kann sie die Bereitstellung von Hilfe effizienter machenExterner Link und die Überwachung der Menschenrechte verbessern.
Ein Beispiel für das transformative Potenzial von KI ist der Famine Action Mechanism (FAM)Externer Link, der von der Weltbank in Zusammenarbeit mit Microsoft, Google und Amazon Web Services (AWS) 2018 ins Leben gerufen wurde.
Das Programm nutzt KI-Algorithmen, um Nahrungsmittelknappheit frühzeitig zu erkennen und damit proaktiv Hilfsmassnahmen zur Milderung humanitärer Krisen möglich zu machen.
Auch bei der Überwachung von Menschenrechten wird KI eingesetzt. So setzte das Danish Refugee Council (DRC) 2021 KI ein, um Vertreibungen zu prognostizieren. Es stützte sich dafür auf DatenExterner Link zu Vertreibungen aus den Vorjahren sowie zu vergangenen Konflikten, Klima und der Einhaltung von Menschenrechten.
Westliche Wertedominanz
Doch der Einsatz von KI in kritischen Entscheidungsmomenten, die Auswirkungen auf Menschenleben haben, ist nicht ohne Risiko. Nicht nur hinsichtlich des Datenschutzes und der Transparenz der Modelle. Sondern auch, weil den Algorithmen eine inhärente Voreingenommenheit («inherent bias») zu Grunde liegt.
Zwar werden diese Algorithmen laufend getestet und aktualisiert, um Verzerrungen zu vermindern. Doch gerade beim Einsatz von KI im Umgang mit vulnerablen Gesellschaftsgruppen wie Frauen oder ethnischen Minderheiten ist extreme Vorsicht geboten, um unbeabsichtigte Schäden zu vermeiden.
Eine anhaltende Vernachlässigung historischer Daten, mit denen die Systeme trainiert werden, kann etwa zu Fehlern bei der Verteilung von Katastrophenhilfe für ländliche indigene Gemeinschaften führen.
Doch die Verzerrungen ergeben sich nicht nur aus den Trainingsdaten, sondern auch aus den Design- und Codierungsentscheidungen ihrer Schöpfer:innen. Sie betten zwangsläufig bestimmte Normen, Werte und Perspektiven in die Systeme ein.
Und wie viele andere Branchen ist auch die KI ein Feld des geopolitischen Wettbewerbs, dessen Entwicklung weitgehend von Unternehmen und Einrichtungen aus den Industrieländern dominiert wird.
Diese DominanzExterner Link stellt die Länder des Globalen Südens vor grosse Herausforderungen. Oft fehlt ihnen Infrastruktur, Ressourcen und Fachwissen, um unabhängige KI-Lösungen zu entwickeln. Vor allem aber mangelt es ihnen an qualitativ hochwertigen, repräsentativen DatenExterner Link, die notwendig wären, um KI-Algorithmen überhaupt angemessen zu trainieren.
Die Gefahr dabei ist, dass ausländische KI-Unternehmen durch ihre Dominanz bestimmte Normen, Werte und Perspektiven durchsetzen, ohne lokale Kulturen und regionale Besonderheiten zu berücksichtigen.
Unternehmen aus liberalen, insbesondere westlichen Demokratien, integrieren oft implizit ein westliches Wertesystem (WEIRD – Western, Educated, Industrialized, Rich, and DemocraticExterner Link) in die von ihnen entwickelten KI-Systeme.
Im Gegensatz dazu entwerfen chinesische Unternehmen oft KI-Programme, die staatszentrierter sind bei der Interpretation von Rechten, Regierungsführung oder internationalen Beziehungen.
Lesen Sie in diesem Artikel, wie die Schweiz nach China blickt, um im globalen Wettlauf der KI eine Brücke zwischen Ost und West zu schlagen:
Mehr
Könnte Chinas Umgang mit KI ein Vorbild für die Schweiz sein?
Lokale Lösungen fördern
Das Ende von USAID zeigt anschaulich, wie abhängig die humanitäre Hilfe von ihren Geldgebern, insbesondere der finanziellen Unterstützung der USA ist.
Diese Abhängigkeit wurde häufig dazu genutzt, um politische Prioritäten und kulturelle Normen der Geberländer im globalen Süden zu fördern. Die Einführung von KI-Lösungen könnte solche globalen Machtungleichgewichte weiter verstärken.
Angesichts des drastischen Rückgangs an humanitären Geldern aus dem Westen könnten China und andere globale AkteureExterner Link die Gelegenheit nutzen, um ihre Präsenz in Entwicklungsländern zu verstärken – auch mit der Hilfe von KI.
Neben dem Einsatz traditioneller humanitärer Hilfe könnte zum Beispiel China versuchen, durch den Export seiner KI-Programme die Politik im globalen Süden zu beeinflussen.
Um dieser geopolitischen Dynamik zu entkommen, müssen KI-Modelle mit kulturellem Feingefühl entwickelt und in lokale Werte und Normen eingebunden sein. Oder – noch besser – im globalen Süden selbst mit lokalem Wissen und Talent entwickelt werden.
KI-Lösungen, die den regionalen Kontext ausser Acht lassen, laufen Gefahr, die bisherige Abhängigkeitsdynamik der humanitären Hilfe zu verstärken.
Ein erfolgreiches Beispiel ist Lelapa AIExterner Link. Das südafrikanische KI-Unternehmen hat das erste mehrsprachige Sprachprogramm des Kontinents, InkubaLM, entwickelt.
Das Programm baut auf der Idee, dass afrikanische Sprachen kulturelle und regionale Kontexte beinhalten – ein Aspekt, der bei der Entwicklung von KI sonst oft nicht berücksichtigt wird.
Doch auch grosse Technologieunternehmen erkennen inzwischen diese Notwendigkeit. Im Februar 2025 startete Microsoft beispielsweise eine KI-Tour in LagosExterner Link, Nigeria, um sein Engagement für die Förderung digitaler Kompetenzen zu bewerben.
Ziel der Initiative ist es, bis 2026 einer Million Nigerianer:innen KI-Fachwissen zu vermitteln, damit sie die Technologie in ihre Unternehmen integrieren und ihre KI-Fähigkeiten weiterentwickeln können.
Die Investition in lokal entwickelte KI-Modelle und Fachwissen ist eine kluge Industriepolitik für Technologieunternehmen. Vor Ort entwickelte Systeme lassen sich leichter in lokale Märkte integrieren und spiegeln regionale Normen, Werte und Perspektiven besser wider.
Die Zusammenarbeit zwischen KI-Ingenieur:innen und Menschenrechtsexpert:innen ist der Schlüssel für technische Lösungen, die den lokalen Kontext berücksichtigen.
Gemeinsame Initiativen, etwa zwischen der ETH Zürich und dem IKRKExterner Link, die AI Skills CoalitionExterner Link der Internationalen Fernmeldeunion (ITU) oder die Digitalinitiative zur Überwachung der Menschenrechte der Geneva Human Rights PlatformExterner Link fördern interdisziplinäre Ansätze.
Mit solchen Initiativen soll KI für die humanitäre Hilfe und die Menschenrechtsarbeit nutzbar gemacht werden. Auch der AI for Good Global SummitExterner Link im Juli 2025 verfolgt dieses Ziel: Er bringt zentrale Akteur:innen zusammen, um sicherzustellen, dass KI-Programme dazu eingesetzt werden, Ungleichheit bekämpfen und Lösungen für die Einhaltung der Menschenrechte zu überwachenExterner Link.
Übertragung aus dem Englischen: Meret Michel/me
Mehr
        In Übereinstimmung mit den JTI-Standards
Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!
Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch