Станет ли (швейцарский) ИИ фактором укрепления демократии?
В США развитие искусственного интеллекта во многом определяется интересами крупных технологических корпораций. В Швейцарии картина выглядит иначе — и именно это даёт американскому эксперту по вопросам кибербезопасности Брюсу Шнайеру основания для осторожного оптимизма. Схожие ожидания существуют и в самой Швейцарии, многие швейцарские эксперты убеждены, что со временем искусственный интеллект станет логичным элементом демократических процессов, структур и институтов.
«Есть здесь кто-нибудь из Швейцарии?» — Брюс Шнайер (Bruce Schneier) задал свой вопрос в зал, но ответить ему никто не успел: на Всемирном форуме демократии в СтрасбургеВнешняя ссылка времени на реплики из аудитории уже не осталось. В ноябре 2025 года этот американский эксперт по кибербезопасности выступал на Форуме с докладом об искусственном интеллекте и демократии постоянно, снова и снова, возвращаясь к Швейцарии, развивая идею так называемой assisted democracy, изначально разработанную в Цюрихской ВТШ (ETH Zürich), и апеллируя к Apertus, большой языковой модели, также созданной в Швейцарии.
Уже не научная фантастика
С ним мы об этом и многом другом поговорили в мессенджере Signal в январе 2026 года. По словам Брюса Шнайера, швейцарский вариант искусственного интеллекта четко демонстрирует, что такая технология, созданная «без ориентации на прибыль и без украденных данных», вполне возможна, и, следовательно, искусственный интеллект, работающий в интересах общественного блага, также не является научной фантастикой. Брюс Шнайер преподаёт в престижной Harvard Kennedy School и входит в совет директоров фонда Electronic Frontier Foundation.
В 2025 году он вместе с Натаном И. Сандерсом (Nathan E. Saunders) опубликовал монографию Rewiring Democracy: How AI Will Transform Our Politics, Government, and CitizenshipВнешняя ссылка («Перезагрузка демократии: как ИИ трансформирует наше понимание политики, управления и гражданских прав», неоф. пер. ред. рус.). «У демократии сегодня множество проблем. Это не проблемы, порожденные искусственным интеллектом, но это проблемы, многие из которых ИИ усугубил », — говорит Брюс Шнайер. «Вопрос в другом: можем ли мы использовать ИИ для того, чтобы демократии стало больше? Я думаю, что да. Но просто мочь недостаточно — нужны реальные шаги».
Недавно в своей статье, опубликованной в журнале Time MagazineВнешняя ссылка, Брюс Шнайер провёл историческую параллель между ИИ в 21 веке и железными дорогами в 19 веке. В США в тот исторический период железные дороги, как он считает, имели потенциал «соединить разобщённых» и обеспечить более равный доступ людей к власти, но в итоге они сделали невероятно богатыми лишь очень немногих: «Железные дороги — как и искусственный интеллект сегодня — это общественная инфраструктура. Все используют её по-разному. Именно поэтому так важна модель Apertus: это платформа, на основе которой могут работать все». Этот пример, считает Брюс Шнайер, показывает, что технологии могут существовать и вне сферы, находящейся под контролем крупных корпораций.
А также по теме:
Показать больше
Факты и мифы о швейцарской лингвистической модели Apertus
«Можем ли мы создавать модели ИИ, которые не разрабатываются горсткой белых мужчин-миллиардеров, ориентированных исключительно на прибыль?» — задает он риторический вопрос и сам же на него и отвечает, да, одно небольшое государство в Альпах уже на деле продемонстрировало, что это возможно. «Затраты снижаются, таких моделей будет становиться всё больше, по мере снижения технических издержек и распространения технологий языковые модели будут различаться всё меньше в плане их базового функционала, так что решающим фактором станет не их происхождение, а то, в каких институциональных и политических рамках они используются. Поэтому применение открытых решений, таких как ApertusВнешняя ссылка или сингапурская модель Sea LionВнешняя ссылка, будет становиться все более частным явлением».
Будут ли такие ИИ-сервисы внедряться государственными институтами или возникать в рамках гражданских инициатив? Это, по мнению Брюса Шнайера, уже не принципиально, особенно в демократическом контексте: Пишущие машинки, напоминает он, тоже в свое время использовались одинаково как самими общественными структурами и институтами, так и всеми игроками и участниками рынка за их пределами, а сегодня такую же роль играет программа GrammarlyВнешняя ссылка. Но не приведет ли общее недоверие к искусственному интеллекту к подрыву основ демократии? На этот вопрос он отвечает просто: «Каждый, кого вы знаете, применяет ИИ, например, пользуясь навигатором в своём смартфоне. О доверии в таких случаях никто не размышляет. Подлинное доверие превращается в своего рода фон».
Пессимизм в настоящем, оптимизм на будущее
По мнению Брюса Шнайера, прежде всего необходимо задаться вопросом, а какому именно искусственному интеллекту мы доверяем. «Общественное доверие к ИИ, основанному на определённых бизнес-моделях, может быть крайне низким. Я, например, не доверял бы сети Facebook вообще ни в чём. Но вы доверяете ИИ, который анализирует ваши рентгеновские снимки. Врачи сами используют его, потому что он делает это лучше их», — говорит Брюс Шнайер. По его словам, это и есть квинтэссенция доверия: «Если ИИ причиняет вред, то обвиняйте в этом корпорации. Не возлагайте вину на саму технологию»! Причины всех проблем, по его мнению, находятся в корпоративных управленческих решениях.
В Страсбурге на Форуме Брюс Шнайер выступал с заразительным энтузиазмом. В том же ключе написаны и его футурологические тексты в журнале Time Magazine. Однако, когда в мае 2025 года он выступал перед Комитетом Палаты представителей США по надзору за деятельностью правительства и правительственной реформеВнешняя ссылка, его тон был уже иным. «Четверо предыдущих выступающих говорили о перспективах этой технологии. Я хочу поговорить о последствиях применения ИИ для национальной безопасности — о том, как наша страна собирает данные и „скармливает“ их моделям искусственного интеллекта», — заявил тогда Брюс Шнайер. Он подробно описал, как сотрудники Департамента эффективности правительства США (Department of Government Efficiency, DOGE) при администрации Дональда Трампа выкачивают данные из открытых баз данных и «предлагают их частным компаниям, таким как компания Palantir».
А также читайте по теме:
Показать больше
«Цифровые аватары-двойники»: идея для демократии в Швейцарии и не только
«Эти действия наносят непоправимый ущерб безопасности нашей страны и безопасности всех и каждого, включая всех, кто находится в этом зале, независимо от политической ориентации», — заявил тогда Брюс Шнайер. Тем самым, рассуждая о реалиях настоящего, он придерживается критического тона. Его оптимизм — это прежде всего обращение к будущему. В Швейцарии, на родине большой языковой модели Apertus, общество относится к искусственному интеллекту неоднозначно. Согласно исследованию e-Government-Studie от 2025 года, 23% жителей Швейцарии считают, что ИИ в сфере общественного управления допустим лишь в исключительных случаях, а 40% — он допустим только там, где он обеспечивает однозначный дополнительный позитивный эффект.
«Идти путем, намеченным Apertus»
В исследовании Sicherheit 25 («Безопасность-2025»), Внешняя ссылкапроведенном экспертами Высшей технической школы Цюриха (ETH Zürich) искусственный интеллект по уровню общественного доверия к нему занимает самое последнее место, имея показатель в 4,3 балла из 10 возможных (снижение по сравнению с предыдущим 2024 годом на 0,3 пункта). Тем не менее и довольно громко звучат оптимистические голоса, ориентированные, правда, прежде всего на будущее. Дирк Хельбинг (Dirk Helbing), специалист в области вычислительных социальных наук и теории коммуникаций (Computational Social Science) Цюрихского университета (Universität Zürich), считает: «Нам следует, не сворачивая, идти путем, выбранным вместе с моделью Apertus, которую можно будет расширять за счёт платформ, способствующих укреплению демократии и поддерживающих гражданское общество».
Модель Apertus, по мнению Дирка Хельбинга, «возможно, даже может стать однажды настоящим экспортным шлягером». Он полагает, что для дальнейшего развития Apertus может оказаться очень полезной кооперация с демократическими странами, отстаивающими на деле права человека и гражданина, с такими, как Япония, Южная Корея, Тайвань и Индия». В то же время «в странах с диктаторскими режимами искусственный интеллект может стать основанным на массовой слежке инструментом стабилизации власти, причем последствия применения таких инструментов будут иметь последствия, выходящие далеко за пределы этих стран».
Тот факт, что демократии в мире сегодня переживают кризис, связан, по словам Дирка Хельбинга, в том числе с форматом, которых происходит цифровая революция с опорой на ИИ: «Компании стремятся завоевать себе максимальную долю рынка, в том числе и в тех странах, где люди живут не при демократиях, а наоборот. Программное обеспечение, разработанное для автократов, затем оказывает влияние и на технологии, используемые в демократических странах». Известно также, по его словам, что языковые модели «способны манипулировать нами значительно эффективнее, чем даже другие люди. Кроме того, все постоянно меняется и развивается, так что системы, которые еще сегодня работали на приемлемых алгоритмах, завтра могут уже работать на совсем иной основе.
Дирк Хельбинг перечисляет еще много оснований для пессимизма, но одновременно он называет себя оптимистом, в том числе и потому, что то, каким образом цифровая революция будет влиять на политическую свободу, права человека и демократию, исследовано еще в совершенно недостаточной степени. Пока же следует поддерживать, в том числе и при помощи ИИ, те уже появившиеся в рамках гражданского общества форматы, которые он рассматривает в качестве форматов „на вырост“: это и банки данных Open Data, ПО в формате Open Source и Open Access, это и некогда популярные хакатоны, и самые разные формы участия граждан в формировании локальных бюджетов. Не последнюю роль, по его мнению, играют образование и просвещение, которые помогает лучше понимать, каким образом функционирует злоупотребление властными полномочиями, и какую роль при этом играет потенциал цифровых технологий».
Больше возможностей всем сторонам
Такую оценку ситуации разделяет и Летиция Рамле (Laetitia Ramelet), политический философ, работающая в швейцарском близком к правительству фонде Stiftung für Technologiefolgen-Abschätzung (TA-Swiss), занимающемся анализом общественных последствий применения передовых технологий. Наибольшие опасения с точки зрения демократии вызывают у нее сегодня применение ИИ «для анализа нашего социального поведения и наших предпочтений». Персонализированные рекомендации и таргетированный контент могут использоваться «профессионалами, хорошо владеющими этими методами, для оказания на людей незаметного влияния». С точки зрения Летиции Рамле искусственный интеллект уже напрямую воздействует на демократию, в том числе в рамках разработки предвыборных кампаний.
«Две вещи можно утверждать наверняка, поскольку они уже многократно подтверждены на практике: тексты, созданные ИИ, могут быть чрезвычайно убедительными, а логическая убедительность при демократии играет очень важную роль. При этом разные модели ИИ склонны воспроизводить и усиливать предвзятость и предрассудки, по крайней мере, если в этой сфере не предприняты какие-то профилактические меры в превентивном порядке». Так называемые дипфейки, сгенерированные ИИ видеоматериалы, по ее словам, представляют собой особый риск. Тем не менее и Летиция Рамле также рассматривает сервисы на основе ИИ в качестве будущего элемента демократических процессов и институтов.
По её словам, в этом направлении делается уже довольно много, в частности, в органах общественного управления федерального, кантонального и коммунального уровней. Там, как отмечает Летиция Рамле, очень «серьёзно относятся» к защите основных прав и свобод граждан, а также к охране персональных данных от несанкционированного доступа и к соответствующим механизмам контроля и учета. Как заключает Брюс Шнайер с оглядкой на нынешние США, искусственный интеллект не меняет баланса сил в противостоянии тех, кто хочет развивать демократию, и тех, кто хочет сворачивать ее — он лишь даёт больше возможностей обеим сторонам.
Примите участие в наших дебатах:
Показать больше
Русскоязычная версия материала создана с использованием искусственного интеллекта, затем адаптирована для целевой аудитории и прошла тщательную редакционную обработку и проверку журналистами SWI swissinfo.ch (ИП / НК / АП).
Показать больше
Наша рассылка на тему демократии
В соответствии со стандартами JTI
Показать больше: Сертификат по нормам JTI для портала SWI swissinfo.ch
Обзор текущих дебатов с нашими журналистами можно найти здесь. Пожалуйста, присоединяйтесь к нам!
Если вы хотите начать разговор на тему, поднятую в этой статье, или хотите сообщить о фактических ошибках, напишите нам по адресу russian@swissinfo.ch.