スイスの視点を10言語で

AIは(民主的な)制御を超えた

Lê Nguyên Hoang

人工知能(AI)にも航空・製薬・食品業界で導入されているようなガバナンスが必要だと、研究者でサイエンスコミュニケーターのレ・グエン・フアン氏は言う。

3月29日、「大規模AI実験の一時停止」を求める書簡外部リンクが公開され、現在までに学者やテック界のリーダーら約3千人の署名が集まっている。だがこの呼びかけは既に遅すぎる。

この約10年間、目を見張るようなアルゴリズムがものすごい勢いで開発され、ChatGPTやMidJourneyなどのソフトウェアとして大規模展開されてきた。同様のAI技術は、不正検出、採用フィルター、ビデオ監視、顧客サービスなどの形で(その多くに欠点外部リンクバイアス外部リンクがあることが知られているにもかかわらず)市場に広く出回っている。だがおそらくAI技術が最もよく使われている領域はマーケティングだろう。グーグル、TikTok、メタなどテック企業最大手の多くは、その収益のほとんどをターゲティング広告から得ている。一方、ChatGPTの最初の企業顧客は他でもないコカ・コーラだ。既に赤信号を点すべき状況にある。

レ・グエン・フアン(Lê Nguyên Hoang)氏は、サイバーセキュリティのスタートアップ企業「Calicarpa」の共同設立者・最高経営責任者(CEO)、非営利活動組織「Tournesol」の共同設立者・代表。フアン氏のYouTubeチャンネル「Science4All」の再生回数は、2016年開設以来 1800万回を突破した。

加えてアルゴリズムは誤報・偽情報の拡散や偽薬の売り込みに使われ、精神衛生にも悪影響を及ぼす外部リンク違法性のある(奴隷の売買すらある)市場外部リンクの操作にも利用されている。また、国連やアムネスティ・インターナショナルが主張するように、これらは憎悪を膨らませ、民主主義を不安定にし、集団虐殺に加担外部リンクすることさえある。AI技術は国の安全保障を脅かしている。

だがその開発の実態は極めて不透明だ。グーグル、メタ、オープンAIなどが利用しているアルゴリズムの中身を外部から伺い知ることはまずできない。内部の反対勢力さえ排除されてきた。グーグルは社内の倫理チームを解雇したし、メタはresponsible innovation(責任ある変革)と呼ばれる社内チームを解散した。マイクロソフトは、非道徳的かつ不確実な事業の急速展開に対して警告を発した社内倫理チームを解体した。こうして貪欲に利益を追求する企業群が、アルゴリズムを無責任に設計できる世界を巧みに作り上げた。

効果的なAIガバナンスの構築が急務

制御不能になった業界は、ソフトウェア産業が初めてではない。何十年もの間、航空、自動車、製薬、食品、タバコ、建設、エネルギーなどの多くの業界が、未検査の商品を市場に流し続けてきた。その結果、何百万人もの命が犠牲になった。企業の責任が欠如したこのような危機的状況に対して、市民社会はようやく反対の声を上げた。こうして全ての民主主義国家において、厳格な法規制と潤沢な資金を持つ強力な規制当局によって市場が監視されるようになった。同様の監視体制がソフトウェア産業に対しても求められる。

私たちに喫緊に必要なのは、安全かつ倫理的な技術へのシフトを早急に推し進めることだ。人目を引くAI競争のトップに自国が立つことではない。具体的には、スマートグリッド、自動車、航空機、発電所、銀行、データセンター、ソーシャルネットワーク、スマートフォンなどについて、アルゴリズムの華やかさよりもサイバーセキュリティの強化を重視すべきだ。2019年に共著本外部リンクの中で警告したように、もしこれらのアルゴリズムが不安定かつ脆弱であったり、信用できないプロバイダーに委託されていたり、そこに通じるバックドア(他者からのサイバー攻撃が可能な仕掛け)が仕込まれていたり、人権を侵害するようなもの―実際よく見つかる問題だが外部リンク―であったりすれば、私たち全員が大きな危険にさらされることになるだろう。

だが、ソフトウェア業界、アカデミア、現在の法的・経済的インセンティブが、セキュリティ強化への意識の切り替えを大きく阻んでいる。被引用数がトップクラスで最大級の称賛を受け、巨額の研究資金を得ている研究者、高報酬のソフトウェア開発者、成功した企業などが、サイバーセキュリティや倫理を軽視するケースがあまりにも多い。多くの専門家が指摘するように、この状況を変えなければならない。一刻も早く。

おそらく民主主義国家には、他の産業の法規制や検査機関の制定に費やしたような何十年もの時間的余裕はない。派手なアルゴリズムが開発され広がるペースを考えると、残された時間はほんのわずかだろう。私や他のAI研究者らが署名した公開書簡の目的は、この時間を少しでも引き伸ばすことだ。

あなた自身と周りの組織、私たちの機関ができること

現在最も広く利用されるアルゴリズムに民主的な制御を組み込むことは、緊急になすべき壮大で素晴らしい挑戦だ。これを限られた時間でやり遂げるには、多様な才能・専門性と責任感のある大勢の人々の協力が不可欠だ。

まず取り組むべき課題は人々の注意喚起だ。同僚や組織、機関がもっとサイバーセキュリティに関心を持つよう、私たち全員が多大な時間とエネルギー、資金を投入しなければならない。ビッグテックの社員が、自社製品のセキュリティや倫理性を問われないままに、特に大学やメディアなどの組織に招かれたり称賛されたりすることは、もはやあってはならない。同製品がもたらす利益が、その組織に供与される資金となっている場合はなおさらだ。より一般的には、全ての技術的な議論は「何か間違いを犯す可能性があるか?」との自問の上になされるべきだ。

2つ目は制度上の取り組みだ。新たな法律が必要とされる一方、現在の大規模アルゴリズムは、例えば広告を使った詐欺的手段で利益を得るなど、既に現行の法律を犯している可能性が高い。だが今のところ外部からの監視体制が皆無なため、法的措置をとることができない。私たちは政策立案者に対し、オンラインで法律を施行するための十分な資金を持つ規制機関の設置を要求すべきだ。

スイスは往々にして、民主主義の規範の制定において模範的な役割を果たしてきた。その崇高な伝統を発揮する時だ。さらに、Lemanic arc(レマン湖周辺地域)では最近、デジタルトラストとサイバーセキュリティの分野におけるトラストバレーを目指す取り組みを始めた。検査やサイバーセキュリティの組織を強化することは、間違いなく、世界のトラストバレーとなるための重要な活動だ。

3つ目の課題は、現在世界を席巻するアルゴリズムに代わる、民主的に管理された安全なアルゴリズムの設計だ。私はこの5年間、ほとんどの時間をそれに費やしてきた。そのために仲間たちと共に非営利プロジェクト「Tournesol(トゥルネソル)」を立ち上げた。Tournesolでは、コミュニティ参加者による安全かつ公正な投票によって、アルゴリズムの機能が決まる。コミュニティには誰でも参加できる。

私たち全員が一刻も早く情報エコシステムの安全を優先することにシフトすれば、現行の大規模サイバーセキュリティの脆弱性から私たちの社会を守るチャンスもそれだけ早く訪れる。

編集:Sabina Weiss、英語からの翻訳:佐藤寛子

このオピニオン記事は著者の見解であり、swissinfo.chの見解を表すものではありません。

おすすめの記事
オピニオン

おすすめの記事

政府も企業もAI競争を停止する気はない

このコンテンツが公開されたのは、 人工知能(AI)の研究者らが「大規模AI実験」の一時停止を求める中、AI研究者ユルゲン・シュミットフーバー氏は「一時停止は実現しない」と説く。

もっと読む 政府も企業もAI競争を停止する気はない

swissinfo.chの記者との意見交換は、こちらからアクセスしてください。

他のトピックを議論したい、あるいは記事の誤記に関しては、japanese@swissinfo.ch までご連絡ください。

SWI swissinfo.ch スイス公共放送協会の国際部

SWI swissinfo.ch スイス公共放送協会の国際部