Navigation

「人工知能は人間の根本的な問題を解決しない」

Keystone

人工知能(AI)の導入による社会改革は、我々の生活にどんな影響を与えるだろう?新型コロナウイルスのパンデミックは、それに対する答えを導き出す手がかりになるとマルクス・クリステン氏は語る。

このコンテンツは 2021/02/07 08:30
Markus Christen、Higgs.ch

コロナ危機は、わずか数週間のうちに世界経済に大きな影響を及ぼした。人工知能(AI)の悲観論者が繰り返し警告してきた「人間の雇用の大崩壊」は、コロナが引き金となり正に現実のものとなった。

もちろん、今回はAI制御のロボットやソフトウェアに労働を取って代わられたわけではない。ウイルスの蔓延を阻止するため、単に多くの人が労働を禁じられただけだ。AIがもたらす労働社会の変革も、ここまで凄まじいスピードでは起こり得ない。

だがコロナ危機はある意味で、AIを広範に使った社会変革がどんな結果をもたらすのかを導き出す手掛かりとなった。それは社会的なコストを伴う「所得構造の大転換」で、大規模な政府の介入につながる可能性がある。しかし我々の労働や暮らしはAIの導入で本当にそこまで変わってしまうのだろうか?

著者紹介

マルクス・クリステン:チューリヒ大学デジタル社会イニシアチブ(DSI)他のサイトへの管理者。DSIのデジタル倫理研究所の責任者も兼任。現在、人工知能とサイバーセキュリティの倫理問題に加え、自律システムと人間の相互作用や、倫理教育におけるコンピュータゲームの活用などを研究する。技術がもたらす可能性やリスクの評価を行う財団「TA-Swiss」が発表した人工知能に関する研究を進める主任研究者3人の1人。

End of insertion

近年激化するAIを巡る議論を詳しく見ると、複雑な図式が浮かび上がるが、突き詰めれば3つの論点に大別できる。第一に、AIが拡大鏡となり、情報技術に求められる要望と不安がこれまで以上に増している点。第二に、AIを導入しても、人間の共存生活を絶えず特徴づけてきた基本的な問題はなくならない点。第三に、この技術を前向きに活用するための原点となるのは、AIの開発そのものではなく、我々人間との相互作用にあるという点だ。

コントロールを失う恐怖

まず1つ目から検証してみよう。情報処理技術は、従来のテクノロジーとは比べものにないほど「ユートピア(理想郷)」と「ディストピア(反理想郷)」の両方の論議を勢いづけてきた。その理由は恐らく、情報を(意識的に)扱う能力と人間の特異性をより強く結びつけて考えるようになったからだろう。そして機械がこの領域に侵入したとき、我々は究極の冒涜を感じると共に、コントロールを失う恐怖を覚える。

しかし、人間がコントロールを失い、将来的には機械が重要な社会的プロセス決定するのではないかという不安は、やや行き過ぎている。なぜならAIシステムを構築するのは人間だからだ。そして人間は、人間の欲望に応じてAIを使う。特定のタスクを解決する能力は、AIの方が人間に勝っているためだ。

例えば自律的なAIでも、きちんと与えられたタスクをこなしているか、未だ人間が定期的にチェックする必要があり、システムの暴走は考えにくい。その一方で、こういった不安から学ぶべき重要な教訓がある。それはAIのディストピア的な利用を防ぐには、テクノロジー自体ではなく、それを利用する人間に目を向けなければならないという点だ。

同じように、AIの理想論も厳しい目で検証する必要がある。近年、あらゆる意思決定がデータに基づいて行われる傾向にあるのは周知の通りだが、その背景には、「決断は常に合理的、客観的、公正に下されるべき」という理想が見え隠れする。人間は、時に非合理的で偏見に満ちた判断を下すためだ。

しかし、膨大なデータを元にAIが導き出す「純粋に合理的な意思決定」が ―データの質とバイアス(偏り)に関する疑問はさておき― 本当に人道的であるかどうかは疑問だ。

例えば、融資の可否を将来的にAIの合理的な判断のみに任せた場合、やはり判断の多様性を失うため、問題が生じる恐れがある。人間は確かに繰り返し誤った判断をするが、それはシステム全体にとって必ずしも悪いことではないのだ。

「公正さ」の異なる解釈

そしてこの結論は、2つ目の点に繋がっている。AIは公正な存在に思われるかもしれないが、人間の意思決定をめぐる根本的な問題を解決するものではない。2016年に大々的に報じられた有名な事例で説明しよう。米企業ノースポイントが開発したAIシステム「コンパス(Compas)」のアルゴリズムが、ある過ちを犯した。

犯罪者の再犯リスクを割り出すこのAIシステムは、米国の裁判官が早期釈放を決定するための判断基準として導入された。しかし調査報道機関プロパブリカがシステムの仕組みを検証した結果、コンパスは人種差別的な予測をしていることが分かった。

事実、コンパスはアフリカ系米国人の再犯率が白人のほぼ2倍であると判断した。「肌の色」はプログラムの判断基準から明らかに除外されていたにも関わらず、だ。同機関は当初、開発者の不注意でアルゴリズムに不具合があったり、暗に人種差別的だったりしたのではないかと予測していたが、それは誤りであることが判明している。

こうして研究者は、予測システムにも根本的な問題が潜んでいることを指摘した。すなわち「公正さ」の解釈は異なるという事実だ。すでに古代の哲学者アリストテレスも、公正さには様々な形態が存在すると認めている。

この公正さに関する解釈を(これも同じく正当な理由から)アルゴリズムに反映した場合、相互に排他的になる可能性がある。不公平の1つの形を除外することは、同時に他の形の不公平につながるためだ。

従って、個々のケースでどの類の公正さが正しいのかという問題は避けて通れない。ここにもう1つの重要な教訓がある。AIは擬似的な客観性を生むこともあり、結局のところ我々はこの根本的な問題から解放されないということだ。

人間と機械の相互作用

とは言え、AIは不安と要望の両方で過大評価されたテクノロジーというわけではない。正に「ディープラーニング」といった新しい形のAIのおかげで、人間は難解な問題にも新たな方法でアプローチできるようになっている。AIは人間とは全く異なる方法で機能し、我々が決して把握しきれない膨大なデータを処理できるため、AIは人間をより聡明にする可能性を秘めている。

このようなシステムはまた、人間が持つ偏見や系統的な誤りに気付かせてくれるかもしれない。AIが我々の姿を映し出す鏡になるのだ。そしてAIは我々に代わって判断を下すのではなく、一種のセカンドオピニオンを示してくれる。

これは特に難しい決断をする際、大きなメリットになる。しかしここでも重要なのは、人間と機械の相互作用を忘れてはいけないという点だ。この相互作用を理解し最適化することが、今後の研究課題になるだろう。

マルクス・クリステン、Higgs.ch

(独語からの翻訳・シュミット一恵)

この記事は、2020年4月15日スイス初の独立系オンライン科学雑誌「Higgs.ch他のサイトへ」に掲載されました。SWI swissinfo.chはHiggsの記事を不定期に配信しています。

※本記事にある見解は筆者のものであり、必ずしもスイスインフォの見解を反映するものではありません。

End of insertion

現在この記事にコメントを残すことはできませんが、swissinfo.ch記者との議論の場はこちらからアクセスしてください。

他のトピックを議論したい、あるいは記事の誤記に関しては、japanese@swissinfo.ch までご連絡ください。

共有する

この記事にコメントする

SWIアカウントをお持ちの方は、当社のウェブサイトにコメントを投稿することができます。

ログインするか、ここで登録してください。