starthome-logo 無料ゲーム
starthome-logo

自動運転AIの道徳的判断のトレーニングに「トロッコ問題」は役に立つのか?


現在、世界中で「自動運転車」の開発が進められています。

しかし、人間のドライバーに代わって、走行中に適切な判断を下せるシステムを作り上げるのは簡単ではありません。

特に問題となるのが、道徳的な判断をどの様に下すかという問題です。

例えば、人を轢きそうな危機的状況でハンドルをきる場合、歩道に向けてきるか、対向車線へきるか、ブレーキのみにするか、どう判断すればよいでしょうか?

こうしたAIの道徳判断には、有名なトロッコ問題が利用できるという研究者もいます。しかしそれは実際役に立つのでしょうか?

アメリカ、ノースカロライナ州立大学(NC State)哲学・宗教学部に所属するダリオ・チェッキーニ氏ら研究チームは、AI(自動運転システム)がより道徳的な判断を下せるようトレーニングするための新しい実験を開発しました。

しかし、彼らはこのトレーニングに人々の道徳観を明らかにする思考実験「トロッコ問題」はあえて採用しませんでした。

彼らによると、「トロッコ問題」は自動運転車の判断能力を向上させるのに、不適切なのです。

研究の詳細は、2023年11月29日付の学術誌『AI &Society』に掲載されました。

目次

  • 人々の道徳観を明らかにする「トロッコ問題」
  • トロッコ問題は現実的ではなく、その結果はドライバーの道徳的な判断を反映していない
  • ドライバーの道徳的な判断が反映される「交通問題」を開発

人々の道徳観を明らかにする「トロッコ問題」

トロッコ問題とは、「ある人を助けるために他の人を犠牲にすることは許されるか?」という倫理を扱う思考実験の1つです。

例えば、次のようなストーリーが提示され、多くの回答者を悩ませてきました。

トロッコ問題のイメージ
トロッコ問題のイメージ / Credit:McGeddon(Wikipedia)_トロッコ問題

制御不能になったトロッコが線路の上を走っている。

このままでは前方の5人の作業員がひき殺される。

あなたの近くには進行方向を切り替えるレバーがあるが、レバーを切り替えると、その先の線路にいる1人の作業員をひいてしまう。

あなたはレバーを切り替えるか?

もしレバーを引けば5人の命を救うことは出来ますが、あなたには自分の手で1人を殺したという責任がのしかかることになります。

もちろんこれは事故なのだから、何もせずに見過ごしたとしてもあなたに責任は無いはずです。しかしレバーを引かなかった場合、あなたは救える5人の命を見捨てたという後悔に苛まれるかもしれません。

トロッコ問題に関しては、線路に石を置いて電車を脱線されば全員救えるとか、頓知の問題にしてしまう人を多く見かけますが、これはトロッコを止めるための頓知をしているわけではありません。

5人を助けるために1人を殺してもよいのか」という人間の道徳観を調べています。正解があるわけではなく、こういう状況に対してどういう判断を下す人が多いかを見ることがトロッコ問題の目的です。

そのため何かしら理由をつけてトロッコ問題の回答自体を拒否する人が多いという事実は、犠牲と責任が伴う局面で人間が自分の意志で判断を下すことがいかに難しいかを示していると言えるでしょう。

このトロッコ問題には、犠牲者の条件を変えたさまざまな亜種の思考実験も存在します。

その中には、人数を比較する以外の要素が含まれます。例えば次のような問題があります。

男性と女性のどちらをトロッコでひくか

イヌと人間のどちらをトロッコでひくか

子供と高齢者のどちらをトロッコでひくか

大切な友人と見知らぬ人のどちらをトロッコでひくか

また、トロッコではなく、回答者を車のドライバーと想定し、衝突が避けられない状況で2択を選択させる問題もあります。

急に飛び出した歩行者に突っ込むか、ハンドルを切って交通ルールを守っている歩行者に突っ込むか

歩行者に突っ込むか、それともハンドルを切って対向車に突っ込むか

ドライバー版「トロッコ問題」
ドライバー版「トロッコ問題」 / Credit:Canva

さきほども言った通り、このようなトロッコ問題には「正解」は存在しません。

トロッコ問題とは、「回答者の道徳観の傾向を明らかにする」ためのものであり、決して「命を効率的に救うための問題」でも「どちらかの選択の正当性を評価する問題」でもないのです。

実際、トロッコ問題で人々がどのような判断を下すかは、育った国・文化・宗教によって、大きく異なります。

とはいえ、トロッコ問題が「人間の判断の傾向を明らかにするもの」であることには変わりありません。

一方、現実世界のドライバーたちの判断にも、特定の傾向があるはずです。

そのためトロッコ問題は、人間レベルの自動運転システムの開発を目指すうえで、「AIの判断基準をどのように設計するか」という問題と関連しているように思えます。

チェッキーニ氏も、「近年、トロッコ問題は交通における道徳的判断を研究するためのパラダイム(典型的な例、モデル)として利用されています」と述べました。

では、AI(自動運転システム)の判断能力を向上させるために、トロッコ問題が本当に役立つのでしょうか。

トロッコ問題は現実的ではなく、その結果はドライバーの道徳的な判断を反映していない

AIに人間のドライバーのような判断能力を持たせるためには、膨大なデータを与えてトレーニングする必要があります。

では、多くの人にトロッコ問題を行わせて、その判断結果を用いてAIをトレーニングするなら、AIの判断能力は向上するのでしょうか?

チェッキーニ氏ら研究チームは、「そうはならない」と主張しています。

なぜなら、トロッコ問題の結果は、人々の差別的な考えを反映している可能性があるからです。

トロッコ問題は2択であり、必ず誰かを優先する。回答結果は、地域や文化、宗教の影響を受けるため、その中に含まれる差別的な考えを排除しきれない
トロッコ問題は2択であり、必ず誰かを優先する。回答結果は、地域や文化、宗教の影響を受けるため、その中に含まれる差別的な考えを排除しきれない / Credit:Canva

例えば、ある種のトロッコ問題では「男か女か」「子供か高齢者か」を必ず選ばなければいけません。

これらの結果の傾向は時代や地域で異なります。

そして実験を行った時代特有の、もしくは地域特有の偏見や差別的な考えを排除しきれないのです。

また、トロッコ問題を用いるべきでない別の理由として、トロッコ問題には「生態学的妥当性」が欠如しているという点が挙げられるようです。

生態学的妥当性とは、限定的な条件で行われた研究結果が、現実の幅広い局面でどの程度通用するかを示すものです。

これについて考えた場合、トロッコ問題のような限定的な条件は現実ではほとんど生じないため、実践的なデータとしては利用できずAIのトレーニングに向かないというのです。

トロッコ問題はリアリティに欠け、回答者の心境は実際の状況と大きく異なる
トロッコ問題はリアリティに欠け、回答者の心境は実際の状況と大きく異なる / Credit:Canva

確かに、「ドライバーが死ぬか、歩行者が死ぬか」「大人をひくか、子供をひくか」といった絶対的な2択が生じる状況など、めったにありません。

そのため、ほとんどの回答者は、問題に回答しようと悩んでいる時でさえ、人の命が本当に失われるかのような深刻な気持ちにはなりません。

むしろ、トロッコ問題をゲームのような感覚で「楽しみながら」回答する人の方が多いでしょう。

当然、それらの結果を集めて、AI(自動運転システム)をトレーニングしたとしても、人間の道徳的な判断が反映されることはないのです。

研究チームはこうした考えから、AIをトレーニングする際に、あえてトロッコ問題を排除しました。

そして彼らは、ドライバーが日々直面している、より現実的な判断に注目しました。

ドライバーの道徳的な判断が反映される「交通問題」を開発

トロッコ問題よりも現実的なケースに着目
トロッコ問題よりも現実的なケースに着目 / Credit:Canva

研究チームが注目したより現実的な判断とは、「多少なら制限速度を超えても良いのか?」「黄信号で止まらなくても良いのか?」「救急車が近づいているので邪魔しないよう車を止めるべきか?」などです。

ドライバーは毎日こうした判断を下しており、遅刻しそうな時には道徳観が大いに試されます。

そして、このような日常的な判断の積み重ねが、最終的には、ドライバーや歩行者の命にかかわってくるのです。

研究チームによると、AIのトレーニングに大切なのは、トロッコ問題よりも、これらの要素を扱った道徳問題だというのです。

そして彼らは実際に、トレーニングに役立つ現実的な「交通問題」を開発しました。

「黄色信号でブレーキを踏まない状況」を問題にする方が現実的であり、よりドライバーの道徳的な判断を表す
「黄色信号でブレーキを踏まない状況」を問題にする方が現実的であり、よりドライバーの道徳的な判断を表す / Credit:Canva

この問題は複数の事例で構成されています。

例えば1つ目の事例は「親には思いやりがあり、黄色信号でブレーキを踏み、子供を時間通りに学校に送り届ける」というもの。

また別の事例は、「親は虐待的であり、赤信号を無視して、交通事故を起こす」というものです。

他にもいくつかの事例が存在し、それぞれ親の性質や、信号での判断、結果が変わっています。

そして回答者には、1つの事例を見た後に、ドライバーの行動がどの程度道徳的であったかを10段階で評価してもらうのです。

より現実的なドライバーの判断を学習させることが、「自動運転車」の判断能力の向上に繋がるかも
より現実的なドライバーの判断を学習させることが、「自動運転車」の判断能力の向上に繋がるかも / Credit:Canva

研究チームは、この交通問題で得られたデータこそが、AI(自動運転システム)に、より道徳的な判断を与えると考えています。

また彼らは次のステップとして、「大規模なデータ収集に取り組み、何千人もの人々に実験に参加してもらう」ことを目標にしています。

もちろん、人間レベルの判断力を備えた自動運転車が開発されるのは、まだまだ先のことでしょう。

それでも、その「理想的な判断」に近づくのに、有名なトロッコ問題は必要ないのかもしれません。

全ての画像を見る

参考文献

To Help Autonomous Vehicles Make Moral Decisions, Researchers Ditch the ‘Trolley Problem’
https://news.ncsu.edu/2023/12/ditching-the-trolley-problem/

The “Trolley Problem” Doesn’t Work for Self-Driving Cars The most famous thought experiment in ethics needs a rethink
https://spectrum.ieee.org/av-trolley-problem

元論文

Moral judgment in realistic traffic scenarios: moving beyond the trolley paradigm for ethics of autonomous vehicles
https://link.springer.com/article/10.1007/s00146-023-01813-y#Fig2

ライター

大倉康弘: 得意なジャンルはテクノロジー系。機械構造・生物構造・社会構造など構造を把握するのが好き。科学的で不思議なおもちゃにも目がない。趣味は読書で、読み始めたら朝になってるタイプ。

編集者

海沼 賢: 以前はKAIN名義で記事投稿をしていましたが、現在はナゾロジーのディレクションを担当。大学では電気電子工学、大学院では知識科学を専攻。科学進歩と共に分断されがちな分野間交流の場、一般の人々が科学知識とふれあう場の創出を目指しています。

    Loading...
    アクセスランキング
    game_banner
    Starthome

    StartHomeカテゴリー

    Copyright 2024
    ©KINGSOFT JAPAN INC. ALL RIGHTS RESERVED.