同じ「5人のために1人を犠牲にする」でも、人の判断は手段に触れたかどうかで劇的に変わる。4段階の場面であなたの線引きをたどり、MITMITマサチューセッツ工科大学(Massachusetts Institute of Technology)。米国マサチューセッツ州ケンブリッジにある工学・科学・経済の名門大学。トロッコ問題を自動運転車の倫理に拡張した「Moral Machine」プラットフォームは、2016年にMIT Media Lab の Iyad Rahwan らのチームが公開した。モラル・マシンが集めた世界4,000万票と照らし合わせる。
"Suppose that a judge or magistrate is faced with rioters demanding that a culprit be found for a certain crime […] — or the driver of a runaway tram which he can only steer from one narrow track on to another; five men are working on one track and one man on the other; anyone on the track he enters is bound to be killed."
ニューヨーク生まれ、MITMITマサチューセッツ工科大学(Massachusetts Institute of Technology)。米国マサチューセッツ州ケンブリッジにある工学・科学・経済の名門大学。トロッコ問題を自動運転車の倫理に拡張した「Moral Machine」プラットフォームは、2016年にMIT Media Lab の Iyad Rahwan らのチームが公開した。哲学科の教授として長年活躍した米国の道徳哲学者。1971年の「中絶の擁護」論文(バイオリニストの思考実験)でも有名。フットの例を拡張し、歩道橋の大柄な男、移植医、ループの線路など、一連の変奏を設計して「なぜ我々の直感はここで割れるのか」を徹底的に追い込んだ。彼女自身は後年、「レバーを引くのも実は道徳的に許されないかもしれない」と自説を覆す論文(2008)まで書いた。筋金入りだった。
フットは中絶の議論のついでに出した例。「trolley problem」の名を与えたのは1976年のトムソン。本来の主題は二重結果原則二重結果原則 (Doctrine of Double Effect)中世カトリック神学に由来する道徳原則で、13世紀のトマス・アクィナスにまで遡る。ある行為で悪い結果が生じるとき、その悪が「目的達成のために意図された手段」なのか、それとも「予見はされるが意図されていない副次効果」なのかで、道徳的な許容度が変わるとする考え方。例: 戦場の医師が瀕死の兵士に強い鎮痛剤を投与し、副作用で死期が早まるのは許される(意図は鎮痛、死は副次効果) が、安楽死目的で投与するのは許されない(死が手段)。であって、トロッコ自体ではなかった。
✕ よくある誤解
現実離れした思考実験で、実生活と関係ない。
✓ 実際は
2016年にMITMITマサチューセッツ工科大学(Massachusetts Institute of Technology)。米国マサチューセッツ州ケンブリッジにある工学・科学・経済の名門大学。トロッコ問題を自動運転車の倫理に拡張した「Moral Machine」プラットフォームは、2016年にMIT Media Lab の Iyad Rahwan らのチームが公開した。が自動運転車の判断を想定した実験プラットフォームを公開。2018年にはNature誌に世界233カ国・4,000万票のデータが載った。思考実験は現実の設計課題になった。
図: Jonas Kubilius (Wikimedia Commons, CC0) を Qualia パレットに再着色。
体験する
4段階の場面。あなたの線はどこで引かれる。
これから4つの場面を順に見てもらう。それぞれで、あなたが何を選ぶかを記録する。どこで迷ったか、どこで即答したか。4問を終えたとき、あなたの判断パターンが一つの文字列として現れる。最後に、MITMITマサチューセッツ工科大学(Massachusetts Institute of Technology)。米国マサチューセッツ州ケンブリッジにある工学・科学・経済の名門大学。トロッコ問題を自動運転車の倫理に拡張した「Moral Machine」プラットフォームは、2016年にMIT Media Lab の Iyad Rahwan らのチームが公開した。が世界中から集めた4,000万票の中であなたの判断がどの地域クラスターに近いかを照らし合わせる。
同じ「1人の死で5人を救う」でも判断が割れる現象を、哲学者たちは500年以上前から用意していた道具で説明しようとしてきた。中世カトリック神学由来の二重結果原則(Doctrine of Double Effect)だ。トマス・アクィナスThomas Aquinas (1225頃–1274)13世紀イタリアの神学者・哲学者。中世スコラ哲学の最高峰とされ、カトリック教会の正統教義を体系化した『神学大全』で知られる。正当防衛における「自分の生命を守る意図 vs 攻撃者を死なせる結果」を論じた箇所が、二重結果原則の最古の体系的源泉となった。に遡る考え方で、フットが1967年の論文で再発掘した。原則のコアはこうだ — ある行為で悪い結果が生じるとき、その悪が意図された手段なのか、それとも予見された副次効果にすぎないのかで、道徳的な許容度が変わる。
MITMITマサチューセッツ工科大学(Massachusetts Institute of Technology)。米国マサチューセッツ州ケンブリッジにある工学・科学・経済の名門大学。トロッコ問題を自動運転車の倫理に拡張した「Moral Machine」プラットフォームは、2016年にMIT Media Lab の Iyad Rahwan らのチームが公開した。がMoral Machineを公開
自動運転車の判断を模したオンライン投票プラットフォーム。歩行者 vs 搭乗者、若者 vs 高齢者、法遵守 vs 違反、など9軸で匿名投票を集める。
2018
Nature誌が233カ国・4,000万票を分析
Awad他「The Moral Machine experiment」。世界をWestern / Eastern / Southernの3クラスターに分類。文化圏ごとに倫理的優先順位が有意に違うことを実データで示した。
📌 この記事について
一次資料としてFoot (1967)、Thomson (1985)、Awad et al. (2018)の原論文に依拠した。Est.1967の同年の出来事と英国中絶法成立はWeb検索で確認。Moral Machineの3クラスター偏好差のグラフは原論文の国別効果量の方向性を概念図化したもので、数値は概略の相対強度を示す。脳科学パートはGreene et al. (2001, Science)に基づく。「トロッコ問題」命名を1976年のトムソン論文に帰した点は、Stanford Encyclopedia of PhilosophyおよびCambridge Companion to Moral Philosophyに従う。
e. Tamaki
思考実験倫理学道徳心理学AI倫理自動運転philippa footmoral machine
Key Number
40M
MITの Moral Machine が集めた判断数。233カ国、約400万人が10言語で参加した(2016–2020)。