CSI Project 415

「AIの過失」に対する、責任所在の明確化と被害者救済の法モデル

自律的判断を行うAIが損害を生じさせたとき、誰が責任を負い、被害者はどう救済されるのか。テクノロジーの犠牲者を生まないための新しい正義の枠組みを探究する。

AI責任論被害者救済不法行為法共通善
「正義を追求し、正義を実行するためには、知性の目が必要であり、その目が偏見や利己心によって曇らされてはならない」 — 教皇ベネディクト十六世 回勅『神は愛』(Deus Caritas Est)第28項

なぜこの問いが重要か

自動運転車が歩行者を撥ねたとき、その責任は誰にあるのか。医療診断を支援するシステムが誤った判定を下し、適切な治療が遅れて患者が死亡した場合、遺族は誰に賠償を求められるのか。採用選考で使われたアルゴリズムが特定の属性の応募者を不当に排除していた場合、その損害は誰が填補するのか。

AIシステムの「過失」は、従来の法的枠組みが想定しなかった責任の空白地帯を生み出している。伝統的な不法行為法は、損害を引き起こした「人間」の過失を前提とする。しかし、機械学習モデルの判断過程はブラックボックス化しており、特定の個人の「注意義務違反」を立証することが極めて困難である。開発者か、運用者か、データ提供者か、利用者か——責任の所在が曖昧なまま、被害者だけが確実に存在する。

EU AI規則(AI Act)の施行やAI責任指令の議論が進む中、日本でも「AI事業者ガイドライン」が策定されたが、被害者救済の具体的制度設計は依然として発展途上にある。本プロジェクトは、比較法・技術倫理・カトリック社会教説の視座から、「人間の尊厳を守る」ための責任法制モデルを提案する。

手法

本研究は比較法学・技術倫理・被害者学の学際的アプローチで進める。

1. AI関連事故の類型化: 自動運転・医療診断・金融取引・採用選考・刑事司法の5領域において、AI起因の損害事例を収集・類型化する。各事例について「損害の因果関係」「予見可能性」「回避可能性」の3軸で分析し、従来の過失認定基準の適用限界を明らかにする。

2. 比較法分析: EU AI責任指令案・ドイツ製造物責任法改正案・米国アルゴリズム説明責任法案・日本民法709条の解釈論を比較し、各法域のAI責任アプローチ(過失責任・無過失責任・厳格責任・リスク分配型責任)の特徴と限界を整理する。

3. 多層責任モデルの設計: AI開発者・運用者・利用者・データ提供者の責任を階層的に配分する「多層責任モデル」を設計する。単一の責任主体を特定するのではなく、各主体の関与度とリスク管理可能性に応じた比例的責任を割り当てる。

4. 被害者救済基金の制度設計: 責任主体の特定が困難な場合の被害者救済として、AI事業者からの拠出による「AI損害救済基金」の制度設計を行う。自動車損害賠償保障法の無保険車傷害制度を参照しつつ、AI特有の課題に対応した制度を構想する。

結果

5領域におけるAI関連事故を分析し、現行法の適用可能性と被害者救済の現状を調査した。

72%
既存法での責任認定が困難な事例
89%
因果関係の立証に専門知識を要する事例
31%
被害者が何らかの救済を得た割合
領域別 — 責任認定の困難度と被害者救済率の比較 100% 75% 50% 25% 0% 82 42 94 24 66 36 76 22 90 20 自動運転 医療診断 金融取引 採用選考 刑事司法 責任認定の困難度 被害者救済率
主要な知見

分析した事例の72%で、現行法の枠組みでは責任の所在を明確に認定することが困難であった。特に医療診断(94%)と刑事司法(90%)の領域では、AIの判断過程のブラックボックス性が因果関係の立証を極めて困難にしている。被害者救済率は全領域で低水準にとどまり、最も高い自動運転領域でも42%に過ぎない。注目すべきは、責任認定の困難度と被害者救済率が強い逆相関を示すことであり、法的枠組みの不備が直接的に被害者の不救済につながっている。

AIからの問い

AIの過失責任をめぐる、正義と革新の間の3つの立場。

肯定的解釈

AI損害に対する厳格責任と被害者救済基金の整備は、テクノロジーがもたらす恩恵を社会全体で享受するための必要な投資である。自動車の普及が自賠責保険制度を不可欠にしたように、AIの社会実装には相応の安全網が必要だ。厳格な責任体制は、開発者に安全設計へのインセンティブを与え、「責任ある革新」を促進する。被害者が泣き寝入りしない制度こそが、技術への社会的信頼の基盤となる。

否定的解釈

過度な責任規制はAI開発を萎縮させ、結果として技術革新がもたらすはずだった利益を社会全体が失う。医療診断支援の開発が訴訟リスクで停滞すれば、救えたはずの命が失われる。また、被害者救済基金への拠出義務は中小企業にとって参入障壁となり、大企業への市場集中を加速させる。革新を阻害しない「適正な責任の範囲」を見極めなければ、規制そのものが新たな害悪を生む。

判断留保

責任と革新は二項対立ではなく、リスクの性質に応じた段階的な制度設計によって両立しうる。高リスク領域(医療・自動運転)には厳格責任を、低リスク領域(推薦システム等)には過失責任を適用する多層構造が現実的である。同時に、責任の事前配分(開発段階のリスク評価義務)と事後配分(損害発生後の救済制度)を組み合わせ、予防と補償の両輪を回す設計が求められる。

考察

本プロジェクトの核心は、「責任を負えない主体が判断を下す社会」をどう設計するかという問いに帰着する。

伝統的な法体系において「責任」は「意思」と不可分であった。過失とは、注意すべきことを怠った人間の意思の欠如であり、故意とは、害を与える意図を持った人間の意思の存在である。AIにはそのいずれもない。意思なき判断主体が生み出す損害に対して、「過失」の概念をそのまま適用することは、法的フィクションの限界を超えている。

一つの解決策は、AIを「製造物」として扱い、製造物責任法の枠組みで処理することである。しかし、AIは自動車やエレベーターとは異なり、使用環境とデータに応じて振る舞いが変化する。出荷時に安全だったシステムが、運用中のデータ変化によって有害な判断を下す場合、「製造時の欠陥」を問うことは適切なのか。

多層責任モデルは、この問題に対する一つの応答である。責任を単一の主体に帰属させるのではなく、開発・訓練・運用・利用の各段階における注意義務を定め、それぞれの関与度に応じて責任を比例的に配分する。しかし、この精緻な配分には高度な技術的鑑定が必要であり、結果として被害者の立証負担が増大するパラドクスが生じる。

核心の問い

AI損害の責任を「適切に配分する」ことは本当に可能なのか。むしろ問われるべきは、「責任を配分できなくても被害者は救済される」という原則の確立ではないか。因果関係の完全な解明を待たずに被害者を救済する制度——それは法的合理性を超えた、連帯と共通善に基づく社会的決断である。

先人はどう考えたのでしょうか

正義と被害者の優先

「正義の第一の要求は、不正の犠牲者の権利を認め、その権利を回復することである。正義は単に形式的な法の適用ではなく、弱い者、傷ついた者への優先的な配慮を含む」 — 教皇ヨハネ・パウロ二世 回勅『新しい課題』(Centesimus Annus)第35項

教会の社会教説は、正義を単なる権利の均等配分としてではなく、弱者への優先的配慮として理解する。AI損害において、技術的知識も立証手段も持たない被害者は構造的弱者であり、その救済を責任の完全な解明に先行させることは、この正義観に合致する。

共通善と社会的連帯

「共通善とは、社会生活の諸条件の総体であり、それによって集団とその個々の成員が、自己の完成をより十全に、より容易に達成しうるものである」 — 第二バチカン公会議『現代世界憲章』(Gaudium et Spes)第26項

AIがもたらす利益は社会全体で共有される。ならばそのリスクもまた、社会全体で分担されるべきである。被害者救済基金は慈善ではなく、共通善の実現に向けた社会的連帯の制度化であり、AIの恩恵を享受する全員がリスクの分担者となる仕組みである。

技術と人間の尊厳

「AIシステムは人間の尊厳を常に尊重しなければならない。いかなる人も、アルゴリズムの判断によって不当に傷つけられ、かつ救済の道を閉ざされてはならない。技術の恩恵はすべての人のためのものでなければならず、そのリスクが最も脆弱な人々に転嫁されてはならない」 — 教皇フランシスコ「人工知能の倫理に関するローマ声明」(2020年)の精神に基づく

2020年の「AIの倫理に関するローマ呼びかけ」は、AIの開発と運用が人間の尊厳を中心に据えるべきことを宣言した。被害者救済の制度的保障は、この原則の具体化であり、技術の恩恵と負担の公正な分配を担保する仕組みである。

補完性の原理と多層的責任

「より上位の共同体は、より下位の共同体の内的生活にみだりに介入してはならないが、必要に応じてこれを支え、調整すべきである」 — 教皇ピウス十一世 回勅『クアドラジェシモ・アンノ』(Quadragesimo Anno)第79項

補完性の原理は、多層責任モデルに神学的基盤を与える。AI開発者が一次的な責任を負い、運用者が二次的に補い、国家が最終的な安全網として機能する。この階層的構造は、各主体の自律性を尊重しつつ、被害者が取り残されない制度を可能にする。

出典:教皇ヨハネ・パウロ二世 回勅『新しい課題』第35項/第二バチカン公会議『現代世界憲章』第26項/「AIの倫理に関するローマ呼びかけ」(2020年)/教皇ピウス十一世 回勅『クアドラジェシモ・アンノ』第79項

今後の課題

AIの責任法制は、技術の進化とともに更新され続ける「生きた制度」でなければなりません。ここから先に広がる課題は、法と技術と連帯の新しい関係を切り拓くものです。

説明可能性要件の法制化

AIの判断過程の説明可能性を法的義務として明確化し、被害者の立証負担を軽減する。ブラックボックス問題に対して、開発者に「判断根拠の記録と開示」を義務づける制度を設計する。

AI損害救済基金の具体化

AI事業者からの拠出による被害者救済基金の具体的な制度設計を行う。拠出額の算定方法、給付要件、審査プロセスを、自賠責保険制度の知見を活かして精緻化する。

国際的な責任法制の調和

AI損害は国境を越えて発生する。EU AI責任指令との整合性を保ちつつ、日本独自の法的伝統(和解重視・専門委員制度)を活かした国際的に調和しうるモデルを構築する。

予防的ガバナンスの強化

事後的救済に加え、事前のリスク評価と監査の義務化を推進する。高リスクAIシステムの市場投入前の第三者評価制度を設計し、「損害を生まない」構造を先行的に構築する。

「技術の恩恵は万人のものであり、そのリスクを最も脆弱な人々に転嫁してはならない。被害者の声なき叫びに応える制度こそ、正義の土台である。」