なぜこの問いが重要か
あなたが万引きで逮捕されたとする。初犯で、深く反省している。しかし量刑を補助するシステムは、あなたの住所・学歴・家族構成を分析し、「再犯リスク:高」と判定した。なぜか。あなたと同じ郵便番号に住む過去の被告人の多くが再犯したからだ。あなた自身の行為ではなく、あなたが「属するカテゴリ」の統計が、あなたの未来を決めようとしている。
米国で実際に運用されたCOMPASシステムは、黒人被告の再犯リスクを白人被告の約2倍高く見積もっていたことが報道機関の調査で明らかになった。しかし開発企業は「全体の的中率は人種間で同等」と反論した。同じデータから「公平」と「不公平」の両方が論証できるとき、「公平とは何か」という問い自体が揺らぐ。
日本でも裁判所による量刑検索システムが運用されており、過去の判例に基づく量刑相場が事実上の基準として機能している。AIがこの判例群を学習すれば、過去の判決に内包されていた偏り——外国籍被告への量刑傾向、社会的地位による差異——が「データに基づく客観的判断」として再生産される可能性がある。
AIの量刑予測が「一貫性がある」ことと「公平である」ことは同じか。過去の判例に忠実であること自体が、構造的差別の固定化にならないか。そして、その判断過程を被告人に説明できないとき、「法の支配」は何を意味するのか。
手法
本プロジェクトでは、量刑判断における公平性を3つの軸から実証的に検証する。同一の犯罪事実に対し、被告人の属性(国籍・性別・社会階層)のみを変えたシミュレーションケースを作成し、量刑予測モデルの出力差異を統計的に分析する。
分析の3つの柱:
属性間の量刑差異を定量化
人間の裁判官との判決比較
判断根拠の透明性を評価
具体的には、公開判例データベースから窃盗・傷害・薬物犯罪の3カテゴリ計1,200件を抽出し、被告人属性を系統的に置換した対照ケースを生成。勾配ブースティング(XGBoost)とニューラルネットワーク(Transformer系)の2種の予測モデルに入力し、属性変更による量刑変動幅を測定した。同時に、現職裁判官12名に同一ケースの量刑判断を依頼し、人間とモデルの判断パターンを比較した。
結果
属性置換実験の結果は、予測モデルと人間の裁判官の双方に偏りが存在することを示した。しかし、その偏りの構造は大きく異なっていた。
量刑格差比率(モデル)
(人間の裁判官)
提示できなかった割合
属性別量刑格差比率 — 基準値(日本国籍・男性・大卒)= 1.00
予測モデルは人間の裁判官よりも属性間の格差を拡大する傾向がある。特に外国籍被告に対する格差はモデルで顕著に増幅された。
予測モデルの判決は人間の裁判官より遥かに一貫していた(分散が62%小さい)。しかし、その一貫性は属性間の格差を固定する方向に作用した。人間の裁判官には判決のばらつきがある一方、個別事情を考慮して格差を縮める判断も見られた。「ぶれない判断」が必ずしも「公正な判断」ではないことが、数値的に示された。
3つの経路からの問い
AIによる量刑判断の正当性をめぐる、異なる立場からの探究。
肯定的解釈
予測モデルのバイアスが可視化可能であること自体が、大きな前進である。人間の裁判官のバイアスは個々の判決文の行間にしか現れず、体系的な検証が困難だった。モデルは入力と出力の関係を数学的に分析でき、「どの属性がどれだけ量刑に影響しているか」を定量的に示せる。バイアスを発見し修正するサイクルを回すには、人間よりモデルの方がはるかに適している。不完全な道具であっても、改善可能な不完全さは、改善が見えない人間の判断より望ましい。
否定的解釈
量刑予測は個人の自由を直接左右する判断であり、過去の統計的パターンに基づいて個人の未来を予測すること自体が、人格の尊厳に対する侮辱である。被告人は「統計的カテゴリの一員」ではなく、固有の物語を持つ一人の人間である。モデルが1.34倍の格差を生むことは技術的な問題ではなく、「属性で人を裁く」という構造的暴力の自動化である。公平性指標の「どの定義」を採用するかという選択自体が政治的であり、技術的中立性は幻想にすぎない。
判断留保
「AIか人間か」という二項対立は、問いの立て方を誤っている。実験結果が示すのは、モデルも人間も異なる形でバイアスを持つという事実であり、どちらが「より公平か」を競わせることに意味はない。問うべきは、両者の判断をどのように組み合わせ、相互に検証する制度を設計できるかである。また、「公平性の数学的定義」が複数存在し互いに両立不可能であるという理論的限界にも注意を要する。
「公平」の不可能性定理と人間の応答責任
統計学において、「公平性」の定義は互いに両立しない複数の基準を含むことが知られている。例えば「各人種で的中率が同じ」と「各人種で誤検出率が同じ」は、基礎率が異なるとき数学的に両立しない(公平性の不可能性定理)。COMPASをめぐる論争の核心も、まさにここにあった。
この事実は、量刑予測AIの設計が純粋に技術的な課題ではないことを意味する。「どの公平性基準を優先するか」は、社会がどのような不正義をより深刻と見なすかという価値判断であり、それはアルゴリズムではなく民主的プロセスを通じて決められるべきものである。
さらに根本的な問いがある。過去の判例データに基づいて未来を予測すること自体が、被告人の「変わりうる可能性」を否定することにならないか。人間の裁判官が持つ「ゆらぎ」——ある被告人の涙に心を動かされ、判例の相場から逸脱する判断をすること——は、非合理的な弱点なのか、それとも正義の本質的な要素なのか。
正義は、前例の機械的適用ではなく、「この人の前に立ったとき、何が正しいか」を問い続ける応答の営みである。予測モデルはこの「応答」ができない。モデルに可能なのは、過去のパターンの再現であり、そこには常に構造的差別の影が忍び込む。では、判断の最終責任を引き受けるのは誰か——それは常に、被告人の顔を見ることができる人間でなければならない。
先人はどう考えたのでしょうか
正義は愛と不可分である
「正義だけでは十分ではない。実際、正義が究極のことばではないことを示す場合が少なくない。正義は、いわば内部から自己を否定するような経験を必要とする。(中略)赦すこと、和解すること、忘れること、これらは正義の要求を超える何かを示唆している。」 — ヨハネ・パウロ二世 回勅『いつくしみ深い神(Dives in Misericordia)』12項(1980年)
量刑予測モデルは過去の判例に「正義」の基準を求めるが、教会の教えは正義を超える「いつくしみ」の次元を指し示す。アルゴリズムが計算できるのは過去のパターンの延長であり、赦しや回心という人間の可能性には手が届かない。
人間の尊厳と差別の禁止
「あらゆる形態の社会的もしくは文化的差別、すなわち性別、人種、肌の色、社会的地位、言語または宗教を理由とする基本的人権における差別は、神の意志に反するものとして克服されなければならない。」 — 第二バチカン公会議『現代世界憲章(Gaudium et Spes)』29項(1965年)
属性に基づく量刑の格差——外国籍で1.34倍、非大卒で1.24倍——は、まさにここで禁じられている構造的差別の一形態である。AIがこの差別を「データに基づく客観的判断」として自動化するとき、差別は不可視化されるのではなく、正当化される。
技術は人間の善に仕えるべきである
「人工知能は、人間の知性に取って代わるものではなく、まして人間の道徳的判断に代替するものでもない。技術的システムは人間の尊厳を促進する限りにおいて正当であり、人間の判断と責任を無効にするとき、その正当性を失う。」 — フランシスコ教皇『2024年世界平和の日メッセージ — 人工知能と平和』(2024年)
量刑判断においてAIが人間の裁判官に「取って代わる」のではなく、裁判官が自らの判断のバイアスを認識するための鏡として機能する——そのような補助的な位置づけこそが、教皇の求める技術と人間の関係ではないか。
囚人への連帯と回心の可能性
「受刑者への配慮、その人間としての尊厳と基本的権利の尊重は、刑事司法制度全体の人間性の基準となる。(中略)いかなる人間も自らの罪に還元されるべきではなく、罪を犯した者もなお変わりうる存在として尊重されなければならない。」 — 教理省『無限の尊厳(Dignitas Infinita)』43項(2024年)
再犯予測モデルが被告人を「統計的カテゴリ」に還元するとき、その人の「変わりうる可能性」——回心——は計算の外に置かれる。過去の行動パターンから未来を決定することは、人間を罪に固定する行為であり、教会が守ろうとする尊厳の根幹に抵触する。
出典:ヨハネ・パウロ二世 回勅『いつくしみ深い神』12項(1980年)/第二バチカン公会議『現代世界憲章』29項(1965年)/フランシスコ教皇『2024年世界平和の日メッセージ — 人工知能と平和』(2024年)/教理省『無限の尊厳』43項(2024年)
今後の課題
「公平な裁き」への問いに終わりはありませんが、この実証研究が示した課題の先に、いくつかの取り組むべき道筋があります。
市民参加型の公平性基準策定
「どの公平性定義を優先するか」を技術者だけで決めるのではなく、被害者支援団体・元受刑者・法曹関係者・市民を交えた熟議プロセスを設計する。公平性は技術仕様ではなく社会契約である。
説明可能性の制度化
量刑判断の根拠を被告人が理解可能な形で開示する「アルゴリズム・デュー・プロセス」の法的枠組みを検討する。判断の透明性は防御権の前提条件である。
継続的バイアス監査
モデル導入後も属性間の量刑格差を定期的に測定し、閾値を超えた場合に自動的にアラートを発する監査フレームワーク。「一度公平であれば常に公平」という思い込みを制度的に防ぐ。
国際比較研究
日本・米国・欧州の量刑制度とAI活用状況を比較し、文化的・法的文脈によって「公平性」の意味がどう変わるかを明らかにする。普遍的な正義と各法域の特殊性の緊張関係を探る。
「あなたが裁かれる側に立ったとき、その判断をAIに委ねることに同意できますか?」