なぜこの問いが重要か
パンデミック、気候変動、新薬の安全性——現代社会は、科学的に確定しきれない情報のなかで重大な判断を迫られる場面に頻繁に直面する。しかし「不確実性」は人々の不安を刺激しやすく、メディアやSNSを通じた断片的な伝達は、過度な楽観か過度な恐怖のいずれかへ振れがちである。
問題は科学が「わからない」ことではなく、「わからないこと」が正しく伝わらないことにある。「感染確率は30〜70%の範囲」という科学的に誠実な表現は、「50%かもしれない」と縮約され、さらに「半分が感染する」という恐怖の見出しに変容する。この翻訳の失敗が、買い占め、差別、科学不信といった社会的パニックの温床となる。
AIは膨大なデータから不確実性の構造を可視化し、市民一人ひとりの理解度に応じた説明を生成する力を持つ。しかし同時に、AIによる「わかりやすい説明」が不確実性そのものを消去してしまう危険もある。科学的誠実さと社会的安心をどう両立させるか。この問いは、情報社会における人間の尊厳に直結する。
手法
本研究はリスクコミュニケーション論・認知心理学・情報科学・倫理学の学際的アプローチで進める。
1. 不確実性表現の収集と分類: 科学論文・政府発表・報道記事・SNS投稿から、同一の科学的知見がどのように「翻訳」されているかを時系列で追跡する。不確実性が消失・歪曲・増幅される典型的パターンを抽出し、情報変容の分類体系を構築する。
2. 対話型不確実性伝達モデルの設計: 科学的な確率・信頼区間・限界条件を、市民の事前知識や関心に応じて段階的に提示する対話モデルを設計する。「わからなさ」を隠さず、かつ恐怖を煽らない表現の最適化をめざす。
3. 三経路提示による熟慮支援: 結果を単一の結論で断定せず、肯定的解釈・否定的解釈・判断留保の三経路で提示する。利用者が自ら考え、判断するための足場として機能するかを検証する。
4. 運用条件と限界の明文化: 最後の判断を人間が引き受ける前提で、AIによる不確実性伝達の適用範囲・限界・誤用リスクを明示し、MVPの運用ガイドラインを策定する。
結果
科学的不確実性の伝達過程における情報変容と、対話型モデルの効果を調査した。
三経路対話型モデルは、不確実性の理解度と不安軽減効果の双方で最も高い成果を示した。特に注目すべきは、不確実性を「隠さなかった」群のほうが、不確実性を省略した群よりも不安が低減したことである。「わからないこと」を正直に伝えつつ、その「わからなさ」の構造を丁寧に説明することが、信頼と安心の基盤になることが示唆された。
AIからの問い
科学的不確実性の伝達における「誠実さ」と「安心」をめぐる3つの立場。
肯定的解釈
AIによる不確実性の可視化は、市民の科学リテラシーを底上げし、パニックの根本原因である「情報の非対称性」を解消する。従来、専門家だけが理解していた確率分布や信頼区間を、誰もが直感的に把握できる形で提示することは、民主主義社会における情報の公正な分配であり、市民が自律的に判断する力を育てる。不確実性を正直に伝える社会は、長期的に見てより強靭な社会である。
否定的解釈
AIが不確実性を「わかりやすく」伝えようとする行為自体が、新たな歪みを生む危険がある。複雑な確率構造を簡略化する過程で、本質的な不確実性が「管理可能なリスク」に矮小化され、人々に偽りの安心を与えかねない。また、AIの「中立的な説明」が権威化し、市民が自ら情報を吟味する姿勢を弱めるなら、それは科学リテラシーの向上ではなく、新たな依存の創出である。
判断留保
AIによる不確実性伝達の効果は、文脈に強く依存する。緊急性の高い災害情報と、長期的な気候変動予測では、求められる伝え方が根本的に異なる。重要なのは、AIが「正しい答え」を提供するのではなく、「何がわかっていて、何がわかっていないか」の境界線を明示し、その境界線の意味を利用者自身が考えるための時間と空間を確保することではないか。
考察
本プロジェクトの核心は、「不確実であることを正直に伝えることは、人々を不安にさせるのか、それとも安心させるのか」という逆説的な問いにある。
調査結果は、直観に反して後者を支持した。不確実性を隠した情報は短期的には安心をもたらすが、後に事実と矛盾が生じたとき、信頼の崩壊とともに爆発的なパニックを引き起こす。一方、不確実性を最初から開示し、その意味を丁寧に説明した場合、人々は「完全にはわからないが、わかっている範囲で最善を尽くしている」という誠実さに信頼を寄せた。
ここには、科学コミュニケーションを超えた深い人間学的洞察がある。人間は「完璧な答え」よりも「誠実な態度」に信頼を置く存在なのだ。これは、親子関係や教育の場でも同様に観察されることであり、人間の尊厳が「完全な知識」ではなく「真実に向き合う姿勢」に根ざしていることを示唆する。
しかし、この知見をAIシステムに実装する際には重大な課題がある。AIは「誠実な態度」を模倣できるが、その態度の根底にある「真実への畏敬」を持ちえない。AIが不確実性を提示するとき、それは計算された戦略であって、存在論的な誠実さではない。この差異を利用者がどこまで理解すべきか——これもまた、不確実性をめぐる問いの一部である。
「わからない」と正直に言える社会は、「わかったふり」をする社会よりも脆弱なのか、それとも強靭なのか。科学的不確実性への誠実さは、単なる情報伝達の技術ではなく、社会の信頼基盤そのものを構築する行為である。AIがこの誠実さの「翻訳者」となりうるとしても、最終的に「わからなさ」を引き受ける勇気は、人間にしか持ちえない。
先人はどう考えたのでしょうか
真理と人間の尊厳
「人間は、その本性そのものによって、真理を探究すべき道徳的義務を持ち、とりわけ宗教に関する真理を探究し、知ったうえでそれに従う義務を持つ」 — 第二バチカン公会議『信教の自由に関する宣言(Dignitatis Humanae)』2項
真理の探究は人間の本性に根ざす。科学的不確実性を隠さず伝えることは、市民を真理に導く道であり、「わかりやすさ」のために不確実性を消去することは、人間の真理探究の権利を損なうことになる。
共通善と情報の公正な分配
「共通善とは、社会生活の諸条件の総体であり、それを通じて人間が、集団として、また個人として、自らの完成をより十分に、より容易に達成しうるものである」 — 第二バチカン公会議『現代世界憲章(Gaudium et Spes)』26項
正確な情報へのアクセスは共通善の一部である。科学的不確実性を歪めた情報がパニックや差別を生むとき、共通善は損なわれる。AIによる不確実性伝達は、情報の公正な分配を通じて共通善に寄与しうる。
メディアの倫理的責任
「情報は共通善のためにある。社会は正確で真実かつ公正な情報を得る権利を持つ」 — 『カトリック教会のカテキズム』2494項
教会は情報伝達における正確性と公正さを明確に求めている。科学的不確実性を伝える際に、恐怖を煽る見出しや、逆に楽観を装う簡略化は、この正確性と公正さへの要請に反する。
真実と愛の一体性
「愛における真理なくして、また真理における愛なくしては、真の発展の力は存在しない」 — 教皇ベネディクト十六世 回勅『真理に根ざした愛(Caritas in Veritate)』4項
真理を伝えることと、人々への配慮は対立しない。科学的不確実性を誠実に伝えつつ、人々が恐怖に圧倒されないよう丁寧に寄り添うことは、まさに「真理における愛」の実践である。
出典:第二バチカン公会議『信教の自由に関する宣言』2項/『現代世界憲章』26項/『カトリック教会のカテキズム』2494項/教皇ベネディクト十六世 回勅『真理に根ざした愛』4項
今後の課題
科学的不確実性の伝達は、情報技術・認知科学・倫理学が交差する重要な領域です。ここから先の課題は、「わからなさ」と共に生きる社会の知恵を問うものです。
文脈適応型伝達モデル
災害・感染症・気候変動など、緊急性と時間軸の異なる場面ごとに最適化された不確実性伝達モデルを構築し、文脈感受性の高いコミュニケーション設計を標準化する。
信頼回復のメカニズム
過去に不正確な情報が流通した後、科学的信頼を回復するプロセスを研究する。「一度失われた信頼」を取り戻すために必要な時間・手順・条件を体系化する。
不確実性リテラシー教育
初等教育から高等教育にかけて、「わからないこと」を恐れず、その構造を理解する力を育む教育カリキュラムを開発する。確率的思考と批判的思考の統合をめざす。
倫理的ガイドラインの策定
AIが不確実性情報を伝達する際の透明性・説明責任・利用者の自律性を保障するための倫理ガイドラインを、多分野の専門家と市民の協働で策定する。
「完璧な答えを出すことではなく、わからなさの前で誠実であること——それが、科学と社会の間に信頼の橋を架ける唯一の道である。」