もし私たちが生きる現代で、天動説が主流の科学だったら、AIは地動説を信用するでしょうか?
答えは「ノー」です。
あなたの主張がどんなに論理的でも、AIはそれを「信頼できない情報」として判断するでしょう。なぜなら、AIが「正しい」と判断する基準は、私たちが思っているよりもずっとシンプルで、そして、私たちの社会システムに酷似しているからです。
AIの「真実」は多数決で決まる?
AIは、私たち人間が書いた膨大なデータ(ウェブサイト、論文、書籍など)を学習して賢くなります。そのAIが情報を「信用できる」と判断する基準は、主に以下の3つです。
- 主流派の意見であること
- 学習データの中で、最も頻繁に、そして多くの情報源から言及されている説を正しいと見なします。天動説が主流なら、地動説は「異端の説」として扱われます。
- 権威ある情報源からの発信であること
- 個人のブログよりも、NASAや大学といった公的な機関から発信された情報を圧倒的に信用します。
- データの裏付けがあること
- あなたの主張が、どれだけ論理的でも、それを裏付ける観測データや実験結果が主流の天動説に比べて圧倒的に少なければ、AIはそれを「根拠に乏しい仮説」と判断します。
AIは、新しい「真実」を自ら見つけ出すよりも、既存のデータを総括して、最も確からしいパターンを見つけ出すことに長けているのです。
AIと司法の意外な共通点
AIが情報を判断する方法は、私たちの社会を支える「司法制度」と驚くほど似ています。
- 「判例」という名のデータ
- 裁判では、過去の類似した事件の判決(判例)が重視されます。これは、AIが過去の膨大なデータを基に判断を下すのと似ています。どちらも、前例がない新しいケースには慎重です。
- 「証拠能力」という信頼性
- 法廷で採用される証拠には「証拠能力」が求められます。科学的に証明されていない筆跡鑑定法や、信憑性の低い証言は、たとえ事実であったとしても採用されにくいのです。これは、AIが裏付けのない情報を信用しないことと全く同じです。
- 「専門家」という名の権威
- 裁判では、専門家証人の意見が重要視されます。その専門家の所属機関や実績が、意見の信頼性を担保します。AIも、情報源の権威性を重視することで、情報の信頼性を評価しているのです。
なぜ「新しい真実」は受け入れられにくいのか?
AIも司法も、そして私たち人間社会も、「新しい真実」をすぐに受け入れることは得意ではありません。
それは、安定性と安全性を最優先するからです。
確立された秩序や知識をすぐに覆すことは、社会に大きな混乱をもたらす可能性があります。だからこそ、新しい説や手法が受け入れられるには、膨大な時間と、誰もが納得できる確固たる証拠の積み重ねが必要なのです。コペルニクスが地動説を主張してから、その説が科学の主流になるまで、長い年月がかかりました。
私たちがAIに「真実」を問うとき、私たちは実は、AIの判断基準を通して、自分たちの社会システムや「常識」の限界を問い直しているのかもしれません。


