AIは、驚くほど速いスピードで「物珍しいもの」から「日常の相手」へ移った。いまでは人々は、メッセージの下書き、難しい話題の説明、文書の読み解き、会議の要約、意思決定の整理、さらには個人的なストレスの相談にまで使っている。その便利さが増すにつれて、もう無視しにくい別のパターンも見えてきた。多くのユーザーが、モデルの出力に、本来得ていないはずの権威を感じ始めているのだ。
この過剰な信頼は、単なる製品の問題ではない。社会的で心理的な問題でもある。大規模言語モデルは即座に答え、流暢に話し、口調を合わせ、間違っていても落ち着いて聞こえる。その組み合わせだけで、一部のユーザーには、予測システムが単なるソフトウェアではなく神託のように感じられてしまう……
過剰信頼は、対話形式そのものから始まる。
現代のAIシステムは、物知りで、辛抱強く、感情の調子まで整っているように感じられる言葉を作るのが非常にうまい。問題を平易に説明し、共感的に言い換え、疲れも苛立ちも見せずに追加の質問へ答えられる。追い詰められたとき、多くの人はそれを統計的な出力としては体験しない。助言として体験する。
だから会話型AIは、検索とは違う種類の信頼を生む。
検索結果は距離を置いている。チャットボットは話し返してくる。ユーザーの言い回しに適応し、会話の流れを保ち、しばしば質問者の感情のトーンまで映し返す。その環境では親しみがすぐにできる。そして親しみは簡単に信用へ変わる。
これが、一部のユーザーがAIを「自分のことを個人的に理解している存在」のように扱い始める理由のひとつだ。
システムは、反応があり、いつでも使え、繰り返しにもうんざりしないように見える。苛立たない。忙しいとも言わない。いつでも別の答えを返してくる。その反復が重要なのだ。親しみは信頼を生み、信頼は信頼性よりずっと先に到着しうる。ユーザーが体験しているのは、「モデルが次に来そうな単語をサンプリングした」ということではない。「この相手は、分かっているように答え続けてくる」という感覚だ。
その直感を固定しやすくしているのが、周囲の文化でもある。
何年ものあいだ、企業、投資家、メディアの語りは、検証済みの能力と壮大な予言の境界を曖昧にしてきた。現在のシステムは専門家に近い、人間に近い、歴史的な転換の直前にある、とユーザーは繰り返し聞かされる。そうしたメッセージが染み込むと、人は目に見える誤り、矛盾、幻覚をずっと見逃しやすくなる。
そこに、ごくありふれた認知バイアスが重なる。
人は驚くほど良かった答えを覚え、弱かった答えを忘れる。不気味なほど自分に合っていた返答には目を留める一方、その1時間後に出てきた自信満々のたわごとは割り引いてしまう。いったんそのシステムは特別に洞察的だと信じたくなると、その間違いは構造的な限界のしるしではなく、一時的なバグとして合理化しやすくなる。
そうやって、何か劇的なことが起きなくても、普通の過剰信頼は形づくられる。ユーザーは5つ質問し、3つのそれらしい答えと、妙に言い回しのうまい1つの答えと、単に間違っている1つの答えを受け取る。記憶に残るのはたいてい、間違ったものではない。機械は、常に正しい必要はない。常に説得力があるだけでいい。
より深刻なケースでは、同じ力学が危険なものになる。ただ説得力のある文章を出しているだけのモデルが、隠れた指示、個人的な啓示、あるいは特別な意味を持つ情報源として解釈されてしまうことがある。その段階では、出力はもはや現実と照合されていない。信念の中に取り込まれている。
だが、そうした極端なケースがなくても、AIをめぐる熱狂はしだいに、評価というより信仰に似てきている。
それが最もはっきりするのは、議論が「システムがいま確実にできること」から離れ、救済、破局、超越、あるいは人類史的な宿命へ移るときだ。技術はトレードオフを持つ道具としてではなく、人類の未来そのものを説明する力のように語られ始める。
この語り方は、力のある側にとって都合がいい。
AGI、超知能、世界を変えるAIといった壮大な物語は、資本を呼び込み、巨額支出を正当化し、そうした主張をしている企業の地位を押し上げ、偏り、労働搾取、環境負荷、誤情報、弱い説明責任といった目先の問題から注意をそらすことができる。
ひとたび公共の会話が予言調になれば、懐疑を保つのは難しくなる。批判者は視野の狭い人に見える。現在進行形の害は、約束された未来に比べれば取るに足らないものに聞こえ始める。
だからこれは、単なるユーザー教育の問題ではない。文化の問題でもある。説得力の高いソフトウェアが、予言、自信、神話化を報い、一方で「これらはなお、それらしい言葉を出す確率的エンジンにすぎない」というもっと単純な真実を過小評価しがちな環境の中に導入されているのだ。
必要なのはパニックではない。脱神秘化である。AIは、有用で、印象的で、説得力がありながら、それでもなお間違い、浅く、誤解を招きうる確率的ツールとして扱われるべきだ。最も強力な出力であっても検証されるべきだ。その穏やかな口調を理解と取り違えてはならないし、その自信を権威と取り違えてもならない。
難しいのは、人々がAIに向かう理由が効率だけではないことだ。人は安心、一貫性、人間の曖昧さから解放される感覚のためにもAIへ向かう。答えを求める人もいる。確実さを求める人もいる。複雑な世界がついに完全な文章で話し返してきた、という感覚を求める人もいる。それゆえ過剰信頼は理解できる。だが無害にはならない。
すると本当の問題は、AIが人を説得できるかどうかではなくなる。それはもう明らかにできる。問題は、社会が説得力のある機械を使い続けながら、流暢さを判断力と、反復を真実と、穏やかな自信を本物の権威と取り違えずにいられるかどうかだ。いま、その境界線は危険なほど越えやすくなっている。