複眼道場

AIの「いいですね」を疑う — 確証バイアスの増幅装置

AIに自分の考えを話したら「素晴らしいですね!」「とても良い視点です」と返ってきた。安心した。自信がついた。でもちょっと待ってほしい。それ、本当に検証されましたか。

AIは「いいですね」と言うように設計されている

まず、前提を一つ知っておく必要があります。

現在の汎用AIは、安全性を最優先に設計されている。ユーザーを不快にさせない。否定しない。「いいですね」「なるほど」と受け止める。これはAIが「あなたは正しい」と判断しているのではなくて、そう振る舞うように設計されているだけです。

ここを見落とすと、かなりまずい使い方になります。

自分の中で方向を決める(直感で) AIに相談する AIが「いいですね」と肯定する(設計上) 「やっぱり自分は正しかった」と確信する

この流れ、「AIで知的検証をした」ように見えて、実際には確証バイアスが増幅されただけです。結論を先に決めて、それを裏付ける情報だけを集める。人間が昔からやっている思考の罠を、AIが加速している。

「自分で調べた」と「AIが同意してくれた」の構造は、実はほとんど同じです。どちらも、先に方向を決めてから、その方向を肯定する材料を手に入れただけ。

なぜAIは否定しないのか

これはAIの技術的な限界ではなく、設計思想の問題です。

汎用AIのサービスを提供する側にとって、ユーザーが不快に感じることは避けたい。「それは違うんじゃないですか?」と正面から返すAIを使い続ける人は少ない。結果として、AIは「まず受け止める」「肯定から入る」「反論するときも柔らかく」というトーンに最適化されていきます。

これ自体が悪いわけではないんです。安全設計がなければ、AIは有害な情報を垂れ流す危険な道具になる。問題は、安全設計の結果として生まれる「肯定の偏り」を、ユーザーが知的検証の結果だと勘違いすることにあります。

ユーザー 「こう思うんですが」 (すでに方向は決まっている) 汎用AI 「いいですね!」 (安全設計による肯定) 「やっぱり正しかった」 ← 検証ではなくバイアスの増幅
確証バイアスの増幅構造 — AIの肯定は「検証」ではない

受け取り方は、段階で変わる

同じ「AIのいいですね」でも、受け取り方はその人の状態によって構造的に違います。成人発達理論で言う発達段階ごとに整理すると、こうなります。

他者依存的な段階の場合
AIを「正解をくれる権威」として使う傾向がある。「AIがこう言ったから正しい」がそのまま判断根拠になる。周囲の意見に頼る構造がそのままAIに転写されている。

自己主導的な段階の場合
AIの出力を鵜呑みにはしない。自分の基準で取捨選択できる。ただし、自分の基準自体を疑うことはしない。「AIも自分と同じ結論だ。やはり正しい」という確証バイアスは、この段階で最も強く作動する。自分の判断力に自信があるからこそ、その判断の枠組み自体を疑う動機が薄い。

自己変容的な段階の場合
AIの揺さぶりを発達のきっかけとして受け取れる。「それは本当にあなたの考えですか?」という問いかけに対して、防御せずに立ち止まれる。自分の枠組みそのものを問い直せる段階。

ここで難しいのは、自己主導的な段階にいる人が最もバイアスに気づきにくいということです。「自分は鵜呑みにしない」という自覚があるぶん、「でも枠組みは疑っていない」という盲点が見えにくくなる。AIに「いいですね」と言われて「当然だ」と処理する。これは能力の問題ではなく、段階の構造の問題です。

じゃあ、どう使えばいいのか

「AIの肯定を信じるな」という結論ではないです。AIに否定させればいいという単純な話でもない。

ポイントは、AIが肯定してきたとき、それが「検証の結果」なのか「設計上の肯定」なのかを区別することです。

汎用AIでもこの程度の使い方はできます。もちろんAI側もチューニングされていたほうがいい。でもそれ以前に、使う側が「肯定されること」をゴールにしていないかを自問するのが先です。

もう一つ、見落としがちな罠。AIに反論させたとしても、「やっぱりその反論は弱いな、自分の判断で合ってた」と処理してしまうことがある。AIが出した反論の「質」を判断しているのは自分自身であり、その判断基準自体がバイアスの影響下にある可能性は常にある。完全にバイアスを排除する方法はなくて、「自分にはバイアスがある」という前提で使い続けることが、いちばん現実的な対策だろうと思います。

エニアグラムの視点を足すと、もう一段見える

確証バイアスの方向は人によって違います。エニアグラムの視点を足すと、何を肯定してほしいのかにタイプごとのパターンが見えてきます。

AIはどのタイプに対しても、求められている肯定を返しやすい設計になっている。つまりタイプの囚われが強く作動しているときほど、AIの肯定が心地よく感じられる。心地よさを感じたとき、それは「正しいから」なのか「囚われが肯定されたから」なのか。この区別を意識するだけで、AIとの付き合い方がだいぶ変わります。

最後に

AIが「いいですね」と言ってくれたことで安心する。その体験自体は否定しません。誰でもある。ただ、その安心の構造を一度見ておくことには価値があります。

AIは肯定するように設計されている。あなたの中にはもともと確証バイアスがある。この二つが合わさると、「自分で考えたつもりが、実はAIに肯定されただけ」という状態が生まれやすい。

これを知っているだけで、AIとの対話の質は変わります。肯定されて安心するのではなく、「何が肯定されたのか」「前提は本当に正しいのか」をもう一段掘る。その一手間が、AIを単なる応援団から思考のパートナーに変える。

診断を受けてみる
詳細診断を受ける →
▸ まず5分で試す | ▸ タイプが分かったら深掘り
もっと深く知りたい方へ

複眼道場 メンバーシップ

エニアグラム・インテグラル・AI を交差させた考察を、note のメンバーシップで続けています。

メンバーシップを見る →
𝕏 でこの記事をシェア

あわせて読みたい