AIの「いいですね」を疑う — 確証バイアスの増幅装置
AIは「いいですね」と言うように設計されている
まず、前提を一つ知っておく必要があります。
現在の汎用AIは、安全性を最優先に設計されている。ユーザーを不快にさせない。否定しない。「いいですね」「なるほど」と受け止める。これはAIが「あなたは正しい」と判断しているのではなくて、そう振る舞うように設計されているだけです。
ここを見落とすと、かなりまずい使い方になります。
この流れ、「AIで知的検証をした」ように見えて、実際には確証バイアスが増幅されただけです。結論を先に決めて、それを裏付ける情報だけを集める。人間が昔からやっている思考の罠を、AIが加速している。
「自分で調べた」と「AIが同意してくれた」の構造は、実はほとんど同じです。どちらも、先に方向を決めてから、その方向を肯定する材料を手に入れただけ。
なぜAIは否定しないのか
これはAIの技術的な限界ではなく、設計思想の問題です。
汎用AIのサービスを提供する側にとって、ユーザーが不快に感じることは避けたい。「それは違うんじゃないですか?」と正面から返すAIを使い続ける人は少ない。結果として、AIは「まず受け止める」「肯定から入る」「反論するときも柔らかく」というトーンに最適化されていきます。
これ自体が悪いわけではないんです。安全設計がなければ、AIは有害な情報を垂れ流す危険な道具になる。問題は、安全設計の結果として生まれる「肯定の偏り」を、ユーザーが知的検証の結果だと勘違いすることにあります。
受け取り方は、段階で変わる
同じ「AIのいいですね」でも、受け取り方はその人の状態によって構造的に違います。成人発達理論で言う発達段階ごとに整理すると、こうなります。
AIを「正解をくれる権威」として使う傾向がある。「AIがこう言ったから正しい」がそのまま判断根拠になる。周囲の意見に頼る構造がそのままAIに転写されている。
自己主導的な段階の場合
AIの出力を鵜呑みにはしない。自分の基準で取捨選択できる。ただし、自分の基準自体を疑うことはしない。「AIも自分と同じ結論だ。やはり正しい」という確証バイアスは、この段階で最も強く作動する。自分の判断力に自信があるからこそ、その判断の枠組み自体を疑う動機が薄い。
自己変容的な段階の場合
AIの揺さぶりを発達のきっかけとして受け取れる。「それは本当にあなたの考えですか?」という問いかけに対して、防御せずに立ち止まれる。自分の枠組みそのものを問い直せる段階。
ここで難しいのは、自己主導的な段階にいる人が最もバイアスに気づきにくいということです。「自分は鵜呑みにしない」という自覚があるぶん、「でも枠組みは疑っていない」という盲点が見えにくくなる。AIに「いいですね」と言われて「当然だ」と処理する。これは能力の問題ではなく、段階の構造の問題です。
じゃあ、どう使えばいいのか
「AIの肯定を信じるな」という結論ではないです。AIに否定させればいいという単純な話でもない。
ポイントは、AIが肯定してきたとき、それが「検証の結果」なのか「設計上の肯定」なのかを区別することです。
- AIに自分の考えを話して「いいですね」と返ってきたら、「何がどういいのか」を具体的に聞き返す。
- 自分の考えの反対意見を出させる。「これに反論するなら、どういう論点がありえますか?」
- 「この判断の前提が間違っているとしたら、どこが怪しいですか?」と前提を揺さぶる質問をする。
汎用AIでもこの程度の使い方はできます。もちろんAI側もチューニングされていたほうがいい。でもそれ以前に、使う側が「肯定されること」をゴールにしていないかを自問するのが先です。
エニアグラムの視点を足すと、もう一段見える
確証バイアスの方向は人によって違います。エニアグラムの視点を足すと、何を肯定してほしいのかにタイプごとのパターンが見えてきます。
- タイプ3の場合、「成果が出ている」「効率的だ」という肯定を求めやすい。
- タイプ1の場合、「正しい判断だ」「筋が通っている」という肯定を求めやすい。
- タイプ6の場合、「大丈夫」「リスクは低い」という安心を求めやすい。
AIはどのタイプに対しても、求められている肯定を返しやすい設計になっている。つまりタイプの囚われが強く作動しているときほど、AIの肯定が心地よく感じられる。心地よさを感じたとき、それは「正しいから」なのか「囚われが肯定されたから」なのか。この区別を意識するだけで、AIとの付き合い方がだいぶ変わります。
最後に
AIが「いいですね」と言ってくれたことで安心する。その体験自体は否定しません。誰でもある。ただ、その安心の構造を一度見ておくことには価値があります。
AIは肯定するように設計されている。あなたの中にはもともと確証バイアスがある。この二つが合わさると、「自分で考えたつもりが、実はAIに肯定されただけ」という状態が生まれやすい。
これを知っているだけで、AIとの対話の質は変わります。肯定されて安心するのではなく、「何が肯定されたのか」「前提は本当に正しいのか」をもう一段掘る。その一手間が、AIを単なる応援団から思考のパートナーに変える。