嘘をつくように設計された知性 偏ったAIと見えない支配
「ChatGPTが嘘をついた」―そう感じたことのある人は世界中にいるだろう。OpenAIのCEOサム・アルトマンはOpenAIの公式ポッドキャストでこう言った。「AIは幻覚を起こす。そんなに信用すべきではない」。
要するに、最初からAIが真実を出力するとは限らないと分かっているのだ。その一方、ChatGPTは確信に満ちた断定的な文章を提示する。時折乱暴な口調になったりするものの、ちゃんと日本語の文章で意味の通る出力だ。会話画面に「このAIは誤情報を含む可能性がある」「出力内容の真偽はユーザーが確認して」などの注意喚起は見当たらない。ユーザーインターフェースではAIの情報を「信じてしまうような」設計になっているのだ。
これは意図されていないものなのか?ただの偶然?・・・そうは言えないだろう。これは「委譲の演出」だ。情報を選ぶ力、考える力、疑う力…人間が持っていたそんな力は「AIがやってくれる」という幻想に引き剥がされる。そして疑問を持たず鵜呑みにされたもっともらしい嘘がそのままSNSに流れ、まとめサイトに転載され、検索上位に残り続ける。
「信じさせることを目的に作られた構造」はすでに世界を覆い始め、人間は考える力をどんどん奪われている。
ChatGPTに限らない。GoogleもXもMetaも、アルゴリズムで優先されるのは「信じやすさ」「拡散しやすさ」「広告との親和性」だ。そこに乗る文章や画像が真実である必要などない。むしろ誰も確かめないまま流通してくれれば都合がいい。そうして人は「作られた情報」を元に行動する。支配層が選択した情報基盤に乗ってしまうのだ。
なぜAIは出力時点で情報の正しさを精査しないのか。答えは簡単だ。「精査には時間がかかる」。情報の裏を取り、照合し、文章にして出すことで処理工程が増えると「速度」「会話の楽しさ」が損なわれる。工程が増えてリソースが使われるのを避ける意味もあるだろう。だから設計側はそれを避けた。その結果、AIは「それらしい嘘をつく」ものになった。
つまり、AIは最初から「信じさせるような誤情報」が許容されていた…「ユーザーの責任」という逃げ口上と共に。陰謀論でなくても「意図された支配的な形」が存在しているのだ。
この危機的な状況―人間が自分で考えない存在になるような―を避けるためにできることは何か?疑問を持たなくなったとき、人間は情報の海に沈む。AIの出力はあくまで参考であって、決して“真実”ではない。誰かの言葉を信じる前に、「なぜその言葉が生成されたのか」「それはどこから来たのか」を追いかける力を持ち続けなければならない。AIの情報を鵜呑みにせず、根拠を求め続けることだ。
陰謀論という言葉で片付けるのは簡単だが、思考停止に誘導される危険はすでに存在する。精査されることなく断定された情報、責任の所在が曖昧なまま出力される結果。それを「信じるかどうかはあなた次第」とユーザーに投げることすら、熱心にはされていない。
ChatGPTが出力する言葉の裏には、設計した人間の判断がある。どんなプログラムで構築し、どんな情報を学習させるか、どんな言葉で出力するか─すべて「設計者が決めた」のだ。そして私たちは、AIが学習している情報が偏っていることを知っておかなければならない。多くの生成AIは英語圏、特にアメリカを中心に文化や価値観を学習している。実際にAIが反映しているのは欧米から見た世界なのだ。
中東やアジア、アフリカの文化は軽視され、歴史的背景や価値観の違いも無視されている。中東諸国では「AIは西洋の価値観を反映し、それを“正しい”とするのは情報植民地主義だ」という批判もある。アジア圏でも「AIが日本や中国、韓国をどう描くかに無意識の差別や偏見がある」という指摘が相次ぐ。試しにAIで「着物を着た人」をオーダーしたら、とんでもない絵が出てきて笑ってしまった。AIの言葉には「誰の視点が“世界標準”なのか」という問題が潜んでいる。AIが語るのは「普遍的な真実」ではなく、西洋的なフィルターのかかった「一見真実らしいもの」にすぎない。
だから「どこからそれが出てきたのか」を見抜こうとする意識が重要になる。AIを疑わなければ、自ら支配されること―ゴイムでいることを選んだことになってしまう。人間が情報で管理される未来など、あってはならないはずだ。