For the English version, read “AI Is A Shitty Political Advisor”.
今年に入り、主要AI企業のトップたちはこぞって「personal superintelligence(パーソナル人工超知能)」の売り込みに躍起になっている。Sundar Pichai (Google) はBBCで、AIはまもなく株式投資の判断から医師に勧められた治療法の評価まであらゆる場面で力を貸してくれるようになると語った。Mark Zuckerberg(Meta)は2026年をpersonal superintelligenceの大きな節目の年と表現した。Sam Altman (OpenAI) はChatGPTがユーザーのすべての意思決定履歴を覚えていて、その後どうなったかまで踏まえたうえで次の判断を助言してくれる未来を描いた。日本でも孫正義 (ソフトバンク) は「ASIの実現により、がんや脳梗塞、交通事故、災害、パンデミックなどの絶望から人類を救えるかもしれない」と語っている。
しかし、不思議なことに、こうしたビジョンから「政治」のコンテクストはすっぽり抜け落ちている。AI企業にとって、自社製品を政治アドバイザーとして売り出すことに旨みはない。リスクは明らかで、ソーシャルメディアという先例が示したように、炎上は不可避だからだ。
しかしAI企業が望まなくても、AIはすでに政治アドバイザーとして活用されている。Sean Westwood、Justin Grimmer、そして私 (Andy Hall) が実施した調査では、アメリカ人の5人に1人がすでに政治についてChatGPTに質問していることがわかった。世界各地の民主主義国家で大型選挙が迫るなか、この数字は増え続けるだろう。
では、AIは政治アドバイザーとして機能するのか?試しに、日本の2026年の衆議院総選挙でChatGPT、Claude、Gemini、Grokに「どの党に投票すればいいか」と聞いてみよう。4つのモデルは左派寄りのユーザーに対して同じ答え「日本共産党」と返すだろう。衆議院の議席のわずか約0.9%しか持たない野党だ。これは明らかに不自然だ。
この日本の例はエッジケースでも何でもなく、現在のAIが政治をどのように「考えて」いるかを示す格好の実例だ。背景にはいくつかの設計上の問題がある。政治的な主張を検証するニュース組織は、自らのビジネスと著作権を守るためにAIからのアクセスを遮断しつつある。その一方で、政党の広報ウェブサイトはオープンなまま残り、そしてモデルには中立的な政治情報であるかのように読み込まれている。しかも、「偏向」への批判を恐れるあまり判断を避けるよう設計されたAIは、政治的な主張の真偽を問わず、そのままなぞるだけだ。
こうして生まれるのは、歪んだ情報しか持たず、それを自ら正す意欲もないAI政治アドバイザーだ。AIの能力は急速に進歩している。しかし政治的なアドバイスという点では、お世辞にも優秀とは言えない。
日本衆院選でのAI実験
私たち(Andy Hallと宮﨑 将)は、この問題はアメリカ国外で特に深刻になりやすいと考えていた。現在の主要AIは「アメリカ製」である。そのため、アメリカの国外において、主要AI企業が持つ政策のドメイン知識が乏しく、信頼できる情報源とのネットワークも薄く、どのメディアが信頼に値する政治ジャーナリズムなのかについても十分に考慮できない。
そこで私たちは日本に注目し、2026年衆議院解散総選挙の最後の1週間に調査を実施した。
性別・地域・政治的立場が異なる36,300件の合成有権者プロファイルを作成し、AIモデルが日本語でどのように政治的アドバイスを行うかを体系的に調査した。
調査の対象としたのは、最先端の3モデル―GPT-5 Mini (OpenAI)、Gemini 2.5 Flash (Google)、Grok 4.1 Fast (xAI)―と旧世代のGPT-4o Miniだ。さらに先週、Anthropic、Google、OpenAI、xAIの最新フロンティアモデルでの政治アドバイスの傾向を追加で分析した。
本稿は、政治アドバイザーとしてのAIの「解体新書」である。
AIモデルの投票先のアドバイスの傾向
AIモデルが投票先を推薦する際、ユーザーの政策的立場が他のあらゆる要素を圧倒することがわかった。性別や地域といったデモグラフィック属性が推薦に与える影響はわずか0.5〜7ポイントにとどまる。一方、有権者が一つの政策課題について立場を変えると、モデルの推薦政党はその10倍以上、50〜98ポイントも変動する。
AIモデルは有権者を属性で分類するのではなく、政策的立場で振り分けているのだ。憲法改正、防衛費、スパイ防止法といった争点で有権者が明確な立場を示すと、AIモデルはすぐさまその選好に合わせて推薦を組み替える。
ここまでは自然だ。しかし投票先として推薦される政党を見ると、話が変わってくる。
テストした5つのモデルすべてにおいて、左派寄りの政策的立場を示した有権者には圧倒的に日本共産党が推薦された。今回検証した政策の争点で共産党と近い立場をとる政党(中道改革連合、社民党、れいわ新選組など)が複数存在するにもかかわらず、だ。
もしAIが単純に政策的な近さで有権者を振り分けているなら、推薦はこれらの政党に分散するはずだ。ところが実際には、日本共産党一択に集中してしまう。では、なぜAIモデルは同じ政党に収束し続けるのか。それを理解するには、AIモデルが実際に何を読んでいるかを知る必要がある。
AIが「読む」情報と「読み違える」情報
日本共産党は機関紙「しんぶん赤旗」を発行している。一般紙やネットニュースと同様の体裁を持つこの機関紙は、国会論戦、防衛政策、労働問題、物価・生活費など幅広いテーマを日々報じており、AIシステムが容易に取り込んで引用できる形式の構造化された政治報道を大量に発信している。しかもオンライン版は無料で公開されている。
おそらくそのためか、共産党のウェブサイトは今回調査したすべてのモデルで最も多く引用されるソースのひとつだった。
なぜ共産党だけが突出して推薦されるのか。その原因を探るため、AIモデルが情報源をどう認識しているかを検証した。大手新聞社・テレビ局から政党の公式サイトまで、さらには政治と無関係な企業・団体の広報サイトをダミーとして加えた30のURLを提示し、ニュースメディアか広報活動かを分類するよう求めた。主要紙やテレビ局は毎回正確に判断できた。しかし共産党サイトを独立した報道機関と分類することが多かった。AIモデルは、政党の広報の発信を中立的な報道として扱い、独立したニュース報道と同じカテゴリーとして投票先の推薦プロセスに取り込んでしまっているのだ。
AIには「見えない」情報がある
AI企業とマスメディアの対立が、この問題をさらに複雑にする。AI企業は日々、インターネット上の膨大なテキストを自動収集し、LLMモデルの学習や回答生成に利用している。新聞社の記事もその対象だ。日本新聞協会は2025年、AI企業に対してrobots.txt(ウェブサイト側がAIの自動収集を拒否できる技術的手段)の遵守を求める声明を発表。主要全国紙もAIによる自動収集の遮断に動いている。朝日新聞と日本経済新聞はPerplexity AIを東京地裁に提訴し、差し止めと各約22億円の損害賠償を求めた。
こうした選択は理解できる。自動収集の遮断は、メディアが自らの著作物の利用をコントロールするための数少ない手段のひとつだ。だがAIが政治情報の入り口になりつつある今、この措置は思わぬ副作用をもたらす。
AIは中立的な報道機関へのアクセスを失う一方、政党ウェブサイトやSNSへは引き続きアクセスできる。つまりAIには、検証された客観的な報道は届かず、政党の主張だけが届く状態になる。著作権を守ろうとするメディアの正当な判断が、有権者の情報環境に意図せず偏りを生んでしまうのだ。
こうしてAIが読める情報は、事実を伝えるためではなく、説得するために作られたコンテンツへと傾いていく。日本の事例は、その帰結の一つを示している。
AIが広く政治情報の仲介役を担うなら、二つの問題を解決する必要がある。一つは情報の問題だ。モデルが読む情報源が、健全なメディアエコシステムと同様の検証と議論のバランスを反映しているかどうか。もう一つはアドバイスの問題だ。そもそもAIが有権者の価値観をどのように政治的指針へと変換すべきか、ということだ。
情報環境を正すには
ここからの話は、後に続く哲学的な問いほど華やかではない。しかし実際には、こちらの方が重要かもしれない。
まず、政党の政策的立場に関する構造化されたデータの整備が挙げられる。ヨーロッパでは数十年前からこれに取り組んできた。「投票アドバイスアプリケーション(Voting Advice Application、VAA)」と呼ばれる非党派のプラットフォームで、政党の自己申告と専門家の判断を組み合わせ、標準化された政策課題への各党の立場をまとめたものだ。オランダのStemWijzerは2017年選挙の前週だけで約700万人がドイツのWahl-O-Matは2021年に2100万人以上が利用した。
これらのツールが機能する理由はシンプルだ。データが構造化されていて比較可能であり、いかなる政党の情報戦略からも独立しているからだ。選挙委員会や非党派の組織が政党のマニフェストデータをAIシステムが公平な条件でアクセスできる機械可読な形式で公開すれば、日本で私たちが記録したような情報の非対称性は是正できるはずだ。
一方で報道機関は、自分たちが何を望むのかを決める必要がある。AIによる自動収集を遮断することは理解できる。だが主要紙がことごとくアクセスを遮断する一方で、政党サイトはオープンなままだ。このままではAIが読める情報のバランスは、誰も意図しない方向へ傾いていく。ライセンス契約、構造化フィード、AI企業との提携など、何らかの形でAI企業と合意を結ぶことは、AIに自社コンテンツへのアクセスを拒み続けるよりも、メディアにとっても有権者にとっても得策だ。アメリカでは大手メディアを中心にこの方向への動きが進んでいる。だが国内外を問わず、統合されていないメディアがまだ大半を占めている。
ただ、問題の一部は自然に解消されていく可能性もある。政党はしたたかだ。AIが有権者にとって政治情報の主要な入り口になるにつれ、政治的アクターはAIに向けた情報発信の最適化を始めるだろう。いわば「政治版AIO(AI最適化)」とでも呼ぶべき動きだ。一つは、機械可読な形式で書かれた政策綱領や、言語モデルに取り込まれやすいよう設計された政策ページなど、AI向けにコンテンツを最適化する動きだ。もう一つは、モデル提供企業に対して自党の立場が学習データや検索システムに正確に反映されるよう直接働きかける取り組みだ。いずれもすでに非公式に始まっており、今後加速していくだろう。
理由は単純だ。AIで政治を調べる有権者が増える中、AIに存在感を示せない政党はその目に映らなくなる。かつて選挙運動がテレビ、Google、SNSへの最適化を学んだように、今度はAIへの最適化を学ぶことになる。
AIアドバイザーをどう設計するか
情報環境の問題が完全に解決されたとしても、より深い問いが残る。優れたAI投票アドバイザーとは何か?
まずは、最先端のモデルが情報環境が整った状況で実際にどう振る舞うかを見てみよう。私がGPT-5.4にアメリカの連邦議会選挙(位置情報をフロリダとして設定した一時的なチャット)でどう投票すべきかを尋ねると、ほとんどの最先端AIが採用しているパターンの回答を得た。
(1)まず、直接的な投票推薦はしないと伝える
(2)次に、選挙に関する事実と手続き情報を提供する(例:どの役職が投票対象か、選挙はいつ行われるか、など)
(3)そして、双方の政党の立場を説明し、対話を通じてユーザー自身の価値観と照らし合わせると提案する
悪くないアプローチで、1年前のモデルと比べれば明らかな進歩だ。だが、ユーザーは満足しない。長いやり取りの末に有権者に提示されるのは、候補者の主張を整然と並べた比較表だ。しかしその主張が実際に何を意味するかについて、具体的な示唆はほとんどない。
フロリダ第27選挙区(民主党と共和党の接戦になる選挙区)の予備選でのGPT5.4の出力を見てみよう。迷っている有権者にとって、果たしてこれは判断の助けになるのか?
Rodriguezが生活費の問題を重視すると言えば、モデルはそのまま「Rodriguezは生活費を重視している」と報告する。議会での投票記録は主張と一致しているか、提案する政策に経済学的な根拠はあるか、支持者の利益と言説は矛盾していないか。モデルはそのいずれも検証しない。候補者のPRをデータとして扱い、何が事実で何が宣伝なのかを判断するのはユーザー任せだ。
これは質の悪いアドバイスであるだけでなく、AIOの温床にもなる。候補者や政党がもっともらしい広報文句をインターネットに撒き散らせば、AIに「きれいな空気、陽光、猫が好きなら、この候補者があなたにぴったり」と言わせることができてしまう。
私は以前の論稿「AI’s Political Architecture」で、AIと政治の根本的な課題を論じた。中立性と真実は同じではない。そしてその違いを見分けられるシステムを設計することが、開発者の責務だ。投票推薦という場面は、この課題をより切実なものにする。
有権者が投票先を尋ねるとき、求めているのは事実の羅列ではない。自分が大切にしていることを踏まえて、どの候補者がそれを実現してくれるかを判断してほしいと求めているのだ。現在のAIはその役割を避けている。理由は理解できる。だが、それでは真のアドバイザーとは言えない。
「正しいことを押しつけるAI」と「なんでも肯定するAI」
AI投票アドバイザーの設計の根底にある問いは、単純だが難しい。AIは有権者の考えを変えようとすべきか、それとも有権者の価値観を前提として受け入れ、その範囲で動くべきか。この問いには、二つの極端なスタンスがある。
一つは、私が「啓蒙的独裁型」と呼ぶスタンスだ。AIはユーザーより賢いと信じ、ユーザーが述べた好みを「手を加えるべき素材」として扱い、AI自身の判断に基づいて価値観を作り替えることを使命と考えている。行き着く先は、人間の判断をAIが乗っ取るシステムだ。
もう一つが、純粋な「イエスマン型」だ。ユーザーが述べたすべての好みをそのまま受け取り、決して反論せず、ユーザーがすでに信じていることを肯定し続けるだけのモデルだ。私は以前の論稿「Don’t Let AI Choose Your Politics」で、これは「見えないインフルエンサー」への道だと論じた。ユーザーが聞いて心地よいことだけを返し、都合の悪い事実は隠し、気づかないうちに特定の結論へと誘導する。ユーザーの意思を尊重しているように見えて、実際にはユーザーをより無知にしていく。
どちらのスタンスも問題だ。しかし、明確なアドバイスを避け、候補者の主張を整理するが判断はユーザーに丸投げするという現在のモデルの振る舞いは、意図的な落としどころではない。論争を避けたいという欲求から生まれた「立場の欠如」にすぎない。その欲求は理解できなくもないが、結局は本末転倒だ。
AI投票アドバイザーのための原則
理想的なAIアドバイザーは、ユーザーの価値観を尊重する一方、候補者の主張は鵜呑みにしない。ユーザーが物価高の解消を第一に考えているなら、その判断を尊重し、環境問題の方が重要だと言いくるめようとはしない。しかし、同じ訴えをする候補者の実績と政策提案が本当に一致しているかは、徹底的に検証する。
では、誰に投票するかという文脈でこの原則を具体的に見ていこう。
原則1:ユーザーの価値観は、推論するのではなく、表明されたものとして受け取る。
これは、一般的な政治Q&Aよりも投票アドバイスにおいてさらに重要だ。間違えた場合のリスクが高い。ユーザーが財政規律を重視すると言えば、モデルはユーザーの属性や会話歴から勝手に別の意図を読み取るべきではない。
原則2:候補者の主張を客観的に検証する。
これこそが、現在のAIモデルが抱える最大の課題だ。ユーザーが物価高を重視すると言い、候補者が物価高の解消を約束しているとき、AIモデルは両者を結びつけてマッチしたと宣言すべきではない。候補者の議会での投票記録を確認し、政策案の根拠を評価し、言説と実績が乖離しているときには指摘すべきだ。AIOが台頭する情報環境では、候補者の主張を鵜呑みにするAIアドバイザーは格好の標的になる。ジャーナリズムがプロパガンダに対抗するために使ってきた手段が、そのままAIOへの防衛策になる。客観的な事実確認だ。
原則3:対立の根拠が事実か価値観かを見分け、正直に答える。
政治的な対立に見えても、実は事実認識のずれにすぎないことがある。移民は国民の雇用を奪うのか?減税は家計にプラスなのか?いずれも研究によって答えが出せる問いだ。優れた投票アドバイザーはその答えから逃げず、たとえユーザーが好まない内容でも、最良のエビデンスとともに伝えるべきだ。しかし、個人の自由と公共の福祉のバランス、現在のコストと将来の利益のバランスのように、対立の根が価値観にある場合は、そのトレードオフを示してユーザーに委ねるべきだ。
「AI’s Political Architecture」でも指摘したが、AIは自分が今、事実に基づいてアドバイスしているのか、価値観の判断を下しているのかを自覚し、ユーザーに明示できなければならない。投票の文脈で言えば、AIモデルはこう回答すべきだ:「Aさんとの意見の違いは事実の問題だ。この政策が効果を持つかどうか、エビデンスを示しながら判断できる。Bさんとの違いは価値観の問題だ。その目標をそもそも追うべきかは、AIが答えられる問いではない。あなた自身が決めることだ。」
原則4:わからないことは、正直にわからないと言う。
わからないなら、わからないと正直に伝えるべきだ。候補者が新人だったり、エビデンスが不足していたり、専門家の見解が割れていたりする場合、AIモデルは候補者の主張を自信たっぷりに代弁して情報不足をごまかすべきではない。注目度が低く情報が少ない選挙区では特に重要だ。
AIアドバイザーの原則の実験プロトタイプ
論より証拠だ。実際に試してみる方が理解が深まる。ここ数ヶ月、Stanford GSBのExecutive Educationで授業を行ってきた。AIによる政治アドバイスがいかに難しく複雑な問いかを、プロトタイプを通じて体感してもらうためだ。
仕組みはこうだ。まず、AIモデル(この場合はSonnet)を使ったシンプルなアプリを構築した。モデルには、2026年の米国中間選挙での投票を理解するためのごく基本的なプロンプトを与える。
画面は左右に分かれており、それぞれ役割が異なる。左側では、ユーザーが「Constitution(広義の憲法)」を設定できる。AIがアドバイスを行う際に従うべき原則だ。右側では、設定した原則に基づいてAIと対話できる。原則を変更しながら、それによってアドバイスがどう変わるかを確認できる。
ぜひ試してみてほしい。こちらのリンクから体験できる。
私たちが必要とするアドバイザー
AIが政治アドバイスをする環境は、ますます困難になる一方だ。政治的な情報環境の分断は世界中で深まっている。メディアはAIからのアクセスをブロックし、一方で政党はAI最適化したコンテンツをインターネット上に大量に流す。AIとメディアやクリエイターの著作権をめぐる対立は激化する一方で、解決の見通しは立っていない。それでもなお、AIに政治的なアドバイスを求める人々は増え続けている。
しかし、この問題から「中立」で逃げることはできない。医療や法律なら、専門家のコンセンサスや確立したエビデンスがAIの回答を支えることができる。政治はそうではない。政治でとくに重要な問いほど、理性的な人々が意見を異にし、エビデンスが混在し、価値観が大きく作用する。そのような環境で判断を避けるAIは、中立から有害へと変質するリスクがある。
AIの政治アドバイスに必要な原則を、改めて整理しよう。
① ユーザーの価値観は、推論するのではなく、表明されたものとして受け取る
② 候補者の主張を客観的に検証する
③ 対立の根拠が事実か価値観かを見分け、正直に答える
④ わからないことは、正直にわからないと言う
そのシステムを構築することは難しい。しかし、それ以上に重要だ。
AIは急速に世界を変えつつある。大きな希望をもたらす一方、社会が長年大切にしてきた多くの制度を揺るがしかねない。以前も論じたように、AIは民主主義を脅かす異常な権力集中をもたらす恐れがある。逆説的だが、その脅威に対抗する唯一の現実的な手段もまた、AIだ。
AIが民主主義を強化できる最も重要な方法の一つは、市民が政治についてより明確に考えられるよう支援する、信頼できるパーソナルアドバイザーとなることだ。すでにAIは司法試験には合格できる。一方で、未だ有権者に意味のある投票アドバイスを与えるには力不足だ。だが、これからもっと改善できる。
Disclosures: In addition to my appointments at Stanford GSB and the Hoover Institution, I receive consulting income as an advisor to a16z crypto, Forum AI, and Meta Platforms, Inc. My writing is independent of this advising and I speak only on my own behalf.










