• はてなブックマーク
  • Delicious
  • twitter
  • 印刷
メディア選挙からデータ分析選挙へと旋回した2012年大統領選

11月6日に行われたアメリカ大統領選は、現職のオバマ大統領が挑戦者のロムニー候補を破り再選された。前回の2008年の熱狂的な支持に比べれば、良くも悪くも現職の大統領として過去3年半余りの実績に基づく、リアルな人物評の下で選挙戦に臨まねばならず、総じて逆風にどう対処するかに注目が集まっていた。

実際、2010年の中間選挙ではいわゆるTea Party効果によって、下院での多数を共和党に奪取され、それ以後は、90年代のクリントン時代のように、大統領と下院議長との間での対立が目立ち、重要な政策=法案が頓挫する事態が続いていた。今回の選挙は、そうしたホワイトハウス(民主党)対連邦議会下院(共和党)の対立に対して民意を問う機会でもあった。結果としては、民主党が下院の多数を取り戻すことはできず、ホワイトハウスと下院のネジレは解消されなかった。とはいえ、大統領は現職が再選されたため、中間選挙直後のような下院議長のゴリ押しも、当分は効かなくなると見られている。

そのような大統領選勝利に貢献したのが、データ分析によって示された方法論を使って計画され実行された選挙キャンペーンであったというのが、次の記事。

Inside the Secret World of the Data Crunchers Who Helped Obama Win
【TIME: November 7, 2012】

有権者や支持者に関するデータを分析し、そこから傾向を抽出し、その結果を選挙戦に展開したという。2008年にはFacebookなどのソーシャルネットワークを活用し、選挙キャンペーンの在り方を変えたというのがオバマ選対の外部からの評価だったわけだが、しかし、この記事を見ると、最初に行ったことは、選対の各セクションで保持していたリストデータを統合するところだったということだ。つまり、投票の呼びかけ、献金の呼びかけ、あるいは、メディアへの広告出稿、などのデータがばらばらであったが、それらをまずは統合し、各セクションがさしたる意思統一もなく、現場の経験や直感だけで動かないようにした。

いうまでもなく、選挙戦は日々状況が変化し、多くの出来事が限られた時間の中で対処される。文字通り、時間の急き立ての中で意思決定がなされていく。となると、どうしても意思決定者の経験や直感が優先され勝ちになる。その、放っておけば現場対応に終始しがちな傾向に対して制動をかけ、一定方向に限られた資源(資金、時間、人員、等)を投下できるようにしたのがデータ解析だった。

この記事の中では単に触れられただけだが、面白いと思えたのは、テレビ広告の出稿に当たって、支持者や支持を呼びかけたい人たちの嗜好を分析することで、The Walking Deadなどのエンタテインメントドラマの枠への出稿を決めたところだ。従来は、報道番組、しかも地上波ネットワークのニュース番組の枠に出稿していたのだが、ケーブルのドラマ枠に出稿することを柔軟に選択した。このように、データ駆動型の意思決定に一つの効用があるとすれば、過去の成功体験が習慣化し、一種言説化した状況に対して楔を打ち込めるところだろう。つまり、意思決定の素材を公知として提供することができる。

もう一つ興味深い点は、Facebookなどのソーシャルネットワークを通じて、支持者に対してあるアプリをダウンロードさせ、それを活用して彼/彼女の知人に対して働きかけを促したところだ。これは、もはやバズというレベルを越えていて、任意の支持者をいわばユルいフィールドエージェントの一人として活用して、支持者予備軍の勧誘に役立てていると理解できる。知人の勧めには耳を傾ける傾向を利用した、ある意味では巧妙な方法といえる。

こうした方法を駆使することで、全米を通じて保守化気運が高まり、オバマ候補からロムニー候補に票が流れることが予測されていたにも拘わらず、一定範囲に票の流出をくい止めることができた。それは、スイング・ステイツと言われた、民主党と共和党の支持が拮抗している州で、最後までもつれたフロリダをはじめとして、そのほとんどをオバマ候補が僅差であるものの勝利することができたことに端的に表れている。

このように、拮抗が予想されるところでこそ、データに基づく冷静な判斷が有効だということなのだろう。この記事は、投票日直前に取材され、選挙結果発表直後に発表されたものであるため、概略が示されているに過ぎないが、本当にデータ分析が勝利に貢献したものであるとすれば、今後、もう少しまとまった報告が見られるようになるのかもしれない。

実際、今回の大統領選は、結果予想という点でも、データを活用したギークな人たちの活躍が目立った。有名なのは、最終的な代理人獲得者数を言い当てたNew York TimesのNate Silver等だろう。ここでも、いわゆるパンディットと呼ばれる政治戦略家が、それぞれのカンで述べていた予測、というか見立て(たとえば、ロムニー大勝など)を一掃した。面白いのは、こうしたギークな予測屋が、実際にテレビなどに登場して話しているところを見ると、文字通りギーク的な印象を与えるところだ。概ね、早口で、少しばかり声も高く、自説をまくし立てる。むしろ、こうしたギークが、パンディットのターフを揺るがせたのが、今回の選挙の背後で起こった、知的変貌の一つといえる。

このような変化の中で一つ気になることがあるすれば、それは、オバマ選対で収拾し分析されたデータは今後どうなるのか、ということだ。上の記事の内容に従えば、2008年に集めた支持者や支持者予備軍のデータが既に存在したことが、2012年の選挙戦を有利に運ぶことに貢献した。つまり、オバマ選対はロムニー選対に対して、データ収集の点で先行者優位を占めていたことになる。2008年の当選後の一年半は、そうしたデータの統合と解析に費やされた。そして、そのデータは、同じ候補者であるオバマ大統領の再選キャンペーンだからこそ、継続して活用することもできた。

では、そのデータは、2016年の大統領選ではどのように扱われるのだろうか。民主党の共有財となるのか。それとも、次の民主党の大統領候補に受け継がれるのだろうか。あるいは、オバマ選対は、そのデータベースをもとにして選挙コンサルでも行うのだろうか。

裏返すと、オバマ以後の候補者は皆、最初から自前の支持者データベースを充実させ、他のデータとの突き合わせを行うことを予め見込んでいなければならなくなる。これは、ケーブルが登場して以後本格化した「メディア選挙」に代わって、「データ解析選挙」(「ビッグデータ選挙?」)がこれからの選挙戦の巧拙を支えるものになることを意味しているように思える。

どうやら、2012年は、大統領選という一大事業の性格を、データ解析という視点から大きく書き換えてしまったようだ。データ解析選挙は、メディア選挙のように可視的で目立ったものではない。むしろ、不可視で、こういってよければ忍び寄るものだ。そして、その性格付けの変化は、選挙戦という事業の行方を占う人たちの性格も、パンディトからギークへと変えてしまう。

パーマネント・キャンペーンが当たり前のアメリカでは、大統領選の翌日から次の2016年に向けた動きがスタートする。オバマ選対が先鞭をつけた方法論がどこまで公知のものとなるのか、また、彼が築いたデータベースがどれくらい私的なものから開放されるのか(あるいはどのくらい私的なものに留められるのか)。データ解析選挙を支えるインフラが今後どのように扱われるのか。そして、これらがどの程度、公の話題となるのか。地味なテーマではあるが、地味なことだからこそ注意していきたい。

author: junichi ikeda

CONCEPT

FERMATは、コミュニケーションという社会の基底を与える領域の変化の徴候に照準しながら、未来のビジョンを描くことで、新たな何か=“X”、の誕生を促します。