adtech周辺に興味がある人の四方山話

adtech, marketing, data analysis, etc...

「DataScientist Casual Talk in 白金台」というイベントを開催します

タイトルとか色々突っ込みどころ満載だと思いますが、やらせていただきます。

経緯とかいろいろ

結論としてはイベントしますよーって話なんですが、説明の切り口がなんとも難しかったりして、あー、書くの大変だな−とか思いつつ、とりあえず最後イベントの告知まで持っていくように書いてみます。

まず、8/1から株式会社ブレインパッドにてお世話になっています。 なにかと話題なデータサイエンティスト協会と密接な関わりのある会社ですが、自分はエンジニアの部署にて某プロダクトに関わって世の中に価値を産み出すべく日々コツコツ仕事をさせて頂いております。

で、時系列的には前後するのですが、前職の時に前職のネタにて執筆させていただいたデータサイエンティスト養成読本というムック本が8/8に発売されま した。この流れでは全然関係ないですが、そこそこ販売部数が伸びているということで嬉しい限りです。自分の観測範囲では瞬間最大風速はAmazon総合8位だったと記憶しています。

見本誌をいただくまで他の人の章はタイトルしか分からなくて、自分の内容浮いてないかなぁなんて思ってましたがまあ浮いてましたね(笑)。他の人のところを全部読んだわけではないですが、fluentの章がいい感じだと思って読ませていただきました。ちょうどいま自分がfluentdを本格的に使い始めている(遅い)ので色々参考にさせてもらっています。何はともあれ、自分が関わった書籍がAmazonに並んでいたり、よく行く本屋さんとかで並んでいるのは不思議な気持ちです。

で、このムック本に関わった方の中でのメールのやりとりで、著者の方を講演者として勉強会やりませんか、というのが流れていて、その話が出ているくらいがちょうど無職期間だったので自分は傍観してい ました。その後アクションはなく、そのままお流れになっちゃいそうな状態になっていて、ブレインパッドへの入社に合わせて、もう自分が書籍に関わることはないかもしれないしせっかくの機会だからということで自分が引き取らせてもらいました。

ブレインパッドは8/12から白金台の新オフィスに移転となりました。そこのお披露目という名目も合わせて会社のセミナースペースにてイベントを開催させてもらい、開催しやすかったら今後個人でやる勉強会 で使わせて頂こうという若干の打算もありつつ、社内の方々の協力を得て無事開催できる運びとなりました。

ということで

こちらが参加者募集ページです。 著者の中でボクが比較的親しい方々にお声がけし、執筆した内容にかるーく触れつつ講演してもらうかなりゆるめの会です。どっちかというと後の懇親会メインかもしれません。世間一般にCasual Talkというと、カジュアルな気持ちで行くと思った以上にガチだったというのが定説(?)ですが、本会に関してはおそらくそんなことはないでしょう。忙しいにも関わらず講演していただける発表者の皆様に感謝感謝です。

イベントはCodeIQさんがスポンサードしてくれていまして、発表者協力による連動企画と、懇親会のサポートを行ってくれています。パチパチパチパチ

一応お断りとか

なんでこんな言い訳じみたというか、長々とした文を書いたかと言うと、ここ、ここのくだりが重要ですよ。

イベントのフックになっている本のタイトルに思いっきりデータサイエンティストって入ってるし、その流れでイベントのタイトルもそれっぽくしてしまっていますし、なにより主催者がブレインパッ ドの社員で会場がブレインパッドのオフィスですが、データサインエンティスト協会とは無関係のイベントになります。最近ネット上を見てると、会社と協会に関する色々な話が飛び交ったりして、 色々思う所はありますが、本イベントに関しては、『著者の方たちの中から勉強会やりましょうよという声があがっているのを見て、ちょうど新オフィスになってたと ころもあって自分が主催者として手を挙げてみて会社に交渉して開催していいよ−ということになり開催する』会になります!色々聞かれたりしてもボクハナニモワカラナイノデスヨ

あ、この勉強会、ボクはしゃべりません。ただの主催者(というか会場係)です。あと、一部の方からもう一つの勉強会についてもご質問を受けることがありまして、次はAdTech Tokyo の後くらいの開催を予定しています!スピーカーしてもいいよという個人、企業の方、是非お声がけをば!!

「ビッグデータ」と「データサイエンティスト」がタイトルに入ってる本を読んでみた話

ちょっと前まで少し時間があったので、自分も斜めに構えているだけでなく「ビッグデータ」「データサイエンティスト」に触れられている本を色々読んでみようと思ってボチボチとそれらしい本を読んでいました。


データサイエンティストに学ぶ「分析力」

データ・サイエンティストに学ぶ「分析力」    ビッグデータからビジネス・チャンスをつかむデータ・サイエンティストに学ぶ「分析力」 ビッグデータからビジネス・チャンスをつかむ
ディミトリ・マークス ポール・ブラウン 馬渕邦美

日経BP社 2013-02-28
売り上げランキング : 1959

Amazonで詳しく見る
by G-Tools

本のタイトルはすごくキャッチーなんですが、原書のタイトルは”SEXI LITTLE NUMBERS - How to Grow Your Business Using the Data You Already Have” と非常にまっとうなタイトル。データサイエンティストと検索して一番上に出てきたので読んでみました。

冗長な割に詳しい解析手法まで踏み込んでいなかったりするので、読んでて辛かったりしましたが、P45-P55に書かれている「ビジネス上の目標を達成するためにどのようにデータを活用してマーケティング活動を行うか」みたいな部分は是非データ解析に関わる全ての人が同じ意識として持ちたいですね。この部分について、事例を交えたりしつつ各章で語られているという構成になっているので、データ解析やろうよ、的な流れが発生したら、すっとこの部分を関係者(特に上司)に読ませるようにしかけると、後々発生するかもしれない謎の根回しが楽になるかもしれません。

ビッグデータの衝撃

ビッグデータの衝撃――巨大なデータが戦略を決めるビッグデータの衝撃――巨大なデータが戦略を決める
城田 真琴

東洋経済新報社 2012-06-29
売り上げランキング : 13438

Amazonで詳しく見る
by G-Tools

こちらもビッグデータで検索して一番最初に出てきた本です。情報が非常に整理・網羅されていて、読んでいて素直にすごいなーと思いました。ビジネス活用事例・テクノロジー・プライバシー問題と、それぞれ非常に深く書かれている本なので、「ビッグデータ(笑)」と思うだけでなく、ビジネスサイドでしっかり勉強されている方は少なくともこのレベルの知識を持ってるんですね。ただ、これ読むと、やっぱりHadoop使えばなんとかなるとか、データをとりあえず貯めようよ、みたいな考えになりそうなので、それは本当にいいことなんですけど、本の中で出てる事例の企業のように、さくっと成功事例を生み出せなくて、データ施策に対する投資の回収ってけっこうたいへんだと思うんですけどね−、とだけは誰かエライ人に言ってほしいなと思いました。

あと、内容とは全然関係ないんですけど、なぜかHadoopを「ハドゥープ」、MapReduceを「マップリデュース」と記述していて非常に気持ち悪かったですね。他の用語はアルファベットで書かれていたので、なぜその2つだけ。。。

最後のプライバシーや、データエクスチェンジの辺りは、自分が最近興味ある分野だったりするので、非常に勉強になりました。

会社を変える分析の力

2冊読んで消化不良感がまだあったので、さらに手を広げてみています。

会社を変える分析の力 (講談社現代新書)会社を変える分析の力 (講談社現代新書)
河本 薫

講談社 2013-07-18
売り上げランキング : 387

Amazonで詳しく見る
by G-Tools

この本はまだ読んでないのですが、最近良く記事になる大阪ガス情報通信ビジネスアナリシスセンターの河本さんの本なので、買ってみた本です。まだ最初の方しか読めていないのでなんとも言えませんが、 なかなか良さげな気はします。

以上

まあ、最近ちゃんと流行ってるものを理解しようと読んでまして、面白いけどなかなか難しい分野ですよねー、という結論は変わらず。とりあえず飽きるか納得するまで、この分野の本をちょろちょろと読み進めていこうと思います。

データサイエンティスト界隈について一言言っておくか

勝手に言っとけや!という感じなのですが、明日から本気出す予定なので、所属がない今の割と自由な状態で書いておきます。勢いだけのほぼ戯言です。


たまたまWeb上でつながってる方はデータ解析まわりの方が多くて、ビッグデータとかデータサイエンティストとかの話題がガンガンと流れこんでくるため色々な意見があるなーとウォッチしていまして、独断ですごくざっくり分類すると、「乗るしかない!このビッグウェーブに!」派のスーツっぽい方か、「ビッグデータ(笑)、データサイエンティスト(笑)」なエンジニアな方が多いとお見受けしています。あと、そもそもこの流れ自体を冷ややかに見てらっしゃる方も多そうですよね。

で、そんな中に鬼才現る!じゃないですが、舌鋒鋭い論客が現れました。

ネガティブにデータサイエンティストな日記

この方の楽天のデータサイエンティストは400人!日本のデータサイエンティストの半分は楽天にいる! という記事を読みまして、日本にデータサイエンティストが何人いるとかは正直どうでもいいと思ってはいるのですが、最後の最後

日本はバカいってないで、このような世界で不足するのはデータサイエンティストよりも サーバ台数とインフラエンジニアだと認識したらどうでしょう。で、楽天やウリに困ったSIerは データサイエンティストな人材をそんなにためこまないでください。まじでお願いします。

という素敵な意見にうんうんと頷いてしまいました。

個人的には、今のデータサイエンティスト論を展開する方はちょっとデータ解析系の方が多すぎるのではないかなぁ、と思ったりしています。ある瞬間のスナップショットデータが利用可能な状態になっている前提からスタートすることでパフォーマンスを発揮できる方だけが大量に増えても、現実問題としてはけっこう辛い気が。。。

データまわりの話は、当たり前ですがデータの入口と解析結果の出口が重要だと思っていまして、ソーシャルゲームの成功事例は、入口としてゲーム内での行動ログ、出口としてユーザー反応に合わせたゲームのパフォーマンスチューニングやゲーム設計があり、そういった出口での変更が課金収入に繋がるという点で、データ解析に投資する費用対効果が高く、かつ見えやすいと言うのが大きかった気がしています。

逆に、最近のアドテクやデジタルマーケティングなどは、データをうまく使えば効果はあがりそうだというのが共通認識ですが、入口と出口がたくさんあるために、どこをどうすれば費用対効果があるのか見えなくて色んな意見が飛び交っていて、効果的なのかかけた苦労の割にそこまで効果がないのか、見えにくくなってしまっている部分が大きいですよね。

なんかちょっと話がズレた気もしますが、入口と出口はプランニング(戦略)とエンジニアリングが活躍するところでしょうし、費用対効果は人的費用はもちろんシステムの話になりますので、データ解析ばかりが先行するのではなくて、もう少し地に足のついた感じの話が出てくるといいかなぁと思ったりしています。ただ、データ解析要らないとかそういうのではなく、ここはニワトリが先か卵が先か、みたいなところもありますし、まあ難しいところですよね。当然、プランニングにはデータ解析した情報が必要でしょうしね。

あと、全然関係ないですが、データサイエンティスト分業論みたいなのもよく耳にする流れで、ソーシャルゲーム界隈は一時期データ解析まわりの人を多く集めていましたよね。今少し業界が縮小傾向にありそうなので、データ解析してた人とデータ基盤の整備してた人はそれなりにいると思うので、そういった方たちが流れてくるとは短期的には需給バランスは満たせそうな。とはいえ、不足すると言われてる20数万人にはとてもじゃないが足りなさそうですが。

Vagrant導入メモ

ほぼ自分向けのメモです。作って壊してを簡単にできる仮想環境は大変便利デスヨネー

VagrantとVirtualBox

VirtualBoxのインストール

インストーラ持ってきて入れる。それだけ。

Vagrantのインストール

インストーラ持ってきて入れてもいいけど、gemでもインストールできるらしいのでそちらで。

1
$ gem install vagrant

後述しますが、結局gemで入れたvagrantはアンインストールして公式からインストーラ使って入れなおしました。

設定関係

  • boxをaddする
1
$ vagrant box add ${box_name} ${box_path or url}
  • add済みのbox一覧確認
1
$ vagrant box list
  • VM作る
1
2
3
$ mkdir ${vm_dir}
$ cd ${vm_dir}
$ vagrant init ${box_name}

共有ディレクトリ

VM側の/vagrantはホストOS側のvagrant initしたディレクトリと共有される。なので、共有される/vagrant以下に対して適当にシンボリックリンクを張ってやるとローカルでの作業が仮想マシン上に即座に反映されているので開発が捗る。ローカルからgit pushして、仮想マシン側でgit clone(pull)してもよい。

ある状態のboxを作る

  • 既にある程度設定が済んだ状態の仮想マシンから新たにboxを作成する
1
2
$ cd ${vm_dir}
$ vagrant package
  • boxのリストに追加する
1
$ vagrant box add ${box_name}

sahara

仮想マシンをある時点に巻き戻せるプラグイン。作って壊してができるようになるので大変便利

  • インストール
1
# vagrant plugin install sahara
  • sandboxモードへ
1
# vagrant sahara on
  • sandboxモードの開始時点へロールバック
1
# vagrant sahara rollback
  • sandboxモード中の変更を確定
1
#vagrant sahara commit
  • sandboxモードを終了
1
# vagrant sahara off
  • sandboxかどうかの確認
1
# vagrant sahara status

仮想マシン起動中は著しくcommitやoffの動作が遅くなるので、仮想マシンをhaltかsuspendした方が良さげ。

upgradeとか

ドットインストールでvagrant plugin などのsubcommandがないなぁとか思ってたらそもそもバージョンが違ったようだ。(自分は1.0.x系だった。) この辺見ると後方互換性はあるみたいだけど、pluginの扱い方が少し違うようなので、1.0.xから1.x系に切り替える。自分はgemでインストールしたけど、この辺 見て、gem uninstallしてdmgで入れた。

参考

ドットインストール

株式会社ミクシィを退職していました

ありきたりですが、自分にとっては大きなターニングポイントですので書き記しておこうと思います。

2011年7月に入社し、約2年間お世話になった株式会社ミクシィを6月30日付けで退職していました。既に退職日を大きく過ぎているので、タイトルは過去形にしています。(早くソーシャルメディアのbioを直さないと!)

在職中のあれこれ

ミクシィでは技術部研究開発グループという、これでもかというほどギークな感じの方たちが集まる部署でお仕事をしていました。(当初は別の部署での採用予定だったらしいのですが、@kimurasさん に拾っていただく形で、研究開発グループ所属になりました。感謝感謝です。)

主なお仕事は、ソーシャルグラフのデータを使ってデータマイニング/データ解析行い、その結果を実際にサービスに組み込みよりユーザーが使いやすい、楽しくなるような研究開発活動をしていた、というのがざっくりとした表現になるのでしょうか。研究やデータ解析だけでなく、サービスに関わる開発まで、幅広く関わらせてもらいました。

2011年はFacebook, twitterがビジネス雑誌等でガンガン取り上げられ、徐々にSNS自体が盛り上がり初めたタイミングだったと思います。当時は、今ほどFacebookやTwitterが爆発的に普及していませんでしたので、規模においても質においてもmixiはまさに日本一のソーシャルグラフで、そのデータを触れる環境というのは大変刺激的でした。「ソーシャル」「ソーシャルグラフ」という単語が一人歩きする中で、概念論ではなく直接データを触ることができたことは非常に大きな経験だと思っています。ソーシャルグラフの可能性と現実の両方を体験できたと思っています。

チームメンバーは自分の入社時からは大きく入れ替わったのですが、最終的にはデータマイニング、検索、セキュリティ、認証・認可とそれぞれの得意分野で恐ろしいくらいハイレベルなメンバーに囲まれて、データ分析一辺倒だった自分の視野を大きく広げて頂きました。さらに最後の方では、リーダーという役目も拝命し、そういったメンバーがいるチームのまとめ役(そんなに何かしてたわけではないですが)を経験させていただきました。本当に大きな経験だったと思います。

その他、大人数での開発をはじめとして、スクラムなどの開発手法にふれたりと、エンジニアとして非常に学ぶことが多かったです。

転職の経緯ですが、このブログをたどっていって頂ければ分かるように、アドテクノロジー/デジタルマーケティングのおもしろさにのめり込んでいき、データ×マーケティングという領域により振り切ってコミットしたいな、と思ったからです。

今何してんのよ

有給消化期間+αでとあるスタートアップのお手伝いをしています。実はまだ正社員としてどこかでは働き出している訳ではありません。いわゆる無職期間ができてしまいました。

で、どこを手伝っているかといいますと、株式会社カンムという会社です。 カンムはCLO(Card Linked Offer)というサービスを展開しているスタートアップです。

カンムの代表である@8makiとは、金融×Web×データ解析という非常にニッチな領域での友人です。カンムはCLOの前にマーケットギークという金融ニュースサイトを手がけていまして、そこに意見したりしつつダラダラと関わってきた仲です。

前職に在職している間も、いわゆる週末スタートアップ参画みたいな感じで、雇用関係はない中でサービスへの意見やちょっとしたお手伝いをしていました。その後CLOの本格的な開発に際して、立ち上げからけっこう深くサービスに関わらせてもらっています。完全に宣伝になってしまいますが、先日、カンムはクレディセゾンに対してサービス提供を開始しています。

じゃあ次はカンムですか、という話になりますが、結論から言いますとジョインはしません。ここは完全に個人の事情になるのですが、今のタイミングでどシード状態のスタートアップには参画できないな、という結論になりました。

とはいえ、Webサービスを展開するスタートアップと異なり、すでに売上の目処がたっていたり、資金調達を完了していたりと、意外(?)と堅実にやっていると思います。また、ここ最近のCoineySquareが確実に広がりを見せていたり、最近だとWebPayのローンチなど、決済業界自体が変革の時期に来ている感じで、スタートアップを応援していこうという流れもできてきつつあります。そいうい意味でもカンムは大変いいポジションにいる優良スタートアップだと思っています。絶賛人を探している( wantedlyjobshare ) ので、ビビッときた方、興味をもってもらえた方は一度話を聞いて頂くといいと思います。セカンドオピニオン的に内情知りたいという方は自分に声をかけてもらえればと思います。僕も次の会社の就業規則が許す範囲ではカンムとは関わっていければと思っています。(さすがに今みたいにwantedlyなどでメンバーとして名前が出ることはないでしょうが。。。)

余談ですが、自分が関わったサービスがTechCrunchに出るというのは中々うれしいものですね。

これから

幸いいくつかの企業さんからお声がけ頂いており、もうすぐ次については言及できそうな気はしています。たぶん、というかほぼ確実にDMP(Data Management Platform)に関わる何かをやると思います。課題は色々とある分野で、ここ半年から1年くらいが市場として伸びるかどうかの分かれ道な感じがしていますので、なんとかいい流れを作っていければなあと思っています。

おまけ

あ、そういえば、前職の最後の最後に雑誌の執筆依頼を頂きまして、それがもうすぐ発売されます。 すでに予約は始まっているようで、ついに自分の名前もAmazonにインデキシングされてしまいました。

自分がいわゆるデータサイエンティストかと言われると、中々微妙な部分もありますが、大規模データをデータマイニングする際の今昔みたいなのが分かるような記事を書かせてもらいました。 ページの都合もあり、すでにゴリゴリと大規模データ分析されている方には物足りないかもしれませんが、大規模データの活用って実際どんなことしてるのよ、ということを実例を交えつつ説明していますので、興味のある方はぜひ手にとって見て頂ければと思います。

Google Charts入門

可視化ブームですし、色々とWeb上のダッシュボード的なものに情報を可視化して行きたい今日このごろ。最近は色々と選択肢もありますが、個人がまず可視化してみたいな的なノリの時にはGoogle Chartsがぴったりだと思います。

Google Charts

Googleが提供するツールの一つで、Javascriptを使ってSVGでグラフを記述できるようになります。 Javascriptを使ったグラフの描画ツールではd3.jsなんかも有名ですが、d3.jsは一度触ってみたら分かる通り、柔軟に相当綺麗なグラフを書くことはできるのですが、その反面、それっぽいグラフを書くまでがけっこう大変です。 その点、Google Chartsは割りと楽にグラフを書くことができるので、ライセンスが許す範囲とGoogleが今後もこのAPIを提供してくれるという前提ですが、気軽にWebで見れるグラフを書きたい時はこっちを選択するといいかもしれません。

Charts Gallaryにあるように、かけるといいな、というグラフはだいたい揃っています。 以下では、ざっくりとGoogle Chartsの使い方などを書いてみます。

基本編

基本的な使い方

ざっくりと以下の流れで実現出来ます。

  • Google JSAPIをロード
  • グラフ生成に必要なパッケージを読み込み
  • データを用意
  • グラフを描画

こんな感じのグラフができます。

chart.draw()とChartWrapper

chart.draw()はコールバック関数を自分で定義してあげる必要があったりと少し手間がかかります。これに対してChartWrapperはそういった煩雑な定義をまるっと請け負ってくれるので、少しだけ楽になります。が、まあ好みの問題ですし、実際に細々としたことをやりたくなると、やっぱりchart.draw()に戻って来る気がします。chart.draw()とChartWrapperの比較を以下に載せます。

表を作る

表も簡単に作れます。グラフを書く時に使ったDataTableをそのまま流用することができるので大変便利です。 しかも、何が楽かって、チャートと同じく、デフォルトで書いたグラフには、最初からソート機能も実現されていることです。各カラムをクリックしてもられれば行全体がカラムに連動して昇順・降順にソートされることが確認できると思います。

こんな感じの表ができます。

インタラクティブなグラフを作る

グラフに対してイベントが発生した時のアクションを予め登録しておいてあげるとことで、インタラクティブなグラフを実現することができます。イベントとしては下記のものがあります。

イベント

  • ready:チャートが描画された時
  • select:チャートの要素が選択された時
  • error:チャートの描画がエラーになった時
  • onmousover:マウスオーバー時
  • onmouseout:マウスを話した時

今回はシンプルな例として、グラフの要素をクリックする(select)すると、その値がalertで表示される、というものを用意してみました。

この例だとそこまで面白くありませんが、うまくイベントを扱うことで、表やチャートに対してフィルタリングを行うことができるようになります。

まとめ

今回は便利そうなGoogle Chartsの基礎の基礎的な話をまとめてみました。 Google Chartsでは今回紹介した以上のことが、色々とできます。自分が便利だなぁと思っている機能を簡単に紹介すると、

  • グラフと表の連携
  • イベントを利用したフィルタリング機能の実装
  • Google SpreadSheetとの連携

などです。JSON等でデータを用意するのは結構大変だったりするので、スプレッドシートとの連携はかなり大きいのではと思っています。余力があれば、いつか紹介する…かも…しれません。

参考

3つ目のリンクが非常にわかりやすいので、本家のドキュメントを見る前にさらっと目を通して置くと理解が捗るかもしれません。

「マーケティング22の法則」読了

デジタルマーケティングに興味があるとか言っている以上、マーケティングの勉強もしないとね、ということで手始めに一冊読んでみました。前職の上司から、とりあえずこれは一回読んどけ、と言われて購入し早3年、ようやく読了しました(遅

売れるもマーケ 当たるもマーケ―マーケティング22の法則売れるもマーケ 当たるもマーケ―マーケティング22の法則
アル ライズ ジャック トラウト Al Ries

東急エージェンシー出版部 1994-01
売り上げランキング : 11824

Amazonで詳しく見る
by G-Tools

読んだだけでは忘れるので22の各ルールを自分の言葉で1行2行にまとめてみました。

第1章 一番手の法則 (The Law of Leadership)

最初であることは他に対して圧倒的に有利である。

第2章 カテゴリーの法則 (The Law of The Category)

ある分野で一番になれない場合、新しいカテゴリーを作り一番を目指す。

第3章 心の法則 (The Law of the Mind)

顧客の心に入り込み、マインドを形成することが重要である。それも徐々にではなく、一気に。そのために予算を投下するのは有効な戦術である。

第4章 知覚の法則 (The Law of Perception)

マーケティングとは商品に関する客観的事実の戦いではなく、顧客の主観に基づく知覚(認識)との戦いである。一度作られた知覚はなかなか覆せない。

第5章 集中の法則 (The Law of Focus)

一つの言葉を顧客に刻み付けることで、顧客に認知させることができる。

第6章 独占の法則 (The Law of Exclusivity)

すでに顧客の心に刻まれている言葉を利用/奪うことは困難である。

第7章 梯子の法則 (The Law of the Ladder)

一番手になれない場合、そのカテゴリ内で相対的にどの位置にいるかが重要。顧客の心の中にある序列を正しく理解することがマーケティング戦略へとつながる。

第8章 二極分化の法則 (The Law of Duality)

長期的には2つのブランドの争いに収束していく。上位2位までに入ることが重要である。

第9章 対立の法則 (The Law of the Opposite)

知覚が形成された後の逆転は困難であるため、すでに自分の上位にいる相手に対しては、相手の上を行こうとするのではなく、相手との差別化を図ることが重要である。時には対立という構造を作るのも効果的かもしれない。

第10章 分割の法則 (The Law of Division)

単体のカテゴリーとして市場ができた後に、時の経過とともにカテゴリーは分割し、細分化されていく。カテゴリーが分割されるタイミングを逃さずに参入することが重要である。

第11章 遠近関係の法則 (The Law of Perspective)

短期的に効果があるマーケティング施策でも、長期的な効果でみると正反対となる可能性がある。逆もまた然り。バーゲンセールなどが良い例であり、短期的には売上を増やすが、顧客に品物が安く買えることが可能であると学習させるため、顧客は通常の値段で購入をしなくなる。

第12章 製品ライン拡張の法則 (The Law of Line Extension)

製品ラインを拡張し、商品を横展開していくことは成功には通じないことが多い。カテゴリをまたいだ時、顧客に新たに知覚をさせる必要があり、すでに形成された知覚を別カテゴリーに拡張させることは困難である。

第13章 犠牲の法則 (The Law of Sacrifice)

手を広げることは逆に長所がなくなることを意味する。犠牲にできる選択肢は3つ「製品ライン」「ターゲット市場」「絶えざる変更」

第14章 属性の法則 (The Law of Attributes)

一度競合に奪われたポジションは基本的には奪い返すことはできない。似たようなポジションを打ち出すのではなく、正反対のポジションを築くことが大切であり、たいていの場合、それは可能である。

第15章 正直の法則 (The Law of Candor)

ネガティブな要素を正直に認め、それに対するポジティブな姿勢を発信する。顧客に知覚されたポジションやイメージは簡単に覆すことができないため、逆にそれを利用する。

第16章 一撃の法則 (The Law of Singularity)

色々な施策に力を割くのではなく、一点突破を目指して強力な一手を打つことに注力するのが重要である。

第17章 予測不能の法則 (The Law of Unpredictability)

未来を予測することはできないが、トレンドを把握することはできる。予測できない未来をもとに仮説を立てたプランは失敗する。

第18章 成功の法則 (The Law of Success)

成功を収めた場合、しばしばその製品ではなく企業のブランドネームが原因だと思い込みがちである。成功の要因は製品が顧客の心に入り込み、一定のポジションを気づけたことが原因であると忘れてはならない。

第19章 失敗の法則 (The Law of Failure)

ミスや失敗は誰にでも起こりうるものである。ミスや失敗を早期に認め、手を打つことが重要である。

第20章 パブリシティの法則 (The Law of Hype)

順調な時に、その企業はあえて情報をさらすことはしない。一方、状況が悪くなりそうな時に、その打開策として情報を積極的に公開する。マスコミで見聞きできる姿と実態は一致しないことは多い。

第21章 成長促進の法則 (The law of Accelaration)

一時的な流行は利益をもたらすが長続きしない。一時的な流行をトレンドと勘違いし、そこに予算や人員を投入することはその後のリスクになる。できることは一時的流行に乗るのではなく、トレンドに育て上げることである。

第22章 財源の法則 (The Law of Resources)

どんなにいいアイデアがあってもそれを実現させるためには資金が必要である。

まとめ

「法則」と言ってるくらいなので、汎用的な話ですね。自分が関わる仕事のドメインにどれだけ落とし込めるかがポイントになりそうです。

「DMP入門」読了

顧客を知るためのデータマネジメントプラットフォーム DMP入門 (NextPublishing)顧客を知るためのデータマネジメントプラットフォーム DMP入門 (NextPublishing)
横山 隆治 菅原 健一 草野 隆史

インプレスR&D 2013-05-27
売り上げランキング : 231

Amazonで詳しく見る
by G-Tools

一言で言うと、DMP(Data Management Platform)がどういうものなのか、DMPを構築するために考えるべきこと、など、これまで僕が知る限り最もふわっとした中身がありそうでなさそうな単語第一位だったDMPについて、体系的かつ網羅的に記載された本です。今年 はDMP構築の流れが一気に来そうな香りがしていますが、まずはこの一冊を読んでDMPについて関わる人の認識を合わせておくことが重要かもしれないな、と思いました。

個人的な興味として、ここ半年ほどコツコツとDMPを調べてきたのですが、いくつかハラオチしていないところがありました。本書を読んで自分がハラオチしてなかったところが埋まった気がしました。一部ではまだ紙の書籍をAmazonで予約購入するも手元に届いていないという声もちらほら聞こえてきてまだ読めていない方も多そうですが、空気を読まずにハラオチしたところや、いつもどおりの妄想を書いていきたいと思います。

DMPとデータ解析基盤の違い

Web系の人であれば、2009年頃からのソーシャルゲームブームによってデータ解析が収益向上に寄与するためにデータ解析に力をいれていたり、2012年頃から声高に叫ばれているリーンスタートアップによって小さく初めてユーザーに使ってもらいながらデータを蓄え・解析することでサービス改善をしていく、という流れがあったため、データ解析の重要性やその基盤を構築することの重要性などはかなり一般的な考え方となっていると思います。

そのため、Web系企業各社はデータを蓄え、解析し、サービス改善(アクション)に結びつけるということを行なっているという認識であり、今回、似たような概念(だと少なくとも僕は感じている)のDMPが登場した時は少々違和感がありました。結論から言うと、プライベートDMPと本書で定義されているものについては、いわゆるWeb系企業の言うところのデータ解析基盤との違いはほぼないな、と思いました。広告配信やマーケティングに利用するというアクションがセットのデータ解析基盤がプライベートDMPという認識で問題ないと思います。

また、後述しますが、本書において最も重要なのは「プライベートDMP」という造語(に近いもの。ググっても日本のサイトばかりがあたるので、おそらく本書を執筆するにあたり、概念を分かりやすく説明するために定義した用語であると考えています)を定義することで、データエクスチェンジ市場が成熟していない日本市場においてDMPの出口を明確に示したことが挙げられます。

「プライベートDMP」という用語

DMPには大きく分けて2つの機能が必要です。「データを蓄積・解析し、アクション(広告配信、マーケティング活動)に繋げる基盤としての役割」と、もう一つが「データを第三者に提供する機能」です。特に海外は、データを第三者提供するための窓口になることで大きな成功を収めている企業(Bluekai, eXelateなど)が目立ちます。一方、日本ではデータエクスチェンジ市場が成熟していないため、第三者データの流通がほとんど発生していません。そのため、DMPの大きな要素の一つが埋まらない状態でした。これが、 いわゆるデータ解析基盤との違いがよく分からなくなる原因の一つだと思います。そこに対して、本書では「プライベートDMP」という用語を使い、日本市場でDMPが活躍しうるポジションを明確に定義したと言えます。

プライベートDMPと(パブリック)DMP

端的に言うと扱うデータの種類と、データの活用方法に違いがあります。

  • プライベートDMPは1st partyのデータを使い、場合によっては第三者提供のデータ(ほとんど入手困難、あり得るとしたらアライアンスを結んだパートナー企業とかから取得)を利用します。
  • (パブリック)DMPは外部提供を念頭に入れた上で1st partyのデータを蓄積し、整理するということを行います。

プライベートDMPのデータは外に出て行かず、DMPを利用する広告主や広告業者にとって閉じたDMPという意味で「プライベート」という言葉が使われているようです。最近「プライベートDMP」という言葉を聞く機会が多く、なんぞや?と思っていたため、ここがクリアになったのが本書を読んで得た一番の学びだと思っています。

で、僕はやはりデータ解析に興味のあるエンジニアでもあるので、実際にどうやったらDMPを構築できるかを考えたくなるわけです。

DMPを構成する要素技術

本書ではDMPを構築するために7つの要素が挙げられていました。詳細部分までは踏み込まれていなかったので、特にデータマイニング的視点から妄想で文脈を埋めていきたいと思います。

  1. 顧客ID、Webサイト訪問クッキー、会員ID、ソーシャルメディアIDなどを統合する。
  2. 統合されたデータを分析し、クラスタリングを生成する。
  3. 生成したクラスターを連携するツールにデータをフィードないし交換する。
  4. 生成したクラスターに属するユーザーデータを可視化する。
  5. 特定ユーザーと類似または関連づけられるユーザーに対象を拡張する。
  6. ユーザーセグメントを最適化し、セグメントごとのメッセージを最適化する。
  7. ユーザーデータを広告配信に利用し、かつ広告配信の反応によってデータの精度を高める。

1. IDの統合

これは事前の設計が重要となるでしょう。仮に事前にうまく設計され得ていなくてもCookieSyncでなんとかなります。 しかし、そのために大量のタグを仕込む必要が出てきて、ユーザーが意図せず様々なサイトに対してリクエストを発行することになり、場合によってはユーザーエクスペリエンスを阻害してしまう可能性もあることを念頭に置くことが重要だと思います。

2. クラスタリング

ポイントはクラスタリングに用いる特徴量です。データのイメージとしては簡単で、あるIDに紐づく様々な情報(どのページを何回見たかとか、どんな商品をカートに入れたか、とか)を特徴量とすることでオーディエンスベクトルが作られるはずです。データの作り方で全てが決まってしまうため、センスの見せ所の一番のポイントとなるでしょう。ExcelやRなどのツールを使ってもいいし、データがでかくてコマッタナーという状態であれば、Mahoutを使えばそれっぽい情報を作れるはずです。データ量に依存はしますが、データマイニングの手法に頼らずに、頑張って人手でクラスタを作っていってもいいと思います。

3. 連携するツールにクラスタリング結果を提供

ここはツール間の連携の話ですね。連携するツールのインターフェースさえわかっていればいいので、そこに対して、必要な状態に変換した加工済みデータを渡します。

4. ユーザーデータの可視化

これも特に難しいことはありません。ツールを利用すればそんなに苦労することなく可視化はできると思います。Excelでもいいし、Rでもいいですね。ちょっとこったことをしたければd3.jsなんかでも面白いかもしれません。むしろ、何を可視化したいのか、を明 確に定めることが重要だと思います。

5. ユーザー対象を拡張する

ユーザーベースのレコメンドに近いことをすれば実現できるでしょう。あるユーザーに似たユーザーは誰か、というアプローチです。 場合によっては、事前に行なっているクラスタリング結果と合わせることで、このクラスタの人はこのクラスタの人と重複度が高い、という新しい発見が得られるかもしれません。

6. セグメントの最適化とメッセージの最適化

ここはマーケターの力の見せ所でしょう。広告やマーケティングは説明変数が膨大になるため、全てを自動化することは困難であり、自動化出来る部分を自動化することで人手で処理できるくらいまで情報をそぎ落とし、最後は人手で微調整するということが重要だと思います。同じように、メッセージなどのコミュニケーションの動線の設計は人間が最も力を発揮しなければならないところだと思います。

7. 広告への利用と反応の確認

PDCAサイクルでのDo, Check部分に相当します。いかにセンスあふれる(と感じられる)解析やアクションプランをねっても机上の空論です。実際に作ったセグメントと設計したシナリオに沿って広告配信を行うことでその効果を定量評価可能な形に落としこんでい くことが重要でしょう。

まとめ

自分としては、技術的視点でどのようにDMPを構築するか、や、データ統合によるプライバシー問題などまで言及してほしかったな、という気持ちもありますが、これまで日本語で体系だって書かれたDMPに関する書籍はなかったため、非常に貴重な一冊だと思います。おそらく、これかも何度か読み返すことになるでしょう。

余談ですが、個人的には付録の海外DMPの動向部分が非常に面白く、その部分だけでも一読の価値がある気がします。海外のDMPプレイヤーで追いかけるべき対象がわかれば、後はググりまくれば情報が手に入る大変便利な世の中ですからね!

第1回渋谷アドテク勉強会を開催しました

題名の通り、第1回渋谷アドテク勉強会を開催し、無事に完了しました。会場係は何度も経験していますが、主催者という立場は初めてでした。申し込み時は異常に反応が良く、1時間くらいで定員に達し、その後もキャンセル待ち70名程度まで伸びましたが、開始10分まではほぼガラガラでした。どうなることやとキモを冷やしましたが、19:00過ぎたあたりから多くの人が訪れてくださり、無事に開催の運びとなりました。概ね好評だった気がするので、また2回目以降も開催していきたいと思います。主催者兼会場係、のような立場だったのでほとんど発表聞けていませんが、以下まとめなどを書いてみます。

株式会社adingo 鈴木さん『Head First Ad Technology and DMP』

第1回の勉強家のトップバッターに快く応じていただきました。RTBの概要から、みんな知りたいDMPの基本とシステム構成を話してくれました。DMPの自分としては非常に聞きたかったのですが、開始直後のバタバタの影響でほとんど聞けず。資料は公開されていますので、穴が空くほど見させて頂きます。

株式会社ミクシィ 大谷さん 『ミクシィのDSP、Vantageのはなし』

ミクシィが手がけるVantageのはなしを開発者目線で語って頂きました。プレスリリース後から、目立った発表がなかった中で今回時間もない中、お話頂くことができました。mixiで培った開発のノウハウとデータ資産を活かした特色あるDSPに育っていくことが期待されますね!資料公開等はありません

株式会社サイバー・コミュニケーションズ 秦さん『AdExchnageから見たDemand Player&Supply』

今回、エンジニアが多めの勉強会の中、営業という立場での発表を快諾頂きました。メディアレップという立場で、特に昨今の広告事情の中で「在庫」という切り口でお話頂きました。この話、バタバタしていてしっかり聞けていないため、消化不良感があるので、是非機会を改めてじっくりお聞きしたいところです。

アマゾン データ サービス ジャパン株式会社 今井さん 『アドテク界隈におけるAWSの使いドコロ』

アドテク企業がAWSをどのように活用しているか、という事例集でした。アドテク企業はAWSを利用しているところが非常に多いですよね。自分も最近AWSを触り始めていますがやはり便利ですよね。あと、インフラに対する考え方が変わります。包括的な発表で、現状を俯瞰して見れる発表という点で、大変興味深かったです。

懇親会

懇親会もけっこう盛り上がっていました。まさかの前職の同期2人が会場にいて、妙に盛り上がってしまいました。適当に2回目以降の発表者の目星をつけるなどしました。2回目はデジタルマーケティングの回、とかにできると面白いかもなー、と漠然と考えています。

まとめ的な

主催することで色々大変な事も多かったですが、やってよかったな、という感情が一番強いです。ムチャぶりにもかかわらず発表いただいた発表者の方と会場係手伝って頂いた数名の方、企画段階で相談に乗っていただいた方々、いろんな方に感謝感謝です。今後もまわりにほどよく迷惑をかけつつ、ぼちぼちと開催は続けていきたいと思っています。とはいえ、スピーカーあっての勉強会ですので、ぜひぜひ我こそは、というスピーカーを募集したいと思っています。お気軽にご相談ください。

PythonzとVirtualenvでPythonの環境を作る

ちょっとPythonを使う機会が出てきたのでメモ。Rubyでいうところのrbenvとかrvmと同等のことをPythonでする時の話です。あ、環境はMacOS Xの10.7です。

使うもの

ざっくり言うと、Pythonzが複数のバージョンのPythonを管理できて、VirtualenvはPythonの仮想実行環境を作るもの、という感じです。2つを組み合わせて、特定のバージョンのクリーンなPython実行環境を作る、と言った感じです。

このへんのRubyとの比較がわかり易かった気がします。

Pythonzのインストール

  • PythonzのREADME、Installationの通りで動きます。
1
curl -kL https://raw.github.com/saghul/pythonz/master/pythonz-install | bash

でインストール完了。bashrcに以下を追加(zshでも問題なかった)

1
[[ -s $HOME/.pythonz/etc/bashrc ]] && source $HOME/.pythonz/etc/bashrc

あとは、以下のコマンドでインストールできるバージョンを見つけてインストールします。

1
2
3
4
5
6
7
8
9
10
11
$ pythonz list -a
# Available Python versions
  # cpython:
    2.4
    2.4.1
    2.4.2
    ...()...
$ pythonz install 2.7.3
$ pythonz list
# Installed Python versions
  CPython-2.7.3

Virtualenvのインストール

Virtualenvも特に難しいことはないです。システム環境のPythonにVirtualenvが入ることは許容しました。僕の場合、ケースに併せてクリーンな環境が欲しいわけではなく、単純にバージョン違いのPythonを管理したいだけなので、pythonzを管理しているディレクトリに適当にENV/${Version}というディレクトリを切っています。

1
2
$ sudo pip install virtualenv
$ virtualenv -p ~/.pythonz/pythons/CPython-2.7.3/bin/python ~/.pythonz/ENV/Python-2.7.3

これで、あとは以下の用にactivateしてあげれば、完了です。

1
$ ~/.pythonz/ENV/Python-2.7.3/bin/activate

コンソールの先頭に、Virtualenv環境を作ったディレクトリ名がつけば無事に動いています。この例だと(Python-2.7.3)、といった感じです。あとは、その環境下でpip installしまくってゴリゴリ環境を作ります。

参考