注目の投稿

【kepler.gl】コロナ対策による人流の変化も地図上に可視化(各種メディアで報道)

kepler.glのサイト画面 kepler.glを使ってコロナ対策の効果を分析したところ、テレビ、新聞、ネットのメディアから問い合わせや報道依頼が殺到。今も、土日返上で都内や全国の人流変化を分析しています。この記事では人流変化の可視化に便利なkepler.glにつ...

2020年7月29日水曜日

ECサイトの次の一手

ある程度成長したECサイトの次の一手とは?


1.WEBメディアを買収する

それはWEBメディアを買収することです。しかし、WEBメディアなら何でも良いかと言うとそうではありません。自社商品を購入する前段階に訪問するようなメディアである必要があります。

2.データ連携で潜在ユーザや新商品開発の種を発見

例えば、スキンケア商品を販売している場合、肌の悩みに関するブログやサイトが対象となります。こうしたブログやサイトの訪問データとECサイトの購入データを連携させることで、潜在ユーザや新商品開発の種を発見することが可能になります。このような潜在ユーザ獲得や新商品の開発は将来のさらなる成長を実現するための大きな基礎になります。

3.データを独占して誰よりも先に潜在ユーザにアプローチ

また、単純にデータを連携するだけでなく、買収をお勧めするのも理由があります。それは、競合が同様のデータを取得した際に、競争優位性が相対的に低下するためです。もし、データを自社で囲い込みできなければ、競合に先を越されて潜在ユーザを特定・確保されてしまう可能性があります。一方、買収により自社でメディアを保有すれば、データを独占できるだけでなく、面の確保や記事の投稿も自由にできます。

4.データ連携ビジネスでビジネスをスケールさせる

さらに、自社が販売する商品に関係ない記事については、そのデータを他社に販売することでデータ連携ビジネスを新たに展開することもできます。ちなみに、広告は面に限りがあるのでスケールさせるのが難しいですが、データの連携には限度がないため販売先があるほどビジネスをスケールさせることができます。もし、WEBサイトで広告収入だけに頼っているものがあれば、データ連携ビジネスにより数倍に売上を伸ばすことも難しくないと考えられます。現状ではデータを積極的に販売するWEBメディアは多くないですが、今後は間違いなく増えると予想されます。そうなるとメディアの売り上げも上がり評価価値も上がってしまうので、この時期に買収することをお勧めします。

5.今後は技術だけでなく法令を特に注視する

最後に、メディアの訪問データとECサイトの購買データの連携については、改正個人情報保護法により扱いが厳しくなる見通しです。例えば、訪問データと購買データを連携する場合、ECサイトが保有する個人情報と紐づくので、訪問データを取得する際にはユーザに利用目的を明示した上で許諾が必要となります。ただ、これはあくまで法令をディフェンシブに解釈した場合なので、正確にはガイダンスを待つ必要があります。現在、データ連携の主なプレイヤーであるDMP各社が保有するほとんどのデータは、ユーザに対して利用目的を明示して許諾を得たものではありません。そのため、よりディフェンシブな解釈でガイダンスが発表された場合、DMP各社のデータが使えなくなる可能性もあります。そのため、データ連携を進める際は、各データの取得とその利用が法令に反していないか注視することが必要です。

お気軽にご相談下さい

データ連携やECサイト、ゲーム等のグロースについてのご相談はこちらまで。

2020年6月12日金曜日

【BigQuery】int型の数字を日付に変換する

グーグルのサイトを参考
標準 SQL のタイムスタンプ関数のページを参考

ーー以下引用部分ーー

TIMESTAMP_SECONDS
1970-01-01 00:00:00 UTC からの秒数

TIMESTAMP_MILLIS
1970-01-01 00:00:00 UTC からのミリ秒数

TIMESTAMP_MICROS
1970-01-01 00:00:00 UTC からのマイクロ秒数


2020年5月21日木曜日

【BigQuery】時間と分を抜き出す

タイムスタンプから時間として扱るかたちで時間と分のみを抜き出す方法

--%R=%H:%M 形式の時刻
    FORMAT_TIMESTAMP("%R",TIMESTAMP)

出力結果は、「02:30」というような形で出てくる。
もちろん、時間として扱えるので、

 FORMAT_TIMESTAMP("%R",TIMESTAMP) > ''12:30"

とすれば、12時30分以降のデータを抽出できる。

◇参考サイト





2020年5月6日水曜日

【トレジャーデータ】JSタグでサイト訪問・購入ログを取得

JSタグを使ってWEBサイトの訪問・購入ログなどを取得する手順


  1. WEBサイト用のJS SDKを準備する
  2. JS SDKを実装する
    • 参考サイト:Treasure Data JavaScript SDKの使い方
    • 補足:データはJSを仕込んだページのみ取得するため、サイト全体のデータを取得したい場合は全ページにJSを仕込む必要がある。また、購入ページにJSを仕込めば、分析の際に、そのページのURLのみ抽出すれば購入ログとみなすこともできる。
  3. SDKによって収集できたアクセスログを確認

◇下記のサイトで具体的な実装例があります。

◇参考リンク



2020年5月1日金曜日

【BigQuery】特定の文字を含むものだけを集計する

フィールド「x」の先頭の文字が「Z」である場合に「y」の合計を集計するSQL
「LIKE」はあいまい検索、「%」はワイルドカードで「Z%」はZの後ろに何があってもよいことを示す。


SELECT
  SUM(CASE
      WHEN x LIKE "Z%" THEN y
  END
    ) AS total
FROM
  data


2020年4月24日金曜日

【Google】意外と知らないグーグルスプレッドシートなどのファイルが保存されている場所を開く方法

矢印のところをクリックすることでファイルを保存している場所を開ける

グーグルスプレッドシートなどのファイルがどこに保存されているか分からない場合、上記の画像内の矢印の箇所をクリックすることで保存されているフォルダを開くことができます。

自分も最近知りました。。。


2020年4月21日火曜日

【BigQuery】都内の各地点のUUを前後の期間で比較するデータを集計してケプラーで描画する

ケプラーを利用すると緯度経度のデータからグラフィカルなマップグラフを作成できるとを以前記事に書きました(【kepler.gl】コロナ対策による人流の変化も地図上に可視化(各種メディアで報道))。今回、ケプラーのH3というグラフ形式を使って、東京都内各地点内の異なる期間のUUの比率をマップグラフで描画するため必要なデータを集計すためのクエリを紹介します。また、集計データのケプラーでの描画については、下記のサイトが分かりやすいのでご参考にして下さい。

◇クエリ例

WITH
  t1 AS (
  SELECT
    UDF.geoToH3(latitude,
      longitude,
      8) AS geoH3_1,
    COUNT(DISTINCT uid) AS CntUU_1,
  FROM
    data
  WHERE
    AND TIMESTAMP(DATETIME(TIMESTAMP(detected_time),
        'Asia/Tokyo')) >= TIMESTAMP('2020-02-02 00:00:00')
    AND TIMESTAMP(DATETIME(TIMESTAMP(detected_time),
        'Asia/Tokyo')) < TIMESTAMP('2020-02-03 00:00:00')
    AND latitude BETWEEN 23
    AND 46
    AND longitude BETWEEN 123
    AND 148
    --
    --東京都内
    AND ST_COVERS(ST_GEOGFROMTEXT('POLYGON((139.868043 35.628718,139.887956 35.653272,139.885209 35.680048,139.911302 35.685068,139.918855 35.70347,139.896195 35.728001,139.899629 35.744164,139.879716 35.761996,139.878343 35.77481,139.86255 35.79542,139.771226 35.810456,139.732774 35.778152,139.650376 35.799875,139.616731 35.763667,139.54326 35.752523,139.421723 35.765896,139.371598 35.764782,139.277528 35.834953,139.170411 35.843153,139.016603 35.891563,138.955491 35.853728,139.044755 35.717259,139.219163 35.645868,139.411424 35.582232,139.454015 35.541781,139.471867 35.519988,139.482167 35.534517,139.459508 35.571946,139.476674 35.595958,139.443028 35.606008,139.453328 35.6328,139.492467 35.619963,139.528859 35.652889,139.658635 35.598192,139.715627 35.553513,139.750645 35.548765,139.796651 35.524738,139.809354 35.51384,139.868043 35.628718))'),
      ST_GEOGPOINT(longitude,
        latitude))
  GROUP BY
    geoH3_1 ),
  t2 AS (
  SELECT
    UDF.geoToH3(latitude,
      longitude,
      8) AS geoH3_2,
    COUNT(DISTINCT uid) AS CntUU_2,
  FROM
    data
  WHERE
    AND TIMESTAMP(DATETIME(TIMESTAMP(detected_time),
        'Asia/Tokyo')) >= TIMESTAMP('2020-04-19 00:00:00')
    AND TIMESTAMP(DATETIME(TIMESTAMP(detected_time),
        'Asia/Tokyo')) < TIMESTAMP('2020-04-20 00:00:00')
    AND latitude BETWEEN 23
    AND 46
    AND longitude BETWEEN 123
    AND 148
    --
    --東京都内
    AND ST_COVERS(ST_GEOGFROMTEXT('POLYGON((139.868043 35.628718,139.887956 35.653272,139.885209 35.680048,139.911302 35.685068,139.918855 35.70347,139.896195 35.728001,139.899629 35.744164,139.879716 35.761996,139.878343 35.77481,139.86255 35.79542,139.771226 35.810456,139.732774 35.778152,139.650376 35.799875,139.616731 35.763667,139.54326 35.752523,139.421723 35.765896,139.371598 35.764782,139.277528 35.834953,139.170411 35.843153,139.016603 35.891563,138.955491 35.853728,139.044755 35.717259,139.219163 35.645868,139.411424 35.582232,139.454015 35.541781,139.471867 35.519988,139.482167 35.534517,139.459508 35.571946,139.476674 35.595958,139.443028 35.606008,139.453328 35.6328,139.492467 35.619963,139.528859 35.652889,139.658635 35.598192,139.715627 35.553513,139.750645 35.548765,139.796651 35.524738,139.809354 35.51384,139.868043 35.628718))'),
      ST_GEOGPOINT(longitude,
        latitude))
  GROUP BY
    geoH3_2 ),
  join_log AS (
  SELECT
    geoH3_1,
    MAX(CntUU_1) AS CntUU_1,
    MAX(CntUU_2) AS CntUU_2,
  FROM
    t1
  LEFT JOIN
    t2
  ON
    t1.geoH3_1 =t2.geoH3_2
  WHERE
    geoH3_1 IS NOT NULL
  GROUP BY
    geoH3_1 )
SELECT
  *,
  CntUU_2 / CntUU_1 AS rate
FROM
  join_log
ORDER BY
  CntUU_1 DESC


◇参考サイト