[GA4] データ インポートについて

外部ソースからデータをアップロードし、アナリティクスのデータと結合する

データ インポートを使用する理由

各種ビジネス用システムでは、それぞれ独自のデータが生成されます。CRM には、顧客リピート回数率、ライフタイム バリュー、商品の好みなどの情報が含まれます。ウェブ パブリッシャーの方の場合は、コンテンツ管理システムに作成者や記事のカテゴリなどのデータ ディメンションが保存されているはずです。e コマース ビジネスなら、価格、スタイル、サイズなどの商品属性を保存しているでしょう。

そしてアナリティクスには、ウェブサイトやアプリのトラフィックとパフォーマンスの測定データが蓄積されています。

通常これらのデータはそれぞれサイロ化されており、互いに情報のやりとりはありません。データ インポートは、定義したスケジュールでこういったデータをアナリティクスに集約して結合することができ、サイロ化の解消、新たなインサイトの発見、データの民主化に役立ちます。

データ インポートの仕組み

データのアップロード

外部のデータを格納した CSV ファイルを、アナリティクスのプロパティにアップロードします。CRM や CMS といったオフラインのビジネスツールからこうした CSV ファイルをエクスポートして使用できるほか、少量のデータであればテキスト エディタやスプレッドシートでファイルを手動作成することも可能です。

データ インポートでは、アップロードしたオフライン データは、アナリティクスが収集したイベントデータと結合されます。これによってレポート、比較、オーディエンスのデータが強化され、ユーザーのアクティビティをオンラインとオフラインの両面にわたって総合的に把握できます。

データの結合

インポートしたデータの種類に応じて、次のいずれかの方法でデータの結合が行われます。

  • 収集 / プロセスタイム: アナリティクスのデータの収集・処理時に、インポート済みデータとの結合が行われます。インポート済みデータもイベントと同時に収集されたような扱いとなり、結合後のデータがアナリティクスのサマリー表に書き込まれます。インポートしたデータはアナリティクスの過去のデータ(処理が済んでいるデータ)とは結合されません。インポートしたデータファイルを削除した場合、その後の結合は行われませんが、すでに結合済みのデータはそのまま維持されます。
  • レポート / クエリタイム: アナリティクスのデータとインポート済みデータの結合は、レポートを開き、アナリティクスがレポートデータを取得するクエリを実行した時点で行われます。このタイプの結合は一時的なものです。インポートしたデータファイルを削除した場合、その後の結合は行われず、すでに結合したデータをアナリティクスで参照することもできなくなります。

    アナリティクスでオーディエンスを作成している場合やデータ探索ツールでセグメントを作成している場合は、レポート / クエリタイムのデータを利用できません。

データをインポートすると、新たにインポートされたデータが追加されますが、以前にインポートされたデータも保持されます。なお、新たにインポートされたデータに、以前にインポートされたデータと同じキーセットがある場合、そのデータは上書きされます。

: インポートされた処理データ(ユーザーデータやオフライン イベント データなど)は、収集 / 処理時に結合され、BigQuery にエクスポートされます。費用データ、商品データ、カスタム イベントデータなどのクエリ時間データは、レポート / クエリ時に結合され、BigQuery 内で結合できます。

インポートできるメタデータの種類

メタデータ

インポートしたメタデータは、プロパティによって収集・処理済みのデータに追加されます。メタデータは通常、カスタム ディメンションまたは指標に格納されますが、収集済みのデフォルト情報を上書きしたほうが便利なケースもあります(カテゴリ構成を更新した商品カタログをインポートする場合など)。

インポートできるデータの種類は次のとおりです。

  • 費用データ: サードパーティ(Google 以外)の広告ネットワークのクリック数、費用、表示回数データ
  • 商品データ: 商品のメタデータ(サイズ、色、スタイル、その他の商品関連ディメンションなど)
  • ユーザーデータ: 顧客忠誠率や顧客のライフタイム バリューなど、セグメントとリマーケティング リストの作成に使用できるユーザー メタデータ
  • オフライン イベント: インターネット接続が利用できないソースや、リアルタイムでのイベント収集がサポートされていないソースのオフライン イベント
  • カスタム イベントデータ: 標準フィールドやカスタム ディメンションを使用してイベントのメタデータをインポート

上限

データソースのサイズ 1 GB
1 日あたりのアップロード量

プロパティごとに 1 日あたり 120 件

 

インポート データのタイプ プロパティごとのデータソースの上限 データの種類ごとのストレージ上限
費用データ 最大 5 個 すべてのインポート ソースで合計 1 GB
商品データ 最大 5 個 すべてのインポート ソースで合計 1 GB
ユーザーデータ 最大 10 該当なし
オフライン イベント 最大 10 該当なし
カスタム イベントデータ 最大 5 個 すべてのインポート ソースで合計 1 GB

現在のプロダクト内の割り当て使用状況は、[割り当て情報] ボタンで確認できます。

データをインポートする方法

データをインポートする際には、データソースを作成します。データソースとは、アップロードする CSV ファイルと、既存のアナリティクス フィールドから CSV のフィールドへのマッピングの組み合わせです。次に例を示します。

重複したキーを含むファイルはアップロードしないでください(例: user_id という名前の 2 つのフィールド)。

データソースについて詳しくは、こちらの記事をご覧ください。

SFTP を使用してデータをアップロードするための前提条件

手順 5 で SFTP オプションを使用する場合は、SFTP サーバーで ssh-rsassh-dss のホストキー アルゴリズムがサポートされていることを確認してください。使用しているホストキー アルゴリズムの確認と、SFTP サーバー URL の形式を指定する方法の詳細をご覧ください。

インポート プロセスを開始する

  1. [管理] の [データの収集と修正] で、[データ インポート] をクリックします。
    前のリンクをクリックすると、最後にアクセスしたアナリティクス プロパティが開きます。プロパティ セレクタでプロパティを変更できます。 次の操作を行うには、編集者以上の権限が必要です(プロパティ単位): 次の操作を行うには、編集者以上の権限が必要です。
  2. 新しいデータソースを作成するか、既存のデータソースを選択します(後続の各セクションを参照)。

新しいデータソースを作成する

  1. [データソースを作成] をクリックします。
  2. データソースに名前を付けます。
  3. データの種類を選択します。
    • 費用データ(クエリタイム インポートのみ)
    • 商品データ(レポート / クエリタイム インポート)
    • ユーザー ID 別のユーザーデータ(収集 / プロセスタイム インポート)
    • クライアント ID 別のユーザーデータ(収集 / プロセスタイム インポート)
    • オフライン イベントデータ(収集 / プロセスタイム インポート)
    • カスタム イベントデータ(レポート / クエリタイム インポート)
  4. 確認メッセージが表示された場合は [規約を確認] をクリックします。このメッセージは、デバイスデータまたはユーザーデータをインポートする際に表示されます。
  5. 次のいずれかを行います。
    • [CSV の手動アップロード] をクリックし、パソコン上の CSV ファイルを選択して [開く] をクリックします。
    または
    • [SFTP] を選択します。
    • [SFTP サーバーのユーザー名] に SFTP サーバーのユーザー名を入力します。
    • [SFTP サーバーの URL] に SFTP サーバーの URL を入力します。
    • [頻度] でアップロードの頻度を [毎日]、[毎週]、[毎月] から選択します。
    • [開始時刻] でアップロードを開始する時刻を選択します。
    • データソースが作成されると、データソースを作成するインターフェースに SFTP サーバーの公開鍵が表示され、[データソースの詳細] で取得できるようになります(下記を参照)。
  6. [次へ] をクリックして、マッピングに進みます。
  7. 互いにマッピングする、アナリティクスのフィールドとインポートするデータのフィールドを選択します。必要に応じてフィールド名を編集します。
  8. [インポート] をクリックします。

既存のデータソースにデータをアップロードする

  1. 既存のデータソースの行の [今すぐインポート] をクリックします。
  2. データソースが CSV のインポート用に設定されている場合は、インポートする CSV ファイルを選択して [開く] をクリックします。

CSV ファイルには元のフィールドと同じフィールドか、フィールドのサブセットが含まれている必要があります。同じデータタイプに対して異なるフィールドをインポートする場合は、既存のデータソースを削除し、新しいデータソースを作成する必要があります。

参照元プロパティで行われたデータのインポートは、統合プロパティとサブプロパティの両方に自動的にエクスポートされます。

データソースの詳細の確認、SFTP 公開鍵の取得、新しいデータのインポート、データソースの削除

  1. [管理] の [データの収集と修正] で、[データ インポート] をクリックします。
    前のリンクをクリックすると、最後にアクセスしたアナリティクス プロパティが開きます。プロパティ セレクタでプロパティを変更できます。

    データソースの詳細を表示するには、(プロパティ単位): 次の操作を行うには、閲覧者以上の権限が必要です。

  2. 目的のデータソースの行の 次へ をクリックします。

データソースの名前、データの種類、公開鍵、アップロードごとの履歴を確認できます。

  • 公開鍵: SFTP サーバーの公開鍵です。ペアとなる秘密鍵はアナリティクスに保存され(決して共有されない)、ユーザーのサーバーとアナリティクスのデータ インポート サーバー間の安全なプライベート接続を確保するために使用されます。データ インポートを安全かつ確実に機能させるためには、サーバー上でこの公開鍵を承認する必要があります。
  • % インポート済み: 正常にインポートされた行数を、インポート ファイルの行数で割った値です。すべての行が正常にインポートされると、100% になります。
  • マッチ率: プロパティにあるインポート ファイルのキーの割合です(過去 90 日間)。過去 90 日間のデータが完全に関連しており、実用的な場合は 100% になります。
    : [インポート率] と [一致率] は、費用データ、商品データ、カスタム イベントデータのインポートに関連しますが、ユーザーデータのインポートとオフライン イベントデータのインポートには適用されません。

新しいデータをインポートするには:

[今すぐインポート] をクリックし、ご使用のパソコンにある CSV ファイルを選択します。

データソースを削除する方法:

  1. その他 > [データソースの削除] の順にクリックします。
  2. 削除についての注意書きを確認して、[データソースの削除] をクリックします。

収集 / プロセスタイム型のデータはこの方法で削除できますが、過去にアナリティクスが処理したすべてのイベントからアップロードしたデータを削除するには、さらにユーザーまたはユーザー プロパティの削除が必要となることもあります。インポート済みのファイルを削除しても、インポート完了後に収集イベントと関連付けられた処理済みデータは削除されません。 データ削除リクエストについて詳しくは、こちらの記事をご覧ください。

この情報は役に立ちましたか?

改善できる点がありましたらお聞かせください。
1138795269702636287
true
ヘルプセンターを検索
true
true
true
true
true
69256
検索
検索をクリア
検索を終了
メインメニュー
false
false
false