[GA4] データ インポートについて

外部ソースからデータをアップロードし、アナリティクスのデータと結合する

データ インポートを使用する理由

各種ビジネス用システムでは、それぞれ独自のデータが生成されます。CRM には、顧客リピート回数率、ライフタイム バリュー、商品の好みなどの情報が含まれます。ウェブサイトを運営している場合は、コンテンツ管理システムに作成者や記事のカテゴリなどのデータ ディメンテョンが保存されているはずです。e コマース ビジネスなら、価格、スタイル、サイズなどの商品属性を保存しているでしょう。

そしてアナリティクスには、ウェブサイトやアプリのトラフィックとパフォーマンスの測定データが蓄積されています。

通常これらのデータはそれぞれサイロ化されており、互いに情報のやりとりはありません。データ インポートは、定義したスケジュールでこういったデータをアナリティクスに集約して結合することができ、サイロ化の解消、新たなインサイトの発見、データの民主化に役立ちます。

データ インポートの仕組み

データのアップロード

外部のデータを格納した CSV ファイルを、アナリティクスのプロパティにアップロードします。CRM や CMS といったオフラインのビジネスツールからこうした CSV ファイルをエクスポートして使用できるほか、少量のデータであればテキスト エディタやスプレッドシートでファイルを手動作成することも可能です。

アップロードしたオフライン データは、アナリティクスが収集したイベントデータと結合されます。これによってレポート、比較、オーディエンスのデータが強化され、ユーザーのアクティビティをオンラインとオフラインの両面にわたって総合的に把握できます。

データの結合

インポートしたデータの種類に応じて、次のいずれかの方法でデータの結合が行われます。

  • 収集 / プロセスタイム: アナリティクスのデータの収集・処理時に、インポート済みデータとの結合が行われます。インポート済みデータもイベントと同時に収集されたような扱いとなり、結合後のデータがアナリティクスの集計テーブルに書き込まれます。インポートしたデータはアナリティクスの過去のデータ(処理が済んでいるデータ)とは結合されません。インポートしたデータファイルを削除した場合、その後の結合は行われませんが、すでに結合済みのデータはそのまま維持されます。

    ユーザーデータとオフライン イベント データは、収集 / 処理時に結合されます。
  • レポート / クエリタイム: アナリティクスのデータとインポート済みデータの結合は、レポートを開き、アナリティクスがレポートデータを取得するクエリを実行した時点で行われます。このタイプの結合は一時的なものです。インポートしたデータファイルを削除した場合、その後の結合は行われず、すでに結合したデータをアナリティクスで参照することもできなくなります。

    費用データと商品データは、レポート / クエリ時に結合されます。

    アナリティクスでオーディエンスを作成している場合やデータ探索ツールでセグメントを作成している場合は、レポート / クエリタイムのデータを利用できません。

インポートできるメタデータの種類

メタデータ

インポートしたメタデータは、プロパティによって収集・処理済みのデータに追加されます。メタデータは通常、カスタム ディメンションまたは指標に格納されますが、収集済みのデフォルト情報を上書きしたほうが便利なケースもあります(カテゴリ構成を更新した商品カタログをインポートする場合など)。

インポートできるデータの種類は次のとおりです。

  • 費用データ: サードパーティ(Google 以外)の広告ネットワークのクリック数、費用、表示回数データ
  • 商品データ: 商品のメタデータ(サイズ、色、スタイル、その他の商品関連ディメンションなど)
  • ユーザーデータ: リピート回数率や顧客のライフタイム バリューなど、セグメントやリマーケティング リストの作成に使用できるユーザー メタデータ
  • オフライン イベント: インターネット接続が利用できないソースや、リアルタイムでのイベント収集がサポートされていないソースのオフライン イベント

上限

保存容量の合計

10 GB(標準プロパティ)

1 TB(360 プロパティ)

データソースのサイズ 1 GB
1 日あたりのアップロード量

プロパティごとに 1 日あたり 120 回のアップロード

データをインポートする方法

データをインポートする際には、データソースを作成します。データソースとは、アップロードする CSV ファイルと、既存のアナリティクス フィールドから CSV のフィールドへのマッピングの組み合わせです。次に例を示します。

 

重複したキーを含むファイルはアップロードしないでください(例: user_id という名前の 2 つのフィールド)。

データソースの詳細

SFTP を使用してデータをアップロードするための前提条件

手順 5 で SFTP オプションを使用する場合は、SFTP サーバーで ssh-rsassh-dss のホストキー アルゴリズムがサポートされていることを確認してください。使用しているホストキー アルゴリズムの確認と、SFTP サーバー URL の形式を指定する方法の詳細をご覧ください。

インポート プロセスを開始する

  1. [プロパティ] 列で [データ インポート] をクリックします。
  2. 新しいデータソースを作成するか、既存のデータソースを選択します(後続の各セクションを参照)。

新しいデータソースを作成する

  1. [データソースを作成] をクリックします。
  2. データソースに名前を付けます。
  3. データの種類を選択します。
    • 費用データ(クエリタイム インポートのみ)
    • 商品データ(レポート / クエリタイム インポート)
    • ユーザー ID 別のユーザーデータ(収集 / プロセスタイム インポート)
    • クライアント ID 別のユーザーデータ(収集 / プロセスタイム インポート)
    • オフライン イベントデータ(収集 / プロセスタイム インポート)
  4. 確認メッセージが表示された場合は [規約を確認] をクリックします。このメッセージは、デバイスデータまたはユーザーデータをインポートする際に表示されます。
  5. 次のいずれかを行います。
    • [CSV の手動アップロード] をクリックし、パソコン上の CSV ファイルを選択して [開く] をクリックします。
    または
    • [SFTP] を選択します。
    • [SFTP サーバーのユーザー名] に SFTP サーバーのユーザー名を入力します。
    • [SFTP サーバーの URL] に SFTP サーバーの URL を入力します。
    • [頻度] でアップロードの頻度を [毎日]、[毎週]、[毎月] から選択します。
    • [開始時刻] でアップロードを開始する時刻を選択します。
    • データソースが作成されると、データソースを作成するインターフェースに SFTP サーバーの公開鍵が表示され、[データソースの詳細] で取得できるようになります(下記を参照)。
  6. [次へ] をクリックして、マッピングに進みます。
  7. 互いにマッピングする、アナリティクスのフィールドとインポートするデータのフィールドを選択します。必要に応じてフィールド名を編集します。
  8. [インポート] をクリックします。

既存のデータソースにデータをアップロードする

  1. 既存のデータソースの行の [今すぐインポート] をクリックします。
  2. データソースが CSV のインポート用に設定されている場合は、インポートする CSV ファイルを選択して [開く] をクリックします。

    CSV ファイルには元のフィールドと同じフィールドか、フィールドのサブセットが含まれている必要があります。同じデータタイプに対して異なるフィールドをインポートする場合は、既存のデータソースを削除し、新しいデータソースを作成する必要があります。

SFTP ホストキー アルゴリズムの確認、SFTP サーバー URL の形式の指定

アルゴリズムを確認する

SFTP サーバーで ssh-rsa と ssh-dss のどちらのホストキー アルゴリズムが使用されているかを確認するには、さまざまな方法があります。たとえば、OpenSSH リモート ログイン クライアントを使用すると、次のコマンドでサーバーログを確認できます。

ssh -vv <SFTP サーバー名>

どちらかのアルゴリズムがサーバーでサポートされている場合は、サーバーログに次のような行が表示されます。

debug2: host key algorithms: rsa-sha2-512, rsa-sha2-256, ssh-rsa

SFTP サーバー URL の形式を指定する

SFTP サーバー URL の形式が正しく指定されていないと、インポートの設定が失敗して内部エラー メッセージが表示されます。

通常、SFTP サーバー URL は 3 つの部分で構成され、データ インポート用ファイルのアップロード時にはこれらを考慮する必要があります。次に例を示します。

sftp://example.com//home/jon/upload.csv は次の部分で構成されています。

  • ドメイン: example.com
  • ホーム ディレクトリ: //home/jon
  • ファイルパス: /upload.csv

上の例では、アップロード ファイルはホーム ディレクトリにあります。

URL のドメイン部分は、ポート番号の有無にかかわらず、ドメイン名またはサーバーの IPv4 または IPv6 アドレスを使用して、さまざまな方法でフォーマットできます。

  • ドメイン名: sftp://example.com
  • IPv4(ポート番号あり): sftp://142.250.189.4:1234
  • IPv4(ポート番号なし): sftp://142.250.189.4
  • IPv6(ポート番号あり): sftp://[2607:f8b0:4007:817::2004]:1234
  • IPv6(ポート番号なし): sftp://[2607:f8b0:4007:817::2004]

ポート番号を含まない場合、デフォルトのポートは 22 です。

ホーム ディレクトリを含めるか除外するかに応じて、URL を正しい形式で指定します。次の正しい形式の URL の例では、ドメインを識別するために異なる形式が使用されています。例にはポート番号が含まれていますが、ポート番号を使用しないことも可能です。

  • ホーム ディレクトリを含む場合:
    • sftp://example.com//home/jon/upload.csv(ドメイン名)
    • sftp://142.250.189.4:1234//home/jon/upload.csv(ポート番号を含む IPv4)
  • ホーム ディレクトリを含まない場合:
    • sftp://example.com/upload.csv(ドメイン名)
    • sftp://[2607:f8b0:4007:817::2004]:1234/upload.csv(ポート番号を含む IPv6)

アップロード ファイルがホーム ディレクトリのサブディレクトリにある場合、URL は次のようになります。

sftp://example.com//home/jon/data/upload.csv

この場合は、次のタイプの形式を使用できます。

  • ホーム ディレクトリを含む場合:
    • sftp://example.com//home/jon/data/upload.csv
    • sftp://142.250.189.4:1234//home/jon/data/upload.csv(ポート番号を含む IPv4)
  • ホーム ディレクトリを含まない場合:
    • sftp://example.com/data/upload.csv
    • sftp://[2607:f8b0:4007:817::2004]:1234/data/upload.csv(ポート番号を含む IPv6)

アップロード ファイルが、ホーム ディレクトリ(//home/jon)またはホーム ディレクトリのサブディレクトリ(//home/jon/data)ではなく /foo/bar ディレクトリに保存されている場合、アップロード ファイルの正しい形式の URL は次のようになります。

sftp://example.com//foo/bar/upload.csv(ホーム ディレクトリを //foo/bar で置き換える)

データソースの詳細の確認、SFTP 公開鍵の取得、新しいデータのインポート、データソースの削除

  1. [プロパティ] 列で [データ インポート] をクリックします。
  2. 目的のデータソースの行の 次へ をクリックします。

データソースの名前、データの種類、公開鍵、アップロードごとの履歴を確認できます。

  • 公開鍵: SFTP サーバーの公開鍵です。ペアとなる秘密鍵はアナリティクスに保存され(決して共有されない)、ユーザーのサーバーとアナリティクスのデータ インポート サーバー間の安全なプライベート接続を確保するために使用されます。データ インポートを安全かつ確実に機能させるためには、サーバー上でこの公開鍵を承認する必要があります。
  • % インポート済み: 正常にインポートされた行数を、インポート ファイルの行数で割った値です。すべての行が正常にインポートされると、100% になります。
  • マッチ率: プロパティにあるインポート ファイルのキーの割合です(過去 90 日間)。過去 90 日間のデータが完全に関連しており実用的な場合は、100% になります。

新しいデータをインポートするには:

[今すぐインポート] をクリックし、ご使用のパソコンにある CSV ファイルを選択します。

データソースを削除する方法:

  1. その他 > [データソースの削除] の順にクリックします。
  2. 削除についての注意書きを確認して、[データソースの削除] をクリックします。

収集 / プロセスタイム型のデータはこの方法で削除できますが、過去にアナリティクスが処理したすべてのイベントからアップロードしたデータを削除するには、さらにユーザーまたはユーザー プロパティの削除が必要となることもあります(詳細)。インポート済みのファイルを削除しても、インポート完了後に収集イベントと関連付けられた処理済みデータは削除されません。

 

予約済みの名前および接頭辞

次のイベント名、イベント パラメータ名、ユーザー プロパティ名、および接頭辞は、アナリティクスが使用するため予約されています。予約済みの名前や接頭辞と合致する内容を含むデータをアップロードしようとしても、該当データはアップロードされません。

次に例を示します。

  • 予約済みの名前と同名のイベントのインポートを試みた場合、該当イベントおよびそのパラメータはインポートされません。
  • インポートを試みたイベントの名前には問題がないものの、パラメータに予約済みの名前が使用されている場合、イベント自体はインポートされますが、予約済みの名前を含むパラメータはインポートされません。

予約済みのイベント名

  • ad_activeview
  • ad_activeview
  • ad_exposure
  • ad_impression
  • ad_query
  • adunit_exposure
  • app_clear_data
  • app_install
  • app_remove
  • app_update
  • error
  • first_open
  • first_visit
  • in_app_purchase
  • notification_dismiss
  • notification_foreground
  • notification_open
  • notification_receive
  • os_update
  • screen_view
  • session_start
  • user_engagement

予約済みのイベント パラメータ名

  • firebase_conversion

予約済みのユーザー プロパティ名

  • first_open_after_install
  • first_open_time
  • first_visit_time
  • last_deep_link_referrer
  • user_id

予約済みの接頭辞(イベント パラメータおよびユーザー プロパティに適用)

  • ga_
  • google_
  • firebase_

この情報は役に立ちましたか?

改善できる点がありましたらお聞かせください。
false
検索
検索をクリア
検索を終了
メインメニュー
11095534724889375138
true
ヘルプセンターを検索
true
true
true
true
true
69256
false
false