データ インポートを使用する理由
各種ビジネス用システムでは、それぞれ独自のデータが生成されます。CRM には、顧客リピート回数率、ライフタイム バリュー、商品の好みなどの情報が含まれます。ウェブ パブリッシャーの方の場合は、コンテンツ管理システムに作成者や記事のカテゴリなどのデータ ディメンションが保存されているはずです。e コマース ビジネスなら、価格、スタイル、サイズなどの商品属性を保存しているでしょう。
そしてアナリティクスには、ウェブサイトやアプリのトラフィックとパフォーマンスの測定データが蓄積されています。
通常これらのデータはそれぞれサイロ化されており、互いに情報のやりとりはありません。データ インポートは、定義したスケジュールでこういったデータをアナリティクスに集約して結合することができ、サイロ化の解消、新たなインサイトの発見、データの民主化に役立ちます。
データ インポートの仕組み
データのアップロード
外部のデータを格納した CSV ファイルを、アナリティクスのプロパティにアップロードします。CRM や CMS といったオフラインのビジネスツールからこうした CSV ファイルをエクスポートして使用できるほか、少量のデータであればテキスト エディタやスプレッドシートでファイルを手動作成することも可能です。
データ インポートでは、アップロードしたオフライン データは、アナリティクスが収集したイベントデータと結合されます。これによってレポート、比較、オーディエンスのデータが強化され、ユーザーのアクティビティをオンラインとオフラインの両面にわたって総合的に把握できます。
データの結合
インポートしたデータの種類に応じて、次のいずれかの方法でデータの結合が行われます。
- 収集 / プロセスタイム: アナリティクスのデータの収集・処理時に、インポート済みデータとの結合が行われます。インポート済みデータもイベントと同時に収集されたような扱いとなり、結合後のデータがアナリティクスのサマリー表に書き込まれます。インポートしたデータはアナリティクスの過去のデータ(処理が済んでいるデータ)とは結合されません。インポートしたデータファイルを削除した場合、その後の結合は行われませんが、すでに結合済みのデータはそのまま維持されます。
ユーザーデータとオフライン イベント データは、収集 / 処理時に結合されます。
- レポート / クエリタイム: アナリティクスのデータとインポート済みデータの結合は、レポートを開き、アナリティクスがレポートデータを取得するクエリを実行した時点で行われます。このタイプの結合は一時的なものです。インポートしたデータファイルを削除した場合、その後の結合は行われず、すでに結合したデータをアナリティクスで参照することもできなくなります。
費用データ、商品データ、カスタム イベントデータは、レポート / クエリ時に結合されます。
アナリティクスでオーディエンスを作成している場合やデータ探索ツールでセグメントを作成している場合は、レポート / クエリタイムのデータを利用できません。
データをインポートすると、以前にインポートされたデータは保持され、新たにインポートされたデータが追加されます。インポートされたデータに、以前にインポートされたデータと同じキーセットが含まれている場合、データは上書きされます。
インポートできるメタデータの種類
メタデータ
インポートしたメタデータは、プロパティによって収集・処理済みのデータに追加されます。メタデータは通常、カスタム ディメンションまたは指標に格納されますが、収集済みのデフォルト情報を上書きしたほうが便利なケースもあります(カテゴリ構成を更新した商品カタログをインポートする場合など)。
インポートできるデータの種類は次のとおりです。
- 費用データ: サードパーティ(Google 以外)の広告ネットワークのクリック数、費用、表示回数データ
- 商品データ: 商品のメタデータ(サイズ、色、スタイル、その他の商品関連ディメンションなど)
- ユーザーデータ: 顧客忠誠率や顧客のライフタイム バリューなど、セグメントとリマーケティング リストの作成に使用できるユーザー メタデータ
- オフライン イベント: インターネット接続が利用できないソースや、リアルタイムでのイベント収集がサポートされていないソースのオフライン イベント
- カスタム イベントデータ: 標準フィールドやカスタム ディメンションを使用してイベントのメタデータをインポート
上限
データソースのサイズ | 1 GB |
1 日あたりのアップロード量 |
プロパティごとに 1 日あたり 120 件 |
インポート データの種類 | プロパティごとのデータソースの上限 | データの種類ごとのストレージ上限 |
---|---|---|
費用データ | 最大 5 個 | すべてのインポート ソースで 1 GB |
商品データ | 最大 5 個 | すべてのインポート ソースで 1 GB |
ユーザーデータ | 最大 10 | 該当なし |
オフライン イベント | 最大 10 | 該当なし |
カスタム イベントデータ | 最大 5 個 | すべてのインポート ソースで 1 GB |
現在のプロダクト内の割り当て使用状況は、[割り当て情報] ボタンで確認できます。
データをインポートする方法
データをインポートする際には、データソースを作成します。データソースとは、アップロードする CSV ファイルと、既存のアナリティクス フィールドから CSV のフィールドへのマッピングの組み合わせです。次に例を示します。
重複したキーを含むファイルはアップロードしないでください(例: user_id という名前の 2 つのフィールド)。
データソースについて詳しくは、こちらの記事をご覧ください。
SFTP を使用してデータをアップロードするための前提条件
手順 5 で SFTP オプションを使用する場合は、SFTP サーバーで ssh-rsa
と ssh-dss
のホストキー アルゴリズムがサポートされていることを確認してください。使用しているホストキー アルゴリズムの確認と、SFTP サーバー URL の形式を指定する方法の詳細をご覧ください。
インポート プロセスを開始する
新しいデータソースを作成する
- [データソースを作成] をクリックします。
- データソースに名前を付けます。
- データの種類を選択します。
- 費用データ(クエリタイム インポートのみ)
- 商品データ(レポート / クエリタイム インポート)
- ユーザー ID 別のユーザーデータ(収集 / プロセスタイム インポート)
- クライアント ID 別のユーザーデータ(収集 / プロセスタイム インポート)
- オフライン イベントデータ(収集 / プロセスタイム インポート)
- カスタム イベントデータ(レポート / クエリタイム インポート)
- 確認メッセージが表示された場合は [規約を確認] をクリックします。このメッセージは、デバイスデータまたはユーザーデータをインポートする際に表示されます。
- 次のいずれかを行います。
- [CSV の手動アップロード] をクリックし、パソコン上の CSV ファイルを選択して [開く] をクリックします。
- [SFTP] を選択します。
- [SFTP サーバーのユーザー名] に SFTP サーバーのユーザー名を入力します。
- [SFTP サーバーの URL] に SFTP サーバーの URL を入力します。
- [頻度] でアップロードの頻度を [毎日]、[毎週]、[毎月] から選択します。
- [開始時刻] でアップロードを開始する時刻を選択します。
- データソースが作成されると、データソースを作成するインターフェースに SFTP サーバーの公開鍵が表示され、[データソースの詳細] で取得できるようになります(下記を参照)。
- [次へ] をクリックして、マッピングに進みます。
- 互いにマッピングする、アナリティクスのフィールドとインポートするデータのフィールドを選択します。必要に応じてフィールド名を編集します。
- [インポート] をクリックします。
既存のデータソースにデータをアップロードする
- 既存のデータソースの行の [今すぐインポート] をクリックします。
- データソースが CSV のインポート用に設定されている場合は、インポートする CSV ファイルを選択して [開く] をクリックします。
CSV ファイルには元のフィールドと同じフィールドか、フィールドのサブセットが含まれている必要があります。同じデータタイプに対して異なるフィールドをインポートする場合は、既存のデータソースを削除し、新しいデータソースを作成する必要があります。
参照元プロパティで行われたデータのインポートは、統合プロパティとサブプロパティの両方に自動的にエクスポートされます。
SFTP ホストキー アルゴリズムの確認、SFTP サーバー URL の形式の指定
アルゴリズムを確認する
SFTP サーバーで ssh-rsa と ssh-dss のどちらのホストキー アルゴリズムが使用されているかを確認するには、さまざまな方法があります。たとえば、OpenSSH リモート ログイン クライアントを使用すると、次のコマンドでサーバーログを確認できます。
ssh -vv <SFTP サーバー名>
どちらかのアルゴリズムがサーバーでサポートされている場合は、サーバーログに次のような行が表示されます。
debug2: host key algorithms: rsa-sha2-512, rsa-sha2-256, ssh-rsa
SFTP サーバー URL の形式を指定する
SFTP サーバー URL の形式が正しく指定されていないと、インポートの設定が失敗して内部エラー メッセージが表示されます。
通常、SFTP サーバー URL は 3 つの部分で構成され、データ インポート用ファイルのアップロード時にはこれらを考慮する必要があります。次に例を示します。
sftp://example.com//home/jon/upload.csv
は次の部分で構成されています。
- ドメイン:
example.com
- ホーム ディレクトリ:
//home/jon
- ファイルパス:
/upload.csv
上記の例では、アップロード ファイルはホーム ディレクトリにあります。
URL のドメイン部分は、ポート番号の有無にかかわらず、ドメイン名またはサーバーの IPv4 または IPv6 アドレスを使用して、さまざまな方法でフォーマットできます。
- ドメイン名:
sftp://example.com
- IPv4(ポート番号あり):
sftp://142.250.189.4:1234
- IPv4(ポート番号なし):
sftp://142.250.189.4
- IPv6(ポート番号あり):
sftp://[2607:f8b0:4007:817::2004]:1234
- IPv6(ポート番号なし):
sftp://[2607:f8b0:4007:817::2004]
ポート番号なしの場合、デフォルトのポートは 22 です。
ホーム ディレクトリを含めるか除外するかに応じて、URL を正しい形式で指定します。次の正しい形式の URL の例では、ドメインを識別するために異なる形式が使用されています。例にはポート番号が含まれていますが、ポート番号を使用しないことも可能です。
- ホーム ディレクトリを含む場合は次のようになります。
sftp://example.com//home/jon/upload.csv
(ドメイン名)sftp://142.250.189.4:1234//home/jon/upload.csv
(ポート番号を含む IPv4)
- ホーム ディレクトリを含まない場合は次のようになります。
sftp://example.com/upload.csv
(ドメイン名)sftp://[2607:f8b0:4007:817::2004]:1234/upload.csv
(ポート番号を含む IPv6)
アップロード ファイルがホーム ディレクトリのサブディレクトリにある場合、URL は次のようになります。
sftp://example.com//home/jon/data/upload.csv
この場合、使用できる形式は次のようになります。
- ホーム ディレクトリを含む場合は次のようになります。
sftp://example.com//home/jon/data/upload.csv
sftp://142.250.189.4:1234//home/jon/data/upload.csv
(ポート番号を含む IPv4)
- ホーム ディレクトリを含まない場合は次のようになります。
sftp://example.com/data/upload.csv
sftp://[2607:f8b0:4007:817::2004]:1234/data/upload.csv
(ポート番号を含む IPv6)
アップロード ファイルが、ホーム ディレクトリ(//home/jon
)またはホーム ディレクトリのサブディレクトリ(//home/jon/data
)ではなく /foo/bar ディレクトリに保存されている場合、アップロード ファイルの正しい形式の URL は次のようになります。
sftp://example.com//foo/bar/upload.csv
(ホーム ディレクトリを sftp://example.com//foo/bar/upload.csv
で置き換える)
データソースの詳細の確認、SFTP 公開鍵の取得、新しいデータのインポート、データソースの削除
データソースの名前、データの種類、公開鍵、アップロードごとの履歴を確認できます。
- 公開鍵: SFTP サーバーの公開鍵です。ペアとなる秘密鍵はアナリティクスに保存され(決して共有されない)、ユーザーのサーバーとアナリティクスのデータ インポート サーバー間の安全なプライベート接続を確保するために使用されます。データ インポートを安全かつ確実に機能させるためには、サーバー上でこの公開鍵を承認する必要があります。
- % インポート済み: 正常にインポートされた行数を、インポート ファイルの行数で割った値です。すべての行が正常にインポートされると、100% になります。
- マッチ率: プロパティにあるインポート ファイルのキーの割合です(過去 90 日間)。過去 90 日間のデータが完全に関連しており実用的な場合は、100% になります。
新しいデータをインポートするには:
[今すぐインポート] をクリックし、ご使用のパソコンにある CSV ファイルを選択します。
データソースを削除する方法:
- > [データソースの削除] の順にクリックします。
- 削除についての注意書きを確認して、[データソースの削除] をクリックします。
収集 / プロセスタイム型のデータはこの方法で削除できますが、過去にアナリティクスが処理したすべてのイベントからアップロードしたデータを削除するには、さらにユーザーまたはユーザー プロパティの削除が必要となることもあります。インポート済みのファイルを削除しても、インポート完了後に収集イベントと関連付けられた処理済みデータは削除されません。 データ削除リクエストについて詳しくは、こちらの記事をご覧ください。
予約済みの名前および接頭辞
次のイベント名、イベント パラメータ名、ユーザー プロパティ名、および接頭辞は、アナリティクスが使用するため予約されています。予約済みの名前や接頭辞と合致する内容を含むデータをアップロードしようとしても、該当データはアップロードされません。
次に例を示します。
- 予約済みの名前と同名のイベントのインポートを試みた場合、該当イベントおよびそのパラメータはインポートされません。
- インポートを試みたイベントの名前には問題がないものの、パラメータに予約済みの名前が使用されている場合、イベント自体はインポートされますが、予約済みの名前を含むパラメータはインポートされません。
予約済みのイベント名
- ad_activeview
- ad_activeview
- ad_exposure
- ad_impression
- ad_query
- adunit_exposure
- app_clear_data
- app_install
- app_remove
- app_update
- error
- first_open
- first_visit
- in_app_purchase
- notification_dismiss
- notification_foreground
- notification_open
- notification_receive
- os_update
- screen_view
- session_start
- user_engagement
予約済みのイベント パラメータ名
- firebase_conversion
予約済みのユーザー プロパティ名
- first_open_after_install
- first_open_time
- first_visit_time
- last_deep_link_referrer
- user_id
予約済みの接頭辞(イベント パラメータおよびユーザー プロパティに適用)
- ga_
- google_
- firebase_