Search Console一括データエクスポート設定マニュアル

すぐに、Search Console一括データエクスポート設定方法を見たい方は、目次からSearch Console一括データエクスポート設定方法をクリックしてください。Search Console一括エクスポートとBigQueryの知識を得てから進みたい方は、このまま最初からお読みください。

目次

Search Console一括データエクスポートとは

Search Consoleのパフォーマンスデータを、自動的に「BigQuery」に毎日エクスポートする機能です。

BigQueryとは

Google Cloudのクラウド型データウェアハウスで、管理が非常に楽なサーバーレス仕様となっています。操作が簡単・コストパフォーマンスが高い・レスポンスが高速 と使い勝手のよいのが特徴です。

用途としては、GA4、Search Console、ECデータ、交通情報などのビッグデータ分析に向いています。

BigQueryの料金:

BigQueryの利用には「ストレージ料金」「クエリ(分析)」の2通りの料金がかかります。ただし、毎月無料枠が設けられていますので相当大きなデータを処理しない限りは無料枠で収まるでしょう。

リソース無料枠
ストレージ10GBまで無料
クエリ(分析)処理データ1TBまで無料
2023年8月23日調べ 参照元: https://cloud.google.com/bigquery/pricing

BigQuery料金目安:

Search Consoleデータ60日分のクエリ18万行を全列読み込んでみたところ、処理に30MB弱ほどかかりました。毎日30MBを読み込んだ場合、900MBのクエリ処理となります。1TBまで無料枠があるので0.1%の利用で収まります。

Search Console一括データエクスポート設定方法

もし、Google Cloud Platform(GCP)を使ったことのない方は、Google Cloud登録から始める必要があります。

Google Cloudアカウント登録

  • Google Cloud Platformにアクセスし、「無料で開始」をクリックします。
  • 必要な情報を入力してアカウントを設定します。

Google Cloudアカウント登録:
下画像のとおりに進めて登録を完了させます。支払い情報が必要ですのでクレジットカードをご準備ください。

google cloudの利用開始
google cloud登録
  1. 該当する組織を選択
  2. 利用規約にチェック
  3. 続行ボタン押す
  1. 支払い方法にクレジットカード情報を入力
  2. 無料トライアルを開始ボタンを押す

Cloud プロジェクトを準備する

プロジェクトの選択を押して、Cloudプロジェクト選択画面を開きます。

新しいプロジェクトを押す
プロジェクト名をつける

プロジェクト名は、わかりやすい名前(英数字)にしましょう。場所は、組織なし(デフォルトのまま)でOKです。

BigQueryを有効にする

Google Cloudの左メニューを開いて、APIとサービスを選択します。

+APIとサービスの有効化を選択します。

検索窓に「bigquery api」と入力して、検索結果に表示されたBigQuery APIを選択します。

BigQuery APIを有効化します。

Google Cloudでの権限付与

  • Google Cloudにて、対象のプロジェクトを選択します。
  • サイドバーで「IAMと管理」を選択します。
  • 「+ アクセス権を付与」をクリックして、新しいメンバーを追加します。
  • メンバー名として search-console-data-export@system.gserviceaccount.com を新しいプリンシパル欄に入力します。
  • 「BigQuery ジョブユーザー」と「BigQuery データ編集者」の2つのロールを付与します。(下画像参照)
  • 「保存」をクリックして権限を適用します。

Search Consoleで一括エクスポートを有効にする

BigQueryの設定と権限設定が完了した後、Google Search Consoleで一括エクスポートを開始する手順は以下の通りです。

  • Cloudプロジェクトを入力
  • データセットの場所を東京にセット

Search Console での操作:
一括データエクスポート
https://search.google.com/search-console/settings/bulk-data-export

テーブルの有効期間を設定する

デフォルトのテーブルの有効期限を設定します。利用するシステムが保持する日数によって調整してください。SEOオーランの場合は、2ヶ月なので62日推奨。

テーブルの有効期限を設定しないと、Search Consoleデータが日々増え続けて、データ処理に時間がかかるようになりますし、無料枠を超える可能性が出てきますので必ず行いましょう。

Search Console連携を行ってから自動的にデータが入ってくるまで、48時間ほどかかります。

ポストしてくれるとうれしいです

この記事を書いた人

岩永 圭一のアバター 岩永 圭一 アルル制作所 代表取締役

2003年にECサイト「ウェディングアイテム」を立ち上げ、手作り結婚式を応援。年商3億円達成。2005年デザイン会社を設立。2社を譲渡後、2021年にアルル制作所を立ち上げ、オウンドメディア運営代行『記事スナイパー』を開始。これまで立ち上げた事業は、他にも中古ドメイン販売・キーワードツール・バー専門ホームページ制作・記事LP制作・レンタルスペース・撮影スタジオと多岐にわたる。

コメント

コメント一覧 (5件)

  • オーランさん

    #SEOオーラン を早速使わせていただきました。
    非常に役立つツールで驚きました。

    ですが、1つ質問があります。
    1つのサイトは記事数が少なく問題なく動作しました。

    ですが、もう1つのサイトは記事数が400を超えている為か、
    【投稿記事データ取得】をクリックすると「起動時間の最大値を超えました」とエラーが出てしまいます。
    このエラーを解決する方法はありますでしょうか。

    ちなみに、Google Cloud Platformを有料で使えばこのエラーが解決されるとは思うのですが、可能であれば無料版でこのエラーが解決できると嬉しいです。

    TwitterのDMが出来なかったので、こちらの記事のコメント欄にて質問させて頂きました。

    お忙しい中申し訳ございませんが、回答頂ければ幸いです。
    何卒よろしくお願い致します。

    • ご利用ありがとうございます。
      記事数や本文データが多いと、どうしても取得に時間がかかり、GASの制限時間6分を超えてしまいます。
      時間ギリギリまでデータを取得して次の実行で続きを取得するといったことは可能かもしれませんが
      UXはあまりよいとは言えませんので、今のところ修正は検討していません。

      ですので、おっしゃるとおり、GCPの有料版にするしか今のところ解決策はありません。

      • さきほど、記事取得ロジックに並列処理を加えて速度をアップしました。
        おそらくこれで大量記事も処理できると思います。
        もし、これでも時間オーバーになる場合は、スプレッドのメニュー – 拡張機能-App Scriptを開いて
        seo_orank_free.setPageSheet(ss_Pages,USER_ID,PASSWORD,BASE_URL);
        をコメントアウトして保存し、再度実行してください。
        固定ページ取得をせずに投稿のみを取得するはずです。
        それが終わったら今度は投稿側をコメントアウトしてください。
        これですべて取得できます。

  • オーランさん

    返信ありがとうございます。

    そして、バージョンアップもありがとうございます。
    バージョンアップのみでエラーが解決しました。

    本当にありがとうございました!

  • それは、よかったです!
    また何かあればご連絡ください。TwitterDMも開放しました。

コメントする

目次