競合の動向を自動で検知し、レポート化して意思決定に使えるようにする。
下図の5層を上から下へデータが流れる。マゼンタのレイヤーが価値の中核。
1
収集
Collectors 競合の各媒体からデータを自動取得Web / PR
ホームページ差分検知
プレスリリース監視
SNS
X アカウント監視
YouTube 新着検知
教材
スキルプラス等
ラインナップ増減
コミュニティ
Discord / チャットワーク
投稿クロール
セミナー
connpass / Peatix
録画 / 文字起こし
2
スケジューラ
Scheduler トリガー / ジョブ管理 / リトライ時間トリガー
cron: 1日1〜数回
媒体ごとに頻度設定
イベント駆動
RSS更新 / Webhook
即時実行
リトライ
失敗時3回まで
指数バックオフ
3
処理・分析
Processors データを意味のある情報に変換差分抽出
前回との比較
変更種別の分類
LLM要約
変更内容を日本語で要約
重要ポイント抽出
影響度スコア
低 / 中 / 高 の自動判定
優先度 1-5
分析統合
SWOT 自動更新
比較マトリクス
4
データストア
Storage 時系列データ / メタデータ / 分析結果競合リスト
メタデータ / URL / 優先度
検知ログ
全変更の時系列記録
分析表
SWOT / 機能比較 / 推移
5
出力
Output 通知 / レポート / ダッシュボード即時通知
Slack / Discord
影響度「高」は即時
定期レポート
日次サマリ
週次競合動向
ダッシュボード
一覧ビュー
時系列 / 媒体別
戦略ブリーフィング
月次トレンドサマリ
会議用資料
データフロー(1サイクル)
競合サイトに変化
→
Collector が検知
→
差分抽出 + LLM要約
→
影響度判定
→
レポート / 通知
→
戦略判断
Web / プレスリリース
| 手法 | ツール | |
|---|---|---|
| HTMLハッシュ比較 | Python + hashlib | REC |
| RSS/Atom | feedparser | REC |
| サイトマップ差分 | sitemap-parser | |
| セルフホスト | changedetection.io | |
| PR配信 | PR TIMES API |
SNS
| 媒体 | 手法 | |
|---|---|---|
| YouTube | Data API v3 | REC |
| X | リスト活用 | REC |
| X | API v2 Basic | $100/月 |
| Graph API | 制約大 |
実行基盤
| Phase | 構成 | |
|---|---|---|
| Phase 1 | ローカル + cron | NOW |
| Phase 2+ | 常設PC / VPS | |
| データ | SQLite → PostgreSQL | |
| 通知 | Slack/Discord Webhook |
Click checkboxes to update. Synced via GitHub.
Critical Path
Done
To Do
Weekend
Critical Path — Phase 1
1.1 リスト取得
→
1.2 URL整理
→
1.3 competitors.md
→
2.1 URL確定
→
2.2 差分検知
→
2.5 通知接続
→
6.1 スケジューラ
→
6.2 統合テスト
→
8.2 デモ (4/10)
Bottleneck: 1.1 が 04/07 中に完了しないと全体後ろ倒し
Milestones
04/07
競合リスト取得完了
competitors.md に5社以上の媒体情報
04/10
Phase 1 デモ
Web + SNS + 教材の検知通知が実動
04/11
Phase 1 完了判定
成功指標4項目クリア
04/18
Phase 2 中間確認
レポート要約 + コミュニティBot
04/25
Phase 2 完了判定
常設環境で安定稼働 + 分析表半自動更新
05/09
Phase 3 中間確認
ダッシュボード + セミナー収集
05/16
Phase 3 完了判定
戦略会議で実使用