robots.txt許可チェッカー
robots.txtの内容と対象URLを入力し、クローラーによるアクセスが許可されるかを判定します。
判定設定
チェックしたいrobots.txtの内容を貼り付けてください
        サンプル: よく使われるrobots.txtのパターンを読み込めます
      
      
      
      
      クロール可否を確認したいURLを入力してください
判定対象のクローラーを選択してください
このツールの使い方
- robots.txt入力: チェックしたいrobots.txtの内容を貼り付けます
 - URL入力: テストしたいURLを入力します
 - User-agent選択: 判定対象のクローラーを選択します
 - 判定実行: 「判定実行」ボタンをクリックします
 - 結果確認: 許可/拒否の結果と適用されたルールが表示されます
 
このツールの特徴
- 詳細な判定: 適用されたルールと理由を詳しく表示
 - 複数クローラー対応: Google、Bing、Yahooなど主要クローラーに対応
 - サンプル搭載: 一般的な設定をワンクリックで読み込み
 - リアルタイム判定: 即座に判定結果を表示
 - ワイルドカード対応: * を使ったパターンマッチングに対応
 - 優先順位考慮: Allow/Disallowの優先順位を正しく判定
 - ブラウザ内完結: データはサーバーに送信されません
 - レスポンシブ対応: スマホ・タブレットでも快適に操作
 - 完全無料: 登録不要で今すぐ使えます
 
robots.txtの判定ルール
基本ルール
- User-agentは、指定されたクローラーまたは * (すべて) にマッチします
 - 複数のUser-agentグループがある場合、より具体的なものが優先されます
 - Disallowはクロールを拒否するパスを指定します
 - Allowはクロールを許可するパスを指定します(Disallowより優先)
 - より長い(具体的な)パスマッチが優先されます
 
パスマッチング
- Disallow: /admin/ → /admin/で始まるすべてのパスを拒否
 - Disallow: /*.pdf → すべてのPDFファイルを拒否
 - Allow: /admin/public/ → /admin/配下でも/admin/public/は許可
 
よくある判定例
| robots.txt | テストURL | 結果 | 
|---|---|---|
| Disallow: /admin/ | /admin/login | 拒否 | 
| Disallow: /admin/ Allow: /admin/public/  | 
          /admin/public/info | 許可 | 
| Disallow: /*.pdf | /document.pdf | 拒否 | 
| Disallow: | /anything | 許可 | 
活用シーン
- robots.txtの設定が正しく動作するか事前確認
 - 特定のページがクローラーにアクセス可能か検証
 - Disallow/Allowの優先順位を理解する学習ツールとして
 - 複雑なrobots.txtの動作をテスト
 - SEO対策でのクロール制御の確認
 
注意点
- 入力したデータはブラウザ上でのみ処理され、サーバーには保存されません
 - このツールは判定のシミュレーションであり、実際の検索エンジンの動作とは異なる場合があります
 - 正確な検証にはGoogle Search Consoleのrobots.txtテスターをご利用ください
 - ワイルドカード(*)や $ の高度な構文にも対応していますが、すべての検索エンジンが同じ動作をするとは限りません