翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
ウェブクローラーの統合
Amazon Quick での Web Crawler 統合を使用すると、ウェブページをクロールしてインデックスを作成することで、ウェブサイトコンテンツからナレッジベースを作成できます。この統合は、さまざまな認証オプションでデータ取り込み機能をサポートしています。
ウェブクローラーの機能
Web Crawler ユーザーは、ウェブサイトやウェブページに保存されているコンテンツについて質問できます。たとえば、ユーザーはドキュメントサイト、ナレッジベース、または複数のウェブページにわたる特定の情報を検索できます。
統合により、ユーザーは場所やタイプに関係なくウェブコンテンツにアクセスして理解できます。発行日、変更履歴、ページの所有権などのコンテキストの詳細を提供し、情報検出をより効率的にします。
注記
Web Crawler 統合は、データ取り込みのみをサポートします。ウェブサイトやウェブサービスを管理するためのアクション機能は提供されていません。
前提条件
Web Crawler 統合を設定する前に、以下があることを確認してください。
-
クロールとインデックスを作成するウェブサイト URLs。
-
Amazon Quick Enterprise サブスクリプション。
-
ファイアウォールの内側ではなく、接続に特別なブラウザプラグインを必要としないウェブサイト。
ウェブサイトのアクセスと認証を準備する
Amazon Quick で統合を設定する前に、ウェブサイトのアクセス認証情報を準備します。Web Crawler 統合は、さまざまな認証方法をサポートしています。
- 認証なし
-
認証を必要としないウェブサイトのクローリングに使用します。
- 基本認証
-
保護されたウェブサイトの標準 HTTP 基本認証。保護されたサイトにアクセスすると、ブラウザに 認証情報を尋ねるダイアログボックスが表示されます。
必要な認証情報:
-
ログインページの URL - ログインページの URL
ユーザー名 - 基本的な認証ユーザー名
パスワード - 基本的な認証パスワード
-
- フォーム認証
-
HTML フォームベースのログインページを使用するウェブサイトの場合。XPath 式を指定して、ログインページのフォームフィールドを識別します。
XPath (XML パス言語) は、HTML または XML ドキュメント内の要素をナビゲートするためのクエリ言語です。ウェブページ要素の XPath を検索するには、ブラウザで要素を右クリックして Inspect を選択します。開発者ツールで、強調表示された HTML コードを右クリックし、コピーを選択し、XPath のコピーを選択します。
必要な情報:
ログインページの URL - ログインフォームの URL (例:
https://example.com/login)ユーザー名 - ログインユーザー名
パスワード - ログインパスワード
Username フィールド XPath - XPath to username input フィールド (例:
//input[@id='username'])-
ユーザー名ボタン XPath (オプション) - XPath to username ボタンフィールド (例:
//input[@id='username_button']) パスワードフィールド XPath - XPath to password 入力フィールド (例:
//input[@id='password'])パスワードボタン XPath - XPath to password ボタン (例:
//button[@type='password'])
- SAML 認証
-
SAML ベースのシングルサインオン (SSO) 認証を使用するウェブサイトの場合。
SAML (Security Assertion Markup Language) 認証は、SSO を有効にするフェデレーション ID 標準です。ユーザーは、各アプリケーションに直接認証情報を入力する代わりに、一元化された ID プロバイダー (Microsoft Azure AD や Okta など) を介して認証します。ID プロバイダーは、安全なトークンをアプリケーションに渡し、アクセスを許可します。
必要な情報:
ログインページの URL - SAML ログインページの URL
ユーザー名 - SAML ユーザー名
パスワード - SAML パスワード
-
Username フィールド XPath - XPath to username input フィールド (例:
//input[@id='username']) -
ユーザー名ボタン XPath (オプション) - XPath to username ボタンフィールド (例:
//input[@id='username_button']) -
パスワードフィールド XPath - XPath to password 入力フィールド (例:
//input[@id='password']) -
パスワードボタン XPath - XPath to password ボタン (例:
//button[@type='password'])
XPath 設定の例
フォームと SAML 認証を設定するには、次の XPath の例を使用します。
Username field examples: //input[@id='username'] //input[@name='user'] //input[@class='username-field'] Password field examples: //input[@id='password'] //input[@name='pass'] //input[@type='password'] Submit button examples: //button[@type='submit'] //input[@type='submit'] //button[contains(text(), 'Login')]
Web Crawler 統合をセットアップする
ウェブサイトのアクセス要件を準備したら、Amazon Quick で Web Crawler 統合を作成します。
-
Amazon Quick コンソールで、統合を選択します。
-
統合オプションからウェブクローラーを選択し、追加ボタン (プラス「+」ボタン) をクリックします。
-
Web Crawler からデータにアクセスするを選択します。ウェブクローラー統合はデータアクセスのみをサポートします。アクションの実行はウェブクロールでは使用できません。
-
統合の詳細と認証方法を設定し、必要に応じてナレッジベースを作成します。
-
ウェブクローラー統合の認証タイプを選択します。
-
選択した認証方法に基づいて、必要な詳細を入力します。
-
(オプション) VPC 接続を選択して、プライベートネットワークでホストされているサイトをクロールします。ここで VPC 接続を選択する前に、VPC 接続を管理者設定で設定する必要があります。詳細については、「Amazon Quick で使用する VPC のセットアップ」を参照してください。
注記
統合の作成後に VPC 接続を変更することはできません。別の VPC 接続を使用するには、新しい統合を作成します。
-
[作成して続ける] を選択します。
-
ナレッジベースの名前と説明を入力します。
-
クロールするコンテンツ URLs を追加します。
-
[作成] を選択します。
-
Create を選択すると、データ同期が自動的に開始されます。
クローリングを設定する
クロールするウェブサイトとページ、およびコンテンツのフィルタリング方法を設定できます。
URLsとコンテンツソースを設定する
クロールするウェブサイトとページを設定します。
直接 URLs
クロールする個々の URLs を指定します。
https://example.com/docs https://example.com/blog https://example.com/support
制限: データセットあたり最大 10 URLs
コンテンツフィルターとクロール設定
スコープ設定をクロールする
これらの設定を表示するには、まずナレッジベースをセットアップしてから、詳細設定オプションを調べる必要があります。
- クロール深度
-
範囲: 0~10 (デフォルト: 1)
0 = 指定された URLs
1 = リンクされたページを 1 レベル深く含める
値が大きいほど、サイト内のリンクが深くなります。
- ページあたりの最大リンク数
-
デフォルト: 1000
最大: 1,000
各ページからフォローするリンクの数を制御します
- 待機時間
-
デフォルト: 1
-
ページが準備完了状態になってからウェブクローラーが各ページを待機する時間 (秒単位)。メインテンプレートの後にロードされる動的 JavaScript コンテンツを持つページのこの値を増やします。
ナレッジベースの管理
Web Crawler 統合を設定したら、クロールされたウェブサイトコンテンツからナレッジベースを作成および管理できます。
既存のナレッジベースを編集する
既存の Web Crawler ナレッジベースを変更できます。
-
Amazon Quick コンソールで、ナレッジベースを選択します。
-
リストから Web Crawler ナレッジベースを選択します。
-
アクションで 3 つのドットのアイコンを選択し、ナレッジベースの編集を選択します。
-
必要に応じて設定を更新し、保存を選択します。
添付ファイルとファイルのクローリング
システムがウェブページからリンクされたファイルと添付ファイルを処理するかどうかを制御します。
-
ファイル添付ファイルのクロールを有効にする – このオプションを選択すると、PDF、ドキュメント、メディアファイルなどのPDFs。
クローリング動作と同期設定
Web Crawler 統合は、次のクローリングプラクティスに従います。
増分同期モデル: 最初の同期はフルクロールを実行します。以降の同期は変更のみをキャプチャします。
自動再試行: 失敗したリクエストの組み込み再試行ロジック。
重複処理: URLs の自動検出と重複排除。
クローラ識別: リクエストヘッダーの user-agent 文字列aws-quick-on-behalf-of-<UUID>」で自身を識別します。
Sitemap 検出
Web Crawler は、シード URLs に共通のサイトマップパスを追加して、サイトマップを自動的にチェックします。サイトマップ URLs を個別に指定する必要はありません。次のパスがチェックされます。
sitemap.xml sitemap_index.xml sitemap/sitemap.xml sitemap/sitemap_index.xml sitemaps/sitemap.xml sitemap/index.xml
たとえば、シード URL が の場合https://example.com/docs、クローラは https://example.com/docs/sitemap.xml、 https://example.com/docs/sitemap_index.xmlなどをチェックします。
注記
Web Crawler は、再帰的なサイトマップインデックスリファレンスに従いません。検出されたサイトマップに直接リストされている URLs のみが使用されます。robots.txt の Sitemap ディレクティブは、サイトマップ検出には使用されません。
Robots.txt コンプライアンス
Web Crawler は robots.txt プロトコルを尊重し、ユーザーエージェントおよび許可/禁止ディレクティブを尊重します。これにより、クローラがサイトにアクセスする方法を制御できます。
robots.txt チェックの仕組み
ホストレベルのチェック: Web Crawler は、robots.txt ファイルをホストレベルで読み取ります (例: example.com/robots.txt)
マルチホストのサポート: 複数のホストを持つドメインの場合、Web Crawler はホストごとにロボットルールを個別に尊重します。
フォールバック動作: ブロック、解析エラー、またはタイムアウトが原因で Web Crawler が robots.txt を取得できない場合、robots.txt が存在しないかのように動作します。この場合、クローラはサイトをクロールします。
サポートされている robots.txt フィールド
Web Crawler は、これらの robots.txt フィールドを認識します (フィールド名では大文字と小文字が区別されず、値は大文字と小文字が区別されます)。
user-agentルールが適用されるクローラを識別します。
allowクロールできる URL パス。
disallowクロールできない URL パス。
crawl-delayウェブサイトへのリクエスト間の待機時間 (秒単位)。
メタタグのサポート
Web Crawler は、データの使用方法を制御するために使用できるページレベルのロボットメタタグをサポートしています。HTML ページまたは HTTP ヘッダーにメタタグを含めることで、ページレベルの設定を指定できます。
サポートされているメタタグ
noindexページのインデックスを作成しないでください。このルールを指定しない場合、ページがインデックス化され、エクスペリエンスに表示される可能性があります。
nofollowこのページのリンクは参照しないでください。このルールを指定しない場合、Web Crawler はページのリンクを使用してリンクされたページを検出できます。
カンマ (「noindex、nofollow」など) を使用して複数の値を組み合わせることができます。
注記
メタタグを検出するには、Web Crawler がページにアクセスする必要があります。robots.txt でページをブロックしないでください。これにより、ページが復元されなくなります。
トラブルシューティング
このセクションを使用して、Web Crawler 統合の一般的な問題を解決します。
認証の失敗
症状:
「認証できません」エラーメッセージ
401/403 HTTP レスポンス
ログインページのリダイレクトループ
セッションタイムアウトエラー
解決の手順:
Amazon Quick インスタンスがセットアップされている AWS リージョンからサイトにアクセスできることを確認します。
認証情報が正しく、有効期限が切れていないことを確認します。
認証エンドポイントの可用性とアクセシビリティを確認します。
ブラウザ開発者ツールでテストして XPath 設定を検証します。
ブラウザネットワークログを確認して、認証フローを理解します。
ログインページの URL が正しく、アクセス可能であることを確認します。
同じ認証情報を使用して認証を手動でテストします。
アクセスと接続の問題
症状:
接続タイムアウトとネットワークエラー
ネットワークに到達できないエラー
DNS 解決の失敗
解決の手順:
-
ターゲットウェブサイトへのネットワーク接続を検証します。
-
サイトのアクセシビリティを検証する:
ターゲットドメインの DNS 解決を確認します。
SSL/TLS 設定と証明書を確認します。
可能であれば、さまざまなネットワークからのアクセスをテストします。
DNS 解決
Web Crawler は DNS を使用してウェブサイトのホスト名 ( などwww.example.com) を IP アドレスに解決します。デフォルトでは、パブリック DNS 解決が使用されます。
VPC 内でサイトをクロールする場合、クローラーが内部サイトのホスト名を解決できるように、プライベート DNS サーバーを設定する必要がある場合があります。VPC 設定に基づいて、次のいずれかのオプションを選択します。
-
VPC 提供の DNS サーバーを使用する — VPC で DNS ホスト名と DNS 解決の両方が有効になっている場合は、デフォルトの VPC DNS リゾルバー (通常は 10.0.0.2、またはより一般的には VPC CIDR base+2) を使用できます。詳細については、「VPC」を参照してください。
-
カスタム DNS サーバーを使用する — VPC がカスタム DNS リゾルバーを使用している場合は、組織の内部 DNS サーバーの IP アドレスを指定します。ネットワーク管理者と協力して、このアドレスを取得します。
DNS サーバーを設定しない場合、クローラーはパブリックに登録されたホスト名のみを解決します。
JavaScript 依存ナビゲーション
症状:
シード URL のみがインデックス作成され、追加のページは検出されません
クロールは正常に完了しますが、返されるドキュメントは 1 つだけです
解決の手順:
-
Web Crawler は JavaScript を実行し、ページコンテンツをレンダリングしますが、クリック、スクロール、ホバーアクションなどのユーザーインタラクションをシミュレートしません。サイトがユーザー操作 (クリックハンドラー、無限スクロール、動的メニューなど) を通じてナビゲーションリンクをロードした場合、クローラはそれらのリンクを検出できません。
-
ブラウザ開発者ツールのページを調べて、ナビゲーションリンクが標準
<a href="...">要素を使用しているかどうかを確認します。リンクが代わりに JavaScript イベントハンドラーを介してワイヤリングされている場合、クローラはリンクをフォローしません。 -
サイトがサイトマップを提供する場合、Web Crawler はシード URLs。サイトマップが標準の場所 ( など
/sitemap.xml) で使用可能であることを確認します。これにより、クローラはページ内のリンク抽出に頼ることなく追加の URLs を検出できます。 -
または、すべてのターゲットページの URLsシード URLs。
-
コンテンツを HTML、PDF、またはテキストファイルとしてエクスポートできる場合は、代わりに Amazon S3 コネクタをデータソースとして使用することを検討してください。
クロールとコンテンツの問題
症状:
欠落または不完全なコンテンツ
不完全なクロールまたは早期終了
レート制限エラー (429 レスポンス)
コンテンツが適切にインデックス化されていない
解決の手順:
-
robots.txt の制限を確認します。
robots.txt ファイルでクロールの制限を確認します。
クローラがターゲットパスにアクセスできることを確認します。
robots.txt コンプライアンスがコンテンツをブロックしていないことを確認します。
-
レート制限とスロットリングを確認します。
レート制限情報のレスポンスヘッダーをモニタリングします。
適切なクロール遅延を実装します。
-
URL パターンとフィルターを確認します。
正規表現パターンの精度をテストします。
URL の形式と構造を確認します。
包含/除外パターンロジックを検証します。
-
コンテンツの制限を確認します。
ページの noindex メタタグを確認します。
コンテンツタイプのサポートを確認します。
コンテンツサイズが制限内であることを確認します。
-
クローラーがクロールを開始する前に、コンテンツがページにロードされるように待機時間を更新します。
既知の制限事項
Web Crawler の統合には、次の制限があります。
URL 制限: データセットあたり最大 10 URLs。シード URLs フィールドにサイトマップ URL を指定することはできません。
クロール深度: 最大クロール深度は 10 レベル
セキュリティ要件: ウェブプロキシ設定に必要な HTTPS
VPC 接続でウェブクローラーを使用する場合、次の制限が適用されます。
HTTP/3 (QUIC) サポートなし: HTTP/3 はサポートされていません。ほとんどのサイトは自動的に HTTP/2 にフォールバックされますが、HTTP/3 専用に設定されたサイトにはアクセスできません。
TCP 経由の DNS が必要: DNS 解決には TCP を使用する必要があります。VPC クローリングを設定する前に、DNS サーバーが TCP 経由の DNS をサポートしていることを確認します。
パブリックに信頼された SSL 証明書が必要: 内部サイトは、よく知られている認証機関 (Let's Encrypt や DigiCert など) の証明書を使用する必要があります。自己署名 CA 証明書またはプライベート CA 証明書を使用しているサイトは接続に失敗します。
IPv4 のみ: IPv4 アドレスのみがサポートされています。IPv6 経由でのみアクセス可能なサイトはクロールできません。