亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

ホームページ バックエンド開発 Python チュートリアル &#もっと読み込む&# ボタンを使用して無限スクロール ページをスクレイピングする: ステップバイステップ ガイド

&#もっと読み込む&# ボタンを使用して無限スクロール ページをスクレイピングする: ステップバイステップ ガイド

Jan 13, 2025 pm 06:09 PM

動的 Web ページからデータをロードしようとすると、スクレイパーがスタックしていませんか?無限スクロールや煩わしい「さらに読み込む」ボタンにイライラしていませんか?

あなたは一人ではありません。現(xiàn)在、多くの Web サイトがユーザー エクスペリエンスを向上させるためにこれらのデザインを?qū)g裝していますが、Web スクレーパーにとっては困難な場合があります。

このチュートリアルでは、もっと読み込む ボタンを使用してデモ ページをスクレイピングするための初心者向けのチュートリアルを説明します。ターゲット Web ページは次のようになります:

Demo web page for scraping

最後までに、次の方法を?qū)Wびます:

  • Web スクレイピング用に Selenium をセットアップします。
  • 「さらに読み込む」ボタンの操作を自動化します。
  • 名前、価格、リンクなどの製品データを抽出します。

飛び込んでみましょう!

ステップ 1: 前提條件

実際に始める前に、次の前提條件を確認してください:

  • Python がインストールされました: セットアップ中の pip を含め、最新の Python バージョンを python.org からダウンロードしてインストールします。
  • 基礎(chǔ)知識: Web スクレイピングの概念、Python プログラミング、リクエスト、BeautifulSoup、Selenium などのライブラリの操作に精通していること。

必要なライブラリ:

  • リクエスト: HTTP リクエストの送信用。
  • BeautifulSoup: HTML コンテンツを解析します。
  • Selenium: ブラウザーでのボタンのクリックなどのユーザー操作をシミュレートします。

ターミナルで次のコマンドを使用して、これらのライブラリをインストールできます:

pip install requests beautifulsoup4 selenium

Selenium を使用する前に、ブラウザに一致する Web ドライバーをインストールする必要があります。このチュートリアルでは、Google Chrome と ChromeDriver を使用します。ただし、Firefox や Edge などの他のブラウザでも同様の手順に従うことができます。

Web ドライバーをインストールします

  1. ブラウザのバージョンを確認してください:
  2. Google Chrome を開き、ヘルプ > に移動します。 Chrome のバージョンを確認するには、3 點メニューから Google Chrome について を選択してください。

  3. ChromeDriver をダウンロード:

  4. ChromeDriver のダウンロード ページにアクセスします。

  5. Chrome のバージョンと一致するドライバーのバージョンをダウンロードします。

  6. ChromeDriver をシステムのパスに追加します:
    ダウンロードしたファイルを解凍し、/usr/local/bin (Mac/Linux) または C:WindowsSystem32 (Windows) などのディレクトリに配置します。

インストールの確認

プロジェクト ディレクトリ內(nèi)の Python ファイル scraper.py を初期化し、次のコード スニペットを?qū)g行してすべてが正しく設(shè)定されていることをテストします。

from selenium import webdriver
driver = webdriver.Chrome() # Ensure ChromeDriver is installed and in PATH
driver.get("https://www.scrapingcourse.com/button-click")
print(driver.title)
driver.quit()

ターミナルで次のコマンドを?qū)g行すると、上記のファイル コードを?qū)g行できます。

pip install requests beautifulsoup4 selenium

上記のコードがエラーなく実行されると、ブラウザ インターフェイスが起動し、以下に示すデモ ページの URL が開きます。

Demo Page in Selenium Browser Instance

Selenium は HTML を抽出し、ページ タイトルを出力します。次のような出力が表示されます -

from selenium import webdriver
driver = webdriver.Chrome() # Ensure ChromeDriver is installed and in PATH
driver.get("https://www.scrapingcourse.com/button-click")
print(driver.title)
driver.quit()

これにより、Selenium を使用できることが確認されます。すべての要件がインストールされ、使用できる狀態(tài)になったら、デモ ページのコンテンツへのアクセスを開始できます。

ステップ 2: コンテンツへのアクセスを取得する

最初のステップは、ページの初期コンテンツを取得することです。これにより、ページの HTML のベースライン スナップショットが得られます。これは、接続を確認し、スクレイピング プロセスの有効な開始點を確保するのに役立ちます。

Python の Requests ライブラリを使用して GET リクエストを送信することで、ページ URL の HTML コンテンツを取得します。コードは次のとおりです:

python scraper.py

上記のコードは、最初の 12 個の商品のデータを含む生の HTML を出力します。

この HTML のクイック プレビューにより、リクエストが成功し、有効なデータを操作していることが確認されます。

ステップ 3: さらに製品をロードする

殘りの製品にアクセスするには、利用可能な製品がなくなるまで、ページ上の [さらに読み込む] ボタンをプログラム的にクリックする必要があります。この操作には JavaScript が含まれるため、Selenium を使用してボタンのクリックをシミュレートします。

コードを記述する前に、ページを調(diào)べて以下を見つけてみましょう。

  • 「さらに読み込む」 ボタン セレクター (load-more-btn)。
  • 製品の詳細を保持する div (product-item)。

さらに多くの製品を読み込むことですべての製品を取得し、次のコードを?qū)g行することでより大きなデータセットを取得できます。

Load More Button Challenge to Learn Web Scraping - ScrapingCourse.com

このコードはブラウザを開き、ページに移動し、「さらに読み込む」ボタンと対話します。更新された HTML には、より多くの商品データが含まれており、抽出されます。

このコードを?qū)g行するたびに Selenium でブラウザを開いたくない場合は、ヘッドレス ブラウザ機能も提供されます。ヘッドレス ブラウザには、実際の Web ブラウザのすべての機能が備わっていますが、グラフィカル ユーザー インターフェイス (GUI) はありません。

Selenium で Chrome のヘッドレス モードを有効にするには、次のように ChromeOptions オブジェクトを定義し、それを WebDriver Chrome コンストラクターに渡します。

import requests
# URL of the demo page with products
url = "https://www.scrapingcourse.com/button-click"
# Send a GET request to the URL
response = requests.get(url)
# Check if the request was successful
if response.status_code == 200:
    html_content = response.text
    print(html_content) # Optional: Preview the HTML
else:
    print(f"Failed to retrieve content: {response.status_code}")

上記のコードを?qū)g行すると、Selenium はヘッドレス Chrome インスタンスを起動するため、Chrome ウィンドウは表示されなくなります。これは、サーバー上でスクレイピング スクリプトを?qū)g行するときに GUI でリソースを無駄にしたくない運用環(huán)境に最適です。

これで、完全な HTML コンテンツが取得され、各製品に関する特定の詳細が抽出されます。

ステップ 4: 製品情報を解析する

このステップでは、BeautifulSoup を使用して HTML を解析し、製品要素を識別します。次に、各製品の名前、価格、リンクなどの主要な詳細を抽出します。

pip install requests beautifulsoup4 selenium

出力には、次のように、名前、畫像 URL、価格、製品ページのリンクを含む製品詳細の構(gòu)造化されたリストが表示されます。

from selenium import webdriver
driver = webdriver.Chrome() # Ensure ChromeDriver is installed and in PATH
driver.get("https://www.scrapingcourse.com/button-click")
print(driver.title)
driver.quit()

上記のコードは、生の HTML データを構(gòu)造化された形式に編成して、作業(yè)を容易にし、さらなる処理のために出力データを準備します。

ステップ 5: 製品情報を CSV にエクスポートする

抽出したデータを CSV ファイルに整理できるようになりました。これにより、分析や共有が容易になります。 Python の CSV モジュールはこれに役立ちます。

python scraper.py

上記のコードは、必要なすべての製品詳細を含む新しい CSV ファイルを作成します。

概要の完全なコードは次のとおりです:

Load More Button Challenge to Learn Web Scraping - ScrapingCourse.com

上記のコードは、次のような products.csv を作成します。

import requests
# URL of the demo page with products
url = "https://www.scrapingcourse.com/button-click"
# Send a GET request to the URL
response = requests.get(url)
# Check if the request was successful
if response.status_code == 200:
    html_content = response.text
    print(html_content) # Optional: Preview the HTML
else:
    print(f"Failed to retrieve content: {response.status_code}")

ステップ 6: トップ製品の追加データを取得する

ここで、最も価格の高い製品の上位 5 つを特定し、それらの個別のページから追加データ (製品の説明や SKU コードなど) を抽出するとします。次のコードを使用してこれを行うことができます:

from selenium import webdriver
from selenium.webdriver.common.by import By
import time
# Set up the WebDriver (make sure you have the appropriate driver installed, e.g., ChromeDriver)
driver = webdriver.Chrome()
# Open the page
driver.get("https://www.scrapingcourse.com/button-click")
# Loop to click the "Load More" button until there are no more products
while True:
    try:
        # Find the "Load more" button by its ID and click it
        load_more_button = driver.find_element(By.ID, "load-more-btn")
        load_more_button.click()
        # Wait for the content to load (adjust time as necessary)
        time.sleep(2)
    except Exception as e:
        # If no "Load More" button is found (end of products), break out of the loop
        print("No more products to load.")
        break
# Get the updated page content after all products are loaded
html_content = driver.page_source
# Close the browser window
driver.quit()

概要の完全なコードは次のとおりです:

from selenium import webdriver
from selenium.webdriver.common.by import By

import time

# instantiate a Chrome options object
options = webdriver.ChromeOptions()

# set the options to use Chrome in headless mode
options.add_argument("--headless=new")

# initialize an instance of the Chrome driver (browser) in headless mode
driver = webdriver.Chrome(options=options)

...

このコードは、製品を価格の降順に並べ替えます。次に、価格の最も高い上位 5 つの製品について、スクリプトは製品ページを開き、BeautifulSoup を使用して製品の説明と SKU を抽出します。

上記のコードの出力は次のようになります:

from bs4 import BeautifulSoup
# Parse the page content with BeautifulSoup
soup = BeautifulSoup(html_content, 'html.parser')
# Extract product details
products = []
# Find all product items in the grid
product_items = soup.find_all('div', class_='product-item')
for product in product_items:
    # Extract the product name
    name = product.find('span', class_='product-name').get_text(strip=True)

    # Extract the product price
    price = product.find('span', class_='product-price').get_text(strip=True)

    # Extract the product link
    link = product.find('a')['href']

    # Extract the image URL
    image_url = product.find('img')['src']

    # Create a dictionary with the product details
    products.append({
        'name': name,
        'price': price,
        'link': link,
        'image_url': image_url
})
# Print the extracted product details
for product in products[:2]:
    print(f"Name: {product['name']}")
    print(f"Price: {product['price']}")
    print(f"Link: {product['link']}")
    print(f"Image URL: {product['image_url']}")
    print('-' * 30)

上記のコードは products.csv を更新し、次のような情報が含まれるようになります:

Name: Chaz Kangeroo Hoodie
Price: 
Link: https://scrapingcourse.com/ecommerce/product/chaz-kangeroo-hoodie
Image URL: https://scrapingcourse.com/ecommerce/wp-content/uploads/2024/03/mh01-gray_main.jpg
------------------------------
Name: Teton Pullover Hoodie
Price: 
Link: https://scrapingcourse.com/ecommerce/product/teton-pullover-hoodie
Image URL: https://scrapingcourse.com/ecommerce/wp-content/uploads/2024/03/mh02-black_main.jpg
------------------------------
…

結(jié)論

無限スクロールや「さらに読み込む」ボタンを使用してページをスクレイピングするのは難しいように思えるかもしれませんが、Requests、Selenium、BeautifulSoup などのツールを使用するとプロセスが簡素化されます。

このチュートリアルでは、デモ ページから製品データを取得して処理し、迅速かつ簡単にアクセスできるように構(gòu)造化された形式で保存する方法を説明しました。

すべてのコード スニペットはここでご覧ください。

以上が&#もっと読み込む&# ボタンを使用して無限スクロール ページをスクレイピングする: ステップバイステップ ガイドの詳細內(nèi)容です。詳細については、PHP 中國語 Web サイトの他の関連記事を參照してください。

このウェブサイトの聲明
この記事の內(nèi)容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰屬します。このサイトは、それに相當する法的責任を負いません。盜作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡(luò)ください。

ホットAIツール

Undress AI Tool

Undress AI Tool

脫衣畫像を無料で

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード寫真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

寫真から衣服を削除するオンライン AI ツール。

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中國語版

SublimeText3 中國語版

中國語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統(tǒng)合開発環(huán)境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Pythonクラスの多型 Pythonクラスの多型 Jul 05, 2025 am 02:58 AM

Pythonオブジェクト指向プログラミングのコアコンセプトであるPythonは、「1つのインターフェイス、複數(shù)の実裝」を指し、異なるタイプのオブジェクトの統(tǒng)一処理を可能にします。 1。多型は、メソッドの書き換えを通じて実裝されます。サブクラスは、親クラスの方法を再定義できます。たとえば、Animal ClassのSOCK()方法は、犬と貓のサブクラスに異なる実裝を持っています。 2.多型の実用的な用途には、グラフィカルドローイングプログラムでdraw()メソッドを均一に呼び出すなど、コード構(gòu)造を簡素化し、スケーラビリティを向上させる、ゲーム開発における異なる文字の共通の動作の処理などが含まれます。 3. Pythonの実裝多型を満たす必要があります:親クラスはメソッドを定義し、子クラスはメソッドを上書きしますが、同じ親クラスの継承は必要ありません。オブジェクトが同じ方法を?qū)g裝する限り、これは「アヒル型」と呼ばれます。 4.注意すべきことには、メンテナンスが含まれます

Pythonジェネレーターと反復器を説明します。 Pythonジェネレーターと反復器を説明します。 Jul 05, 2025 am 02:55 AM

イテレータは、__iter __()および__next __()メソッドを?qū)g裝するオブジェクトです。ジェネレーターは、単純化されたバージョンのイテレーターです。これは、収量キーワードを介してこれらのメソッドを自動的に実裝しています。 1. Iteratorは、次の()を呼び出すたびに要素を返し、要素がなくなると停止例外をスローします。 2。ジェネレーターは関數(shù)定義を使用して、オンデマンドでデータを生成し、メモリを保存し、無限シーケンスをサポートします。 3。既存のセットを処理するときに反復器を使用すると、大きなファイルを読み取るときに行ごとにロードするなど、ビッグデータや怠zyな評価を動的に生成するときにジェネレーターを使用します。注:リストなどの反復オブジェクトは反復因子ではありません。イテレーターがその端に達した後、それらは再作成する必要があり、発電機はそれを一度しか通過できません。

PythonでAPI認証を処理する方法 PythonでAPI認証を処理する方法 Jul 13, 2025 am 02:22 AM

API認証を扱うための鍵は、認証方法を正しく理解して使用することです。 1。Apikeyは、通常、リクエストヘッダーまたはURLパラメーターに配置されている最も単純な認証方法です。 2。BasicAuthは、內(nèi)部システムに適したBase64エンコード送信にユーザー名とパスワードを使用します。 3。OAUTH2は、最初にclient_idとclient_secretを介してトークンを取得し、次にリクエストヘッダーにbearertokenを持ち込む必要があります。 4。トークンの有効期限に対処するために、トークン管理クラスをカプセル化し、トークンを自動的に更新できます。要するに、文書に従って適切な方法を選択し、重要な情報を安全に保存することが重要です。

一度に2つのリストを繰り返す方法Python 一度に2つのリストを繰り返す方法Python Jul 09, 2025 am 01:13 AM

Pythonで2つのリストを同時にトラバースする一般的な方法は、Zip()関數(shù)を使用することです。これは、複數(shù)のリストを順番にペアリングし、最短になります。リストの長さが一貫していない場合は、itertools.zip_longest()を使用して最長になり、欠損値を入力できます。 enumerate()と組み合わせて、同時にインデックスを取得できます。 1.Zip()は簡潔で実用的で、ペアのデータ反復に適しています。 2.zip_longest()は、一貫性のない長さを扱うときにデフォルト値を入力できます。 3. Enumerate(Zip())は、トラバーサル中にインデックスを取得し、さまざまな複雑なシナリオのニーズを満たすことができます。

Pythonの主張を説明します。 Pythonの主張を説明します。 Jul 07, 2025 am 12:14 AM

Assertは、Pythonでデバッグに使用されるアサーションツールであり、條件が満たされないときにアサーションエラーを投げます。その構(gòu)文は、アサート條件とオプションのエラー情報であり、パラメーターチェック、ステータス確認などの內(nèi)部ロジック検証に適していますが、セキュリティまたはユーザーの入力チェックには使用できず、明確な迅速な情報と組み合わせて使用??する必要があります。例外処理を置き換えるのではなく、開発段階での補助デバッグにのみ利用できます。

Python Iteratorsとは何ですか? Python Iteratorsとは何ですか? Jul 08, 2025 am 02:56 AM

inpython、iteratoratorSareObjectsthatallopingthroughcollectionsbyimplementing __()and__next __()

Pythonタイプのヒントとは何ですか? Pythonタイプのヒントとは何ですか? Jul 07, 2025 am 02:55 AM

タイプヒントシンパソコンの問題と、ポテンシャルを使用して、dynamivitytedcodedededevelowingdeexpecifeedtypes.theyenhanceReadeadability、inableearlybugdetection、およびrequrovetoolingsusingsupport.typehintsareadddeduneadddedusingolon(:)

Python Fastapiチュートリアル Python Fastapiチュートリアル Jul 12, 2025 am 02:42 AM

Pythonを使用して最新の効率的なAPIを作成するには、Fastapiをお勧めします。標準のPythonタイプのプロンプトに基づいており、優(yōu)れたパフォーマンスでドキュメントを自動的に生成できます。 FastAPIおよびASGIサーバーUVICORNをインストールした後、インターフェイスコードを記述できます。ルートを定義し、処理機能を作成し、データを返すことにより、APIをすばやく構(gòu)築できます。 Fastapiは、さまざまなHTTPメソッドをサポートし、自動的に生成されたSwaggeruiおよびRedocドキュメントシステムを提供します。 URLパラメーターはパス定義を介してキャプチャできますが、クエリパラメーターは、関數(shù)パラメーターのデフォルト値を設(shè)定することで実裝できます。 Pydanticモデルの合理的な使用は、開発の効率と精度を改善するのに役立ちます。

See all articles