PHPSPIDER ist ein leichtes und praktisches PHP -Crawler -Framework, das Informationen im Netzwerk schnell erfasst und es einer lokalen Datenbank speichert, indem sie einfache Regeln schreiben. Geeignet für Entwickler, die Daten für bestimmte Formate abzielen müssen, kann den Entwicklungsprozess von Crawlern erheblich vereinfachen.
Bevor Sie PHPSPIDER verwenden, müssen Sie zuerst das Framework installieren. PHPSPIDER verwendet Komponist, um Abhängigkeiten zu verwalten. Stellen Sie daher sicher, dass der Komponist in Ihrer Umgebung installiert ist.
composer create-project phpspider/phpspider
Nach Abschluss der Installation können Sie bestätigen, ob die Framework -Installation erfolgreich ist, indem Sie das Testskript ausführen:
cd phpspider
php tests/simple_test.php
PHPSPIDER unterstützt das unbegrenzte Kriechen von Webseitendaten. Im Folgenden zeigt, wie Daten von einer einfachen Website kriechen.
Zuerst müssen Sie ein neues Projekt erstellen. Führen Sie den folgenden Befehl aus. PHPSPIDER generiert automatisch den entsprechenden Projektordner:
php phpspider startproject myproject
Nachdem das Projekt erstellt wurde, müssen Sie die Kriechungsregeln definieren und PhpSpider mitteilen, wie die Daten der Zielwebsite extrahiert werden sollen. Geben Sie das Verzeichnis myProject/Rules ein und erstellen Sie eine neue Regel.php . Der Beispielinhalt ist wie folgt:
return [
'start_urls' => [
'http://www.example.com'
],
'rules' => [
[
'type' => 'regex',
'pattern' => '/(<a.*?>(.*?)<\/a><\/div>)/',
'id' => 1,
'fields' => [
[
'name' => 'title',
'selector' => 'text()',
],
[
'name' => 'link',
'selector' => '@href',
]
],
]
],
];
?>
Nach dem Konfigurieren der Regeln können Sie PHPSPIDER für das Datenkriechen ausführen:
php phpspider run myproject
In diesem Artikel glaube ich, dass Sie die grundlegenden Nutzungsmethoden von PHPSPIDER von der Installation über die Projekterstellung bis hin zum Schreiben und Laufen von Regeln gemeistert haben. Es gibt klare Betriebsschritte. Als einfaches und effizientes PHP -Crawler -Framework ist PhpSpider sehr geeignet, um zielgerichtete Crawler -Projekte schnell zu erstellen und Ihnen dabei zu helfen, die benötigten Netzwerkdaten problemlos zu erhalten.