मैं एक CLI वेब स्पाइडर कैसे बनाऊं जो कीवर्ड और फिल्टर सामग्री का उपयोग करता है?


10

मैं अपने लेखों को वंचित (अप्रचलित) साहित्य मंच e-bane.net के भीतर खोजना चाहता हूं । मंच के कुछ मॉड्यूल अक्षम हैं, और मुझे उनके लेखक द्वारा लेखों की सूची नहीं मिल सकती है। इसके अलावा साइट को Google, Yndex, आदि के रूप में खोज इंजन द्वारा अनुक्रमित नहीं किया जाता है।

मेरे सभी लेखों को खोजने का एकमात्र तरीका साइट का संग्रह पृष्ठ खोलना है (अंजीर। 1)। फिर मुझे कुछ वर्ष और महीने का चयन करना होगा - जैसे जनवरी 2013 (अंजीर। 1)। और फिर मुझे प्रत्येक लेख (अंजीर 2) का निरीक्षण करना चाहिए कि क्या शुरुआत में मेरा उपनाम लिखा है - pa4080 (अंजीर ।3)। लेकिन कुछ हजार लेख हैं।

यहाँ छवि विवरण दर्ज करें

यहाँ छवि विवरण दर्ज करें

यहाँ छवि विवरण दर्ज करें

मैंने कुछ विषयों को अनुसरण के रूप में पढ़ा है, लेकिन कोई भी समाधान मेरी आवश्यकताओं के अनुरूप नहीं है:

मैं अपना खुद का समाधान पोस्ट करूंगा । लेकिन मेरे लिए यह दिलचस्प है: क्या इस कार्य को हल करने का कोई और सुरुचिपूर्ण तरीका है?

जवाबों:


3

script.py:

#!/usr/bin/python3
from urllib.parse import urljoin
import json

import bs4
import click
import aiohttp
import asyncio
import async_timeout


BASE_URL = 'http://e-bane.net'


async def fetch(session, url):
    try:
        with async_timeout.timeout(20):
            async with session.get(url) as response:
                return await response.text()
    except asyncio.TimeoutError as e:
        print('[{}]{}'.format('timeout error', url))
        with async_timeout.timeout(20):
            async with session.get(url) as response:
                return await response.text()


async def get_result(user):
    target_url = 'http://e-bane.net/modules.php?name=Stories_Archive'
    res = []
    async with aiohttp.ClientSession() as session:
        html = await fetch(session, target_url)
        html_soup = bs4.BeautifulSoup(html, 'html.parser')
        date_module_links = parse_date_module_links(html_soup)
        for dm_link in date_module_links:
            html = await fetch(session, dm_link)
            html_soup = bs4.BeautifulSoup(html, 'html.parser')
            thread_links = parse_thread_links(html_soup)
            print('[{}]{}'.format(len(thread_links), dm_link))
            for t_link in thread_links:
                thread_html = await fetch(session, t_link)
                t_html_soup = bs4.BeautifulSoup(thread_html, 'html.parser')
                if is_article_match(t_html_soup, user):
                    print('[v]{}'.format(t_link))
                    # to get main article, uncomment below code
                    # res.append(get_main_article(t_html_soup))
                    # code below is used to get thread link
                    res.append(t_link)
                else:
                    print('[x]{}'.format(t_link))

        return res


def parse_date_module_links(page):
    a_tags = page.select('ul li a')
    hrefs = a_tags = [x.get('href') for x in a_tags]
    return [urljoin(BASE_URL, x) for x in hrefs]


def parse_thread_links(page):
    a_tags = page.select('table table  tr  td > a')
    hrefs = a_tags = [x.get('href') for x in a_tags]
    # filter href with 'file=article'
    valid_hrefs = [x for x in hrefs if 'file=article' in x]
    return [urljoin(BASE_URL, x) for x in valid_hrefs]


def is_article_match(page, user):
    main_article = get_main_article(page)
    return main_article.text.startswith(user)


def get_main_article(page):
    td_tags = page.select('table table td.row1')
    td_tag = td_tags[4]
    return td_tag


@click.command()
@click.argument('user')
@click.option('--output-filename', default='out.json', help='Output filename.')
def main(user, output_filename):
    loop = asyncio.get_event_loop()
    res = loop.run_until_complete(get_result(user))
    # if you want to return main article, convert html soup into text
    # text_res = [x.text for x in res]
    # else just put res on text_res
    text_res = res
    with open(output_filename, 'w') as f:
        json.dump(text_res, f)


if __name__ == '__main__':
    main()

requirement.txt:

aiohttp>=2.3.7
beautifulsoup4>=4.6.0
click>=6.7

यहाँ स्क्रिप्ट का python3 संस्करण है (Ubuntu 17.10 पर python3.5 पर परीक्षण किया गया )।

कैसे इस्तेमाल करे:

  • इसका उपयोग करने के लिए दोनों कोड को फाइलों में डाला। उदाहरण के लिए कोड फ़ाइल है script.pyऔर पैकेज फ़ाइल है requirement.txt
  • भागो pip install -r requirement.txt
  • उदाहरण के रूप में स्क्रिप्ट चलाएँ python3 script.py pa4080

यह कई पुस्तकालय का उपयोग करता है:

कार्यक्रम को और विकसित करने के लिए आवश्यक बातें (आवश्यक पैकेज के डॉक्टर के अलावा):

  • अजगर पुस्तकालय: एसिंसीओ, जोसन और urllib.parse
  • css चयनकर्ता ( mdn वेब डॉक्स ), कुछ html भी। यह भी देखें कि इस लेख जैसे अपने ब्राउज़र पर सीएसएस चयनकर्ता का उपयोग कैसे करें

यह काम किस प्रकार करता है:

  • सबसे पहले मैं एक simple html downloader बनाता हूँ। यह aiohttp doc पर दिए गए नमूने से संशोधित संस्करण है।
  • उसके बाद सरल कमांड लाइन पार्सर बना रहा है जो उपयोगकर्ता नाम और आउटपुट फ़ाइल नाम स्वीकार करता है।
  • थ्रेड लिंक और मुख्य लेख के लिए एक पार्सर बनाएं। पीडीबी और सरल यूआरएल हेरफेर का उपयोग करके काम करना चाहिए।
  • फ़ंक्शन को मिलाएं और मुख्य लेख को json पर रखें, इसलिए अन्य प्रोग्राम इसे बाद में संसाधित कर सकते हैं।

कुछ विचार तो इसे और विकसित किया जा सकता है

  • दिनांक मॉड्यूल लिंक को स्वीकार करने वाला एक और उपकमांड बनाएं: यह तिथि मॉड्यूल को अपने स्वयं के फ़ंक्शन के लिए पार्स करने की विधि को अलग करके और इसे नए उपकमांड के साथ जोड़कर किया जा सकता है।
  • दिनांक मॉड्यूल लिंक को कैशिंग करें: थ्रेड लिंक प्राप्त करने के बाद कैश जॅसन फाइल बनाएं। इसलिए प्रोग्राम को लिंक को फिर से पार्स करने की आवश्यकता नहीं है। या यहां तक ​​कि अगर यह मेल नहीं खाता है तो भी पूरे मुख्य लेख को कैश करें

यह सबसे सुरुचिपूर्ण उत्तर नहीं है, लेकिन मुझे लगता है कि यह बैश उत्तर का उपयोग करने से बेहतर है।

  • यह पायथन का उपयोग करता है, जिसका अर्थ है कि यह क्रॉस प्लेटफॉर्म का उपयोग किया जा सकता है।
  • सरल स्थापना, सभी आवश्यक पैकेज को पाइप का उपयोग करके स्थापित किया जा सकता है
  • इसे और विकसित किया जा सकता है, अधिक पठनीय कार्यक्रम, आसान इसे विकसित किया जा सकता है।
  • यह केवल 13 मिनट के लिए बैश स्क्रिप्ट के समान काम करता है ।

ठीक है, मैं कुछ मॉड्यूल स्थापित करने में कामयाब रहा हूं: sudo apt install python3-bs4 python3-click python3-aiohttp python3-asyncलेकिन मुझे नहीं मिल रहा है - किस पैकेज से async_timeoutआता है?
पा ०४०80०

@ pa4080 मैं पाइप के साथ स्थापित करता हूं इसलिए इसे aiohttp के साथ शामिल किया जाना चाहिए। पहले 2 फ़ंक्शन के कुछ हिस्सों को यहाँ से संशोधित किया गया है aiohttp.readthedocs.io/en/stable । इसके अलावा मैं आवश्यक पैकेज को स्थापित करने के लिए निर्देश
dan

मैंने सफलतापूर्वक पाइप का उपयोग करके मॉड्यूल को स्थापित किया। लेकिन कुछ अन्य त्रुटि दिखाई देती है: paste.ubuntu.com/26311694 । कृपया मुझे पिंग करें जब आप ऐसा करते हैं :)
pa4080

@ pa4080, मैं आपकी त्रुटि को दोहरा नहीं सकता, इसलिए मैं लाने के कार्य को सरल करता हूं। साइड इफ़ेक्ट यह है कि यदि प्रोग्राम दूसरा रिट्री काम नहीं कर रहा है तो त्रुटि फेंक सकता है
dan

1
मुख्य विपक्ष यह है कि मैं केवल उबंटू 17.10 पर स्क्रिप्ट को सफलतापूर्वक चलाने में कामयाब रहा। हालांकि यह मेरी बैश स्क्रिप्ट से 5 गुना तेज है, इसलिए मैंने इस जवाब को स्वीकार करने का फैसला किया।
पा

10

इस कार्य को हल करने के लिए मैंने अगली सरल बैश स्क्रिप्ट बनाई है जो मुख्य रूप से सीएलआई टूल का उपयोग करती है wget

#!/bin/bash

TARGET_URL='http://e-bane.net/modules.php?name=Stories_Archive'
KEY_WORDS=('pa4080' 's0ther')
MAP_FILE='url.map'
OUT_FILE='url.list'

get_url_map() {
    # Use 'wget' as spider and output the result into a file (and stdout) 
    wget --spider --force-html -r -l2 "${TARGET_URL}" 2>&1 | grep '^--' | awk '{ print $3 }' | tee -a "$MAP_FILE"
}

filter_url_map() {
    # Apply some filters to the $MAP_FILE and keep only the URLs, that contain 'article&sid'
    uniq "$MAP_FILE" | grep -v '\.\(css\|js\|png\|gif\|jpg\|txt\)$' | grep 'article&sid' | sort -u > "${MAP_FILE}.uniq"
    mv "${MAP_FILE}.uniq" "$MAP_FILE"
    printf '\n# -----\nThe number of the pages to be scanned: %s\n' "$(cat "$MAP_FILE" | wc -l)"
}

get_key_urls() {
    counter=1
    # Do this for each line in the $MAP_FILE
    while IFS= read -r URL; do
        # For each $KEY_WORD in $KEY_WORDS
        for KEY_WORD in "${KEY_WORDS[@]}"; do
            # Check if the $KEY_WORD exists within the content of the page, if it is true echo the particular $URL into the $OUT_FILE
            if [[ ! -z "$(wget -qO- "${URL}" | grep -io "${KEY_WORD}" | head -n1)" ]]; then
                echo "${URL}" | tee -a "$OUT_FILE"
                printf '%s\t%s\n' "${KEY_WORD}" "YES"
            fi
        done
        printf 'Progress: %s\r' "$counter"; ((counter++))
    done < "$MAP_FILE"
}

# Call the functions
get_url_map
filter_url_map
get_key_urls

स्क्रिप्ट के तीन कार्य हैं:

  • पहला फ़ंक्शन के रूप में get_url_map()उपयोग wgetकरता है --spider(जिसका अर्थ है कि यह सिर्फ यह जांच करेगा कि पृष्ठ वहां हैं) और गहराई के स्तर के साथ पुनरावर्ती -rURL बनाएंगे । (एक अन्य उदाहरण यहां पाया जा सकता है: पीडीएफ में वेबसाइट कन्वर्ट करें )। वर्तमान मामले में लगभग 20 000 URL शामिल हैं।$MAP_FILE$TARGET_URL-l2$MAP_FILE

  • दूसरा फ़ंक्शन filter_url_map()की सामग्री को सरल करेगा $MAP_FILE। इस स्थिति में हमें केवल उन पंक्तियों (URL) की आवश्यकता होती है जिनमें तार होते article&sidहैं और वे लगभग 3000 होते हैं। अधिक विचार यहां पाए जा सकते हैं: किसी पाठ फ़ाइल की पंक्तियों से विशेष शब्दों को कैसे निकालें?

  • तीसरे समारोह get_key_urls()का उपयोग करेगा wget -qO-(कमांड के रूप में curl- उदाहरण उत्पादन के लिए से प्रत्येक यूआरएल की सामग्री) $MAP_FILEऔर के किसी भी तलाश करेगा $KEY_WORDSयह के भीतर। यदि किसी $KEY_WORDSविशेष URL की सामग्री के भीतर कोई भी स्थापित है, तो वह URL सहेजा जाएगा $OUT_FILE

काम करने की प्रक्रिया के दौरान स्क्रिप्ट का आउटपुट दिखता है जैसा कि अगली छवि पर दिखाया गया है। समाप्त होने में लगभग 63 मिनट लगते हैं यदि दो खोजशब्द और 42 मिनट होते हैं जब केवल एक खोजशब्द खोजा जाता है।

यहाँ छवि विवरण दर्ज करें


1

मैंने @karel द्वारा प्रदान किए गए इस उत्तर के आधार पर अपनी स्क्रिप्ट को फिर से बनाया । अब स्क्रिप्ट इसके बजाय उपयोग करता है । परिणाम में यह काफी तेज हो जाता है।lynxwget

वर्तमान संस्करण 15 मिनट के लिए एक ही काम करता है जब दो खोजे गए कीवर्ड और केवल 8 मिनट होते हैं यदि हम केवल एक कीवर्ड की खोज करते हैं। यह @dan द्वारा प्रदान किए गए पायथन समाधान से तेज है ।

इसके अलावा lynxगैर लैटिन पात्रों की बेहतर हैंडलिंग प्रदान करता है।

#!/bin/bash

TARGET_URL='http://e-bane.net/modules.php?name=Stories_Archive'
KEY_WORDS=('pa4080')  # KEY_WORDS=('word' 'some short sentence')
MAP_FILE='url.map'
OUT_FILE='url.list'

get_url_map() {
    # Use 'lynx' as spider and output the result into a file 
    lynx -dump "${TARGET_URL}" | awk '/http/{print $2}' | uniq -u > "$MAP_FILE"
    while IFS= read -r target_url; do lynx -dump "${target_url}" | awk '/http/{print $2}' | uniq -u >> "${MAP_FILE}.full"; done < "$MAP_FILE"
    mv "${MAP_FILE}.full" "$MAP_FILE"
}

filter_url_map() {
    # Apply some filters to the $MAP_FILE and keep only the URLs, that contain 'article&sid'
    uniq "$MAP_FILE" | grep -v '\.\(css\|js\|png\|gif\|jpg\|txt\)$' | grep 'article&sid' | sort -u > "${MAP_FILE}.uniq"
    mv "${MAP_FILE}.uniq" "$MAP_FILE"
    printf '\n# -----\nThe number of the pages to be scanned: %s\n' "$(cat "$MAP_FILE" | wc -l)"
}

get_key_urls() {
    counter=1
    # Do this for each line in the $MAP_FILE
    while IFS= read -r URL; do
        # For each $KEY_WORD in $KEY_WORDS
        for KEY_WORD in "${KEY_WORDS[@]}"; do
            # Check if the $KEY_WORD exists within the content of the page, if it is true echo the particular $URL into the $OUT_FILE
            if [[ ! -z "$(lynx -dump -nolist "${URL}" | grep -io "${KEY_WORD}" | head -n1)" ]]; then
                echo "${URL}" | tee -a "$OUT_FILE"
                printf '%s\t%s\n' "${KEY_WORD}" "YES"
            fi
        done
        printf 'Progress: %s\r' "$counter"; ((counter++))
    done < "$MAP_FILE"
}

# Call the functions
get_url_map
filter_url_map
get_key_urls
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.