मैं scrapy documentation में स्केपर ट्यूटोरियल कर रहा हूं। यह मेरा वर्तमान निर्देशिका लगता है कि है:स्केपर मकड़ी नहीं मिल सकता
.
├── scrapy.cfg
└── tutorial
├── __init__.py
├── __init__.pyc
├── items.py
├── pipelines.py
├── settings.py
├── settings.pyc
└── spiders
├── __init__.py
├── __init__.pyc
└── dmoz_spider
dmoz_spider.py scrapy ट्यूटोरियल पेज में वर्णित के रूप में ही है।
import scrapy
class DmozSpider(scrapy.Spider):
name = "dmoz"
allowed_domains = ["dmoz.org"]
start_urls = [
"http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
"http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
]
def parse(self, response):
filename = response.url.split("/")[-2] + '.html'
with open(filename, 'wb') as f:
f.write(response.body)
तब मैं वर्तमान निर्देशिका
scrapy crawl dmoz
से इस आदेश चला लेकिन मैं त्रुटि संदेश मिलता है:
2015-12-17 12:23:22 [scrapy] INFO: Scrapy 1.0.3 started (bot: tutorial)
2015-12-17 12:23:22 [scrapy] INFO: Optional features available: ssl, http11
2015-12-17 12:23:22 [scrapy] INFO: Overridden settings: {'NEWSPIDER_MODULE': 'tutorial.spiders', 'SPIDER_MODULES': ['tutorial.spiders'], 'BOT_NAME': 'tutorial'}
...
raise KeyError("Spider not found: {}".format(spider_name))
KeyError: 'Spider not found: dmoz'
वहाँ है किसी भी सुझाव हिस्सा जो मैं गलत क्या किया? मैंने स्टैक ओवरफ़्लो में similar question चेक किया है और वहां समाधान का पालन किया है। लेकिन मुझे अभी भी त्रुटि मिलती है।
क्या आप 'स्केपर सूची' के लिए आउटपुट साझा कर सकते हैं, और यह भी कि आप किस फ़ोल्डर से – eLRuLL
चला रहे हैं, मैं निर्देशिका से कमांड चलाता हूं जिसमें scrapy.cfg है। मैंने स्केपर सूची चलाने की कोशिश की, यह कुछ भी नहीं दिखाता है। – endeavour90