V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
Mirachael
V2EX  ›  Python

请教一个 python scrapy xpath 的问题。

  •  
  •   Mirachael · 2015-07-29 13:40:42 +08:00 · 3585 次点击
    这是一个创建于 3403 天前的主题,其中的信息可能已经有所发展或是发生改变。

    我想要抓取http://www.csrc.gov.cn/pub/newsite/xxpl/yxpl/
    上面的数据。
    我用scrapy shell http://www.csrc.gov.cn/pub/newsite/xxpl/yxpl/
    测试的时候,取不到包含'下一页'的a标签。

    进行测试,利用如下规则来选取:
    In [35]: Selector(response).xpath('span[@class="nav_go_next"]/a')
    然后,我发现一个大概的原因,就是nav_go_next标签的父元素里面包含了两个script脚本
    我能通过
    In [35]: Selector(response).xpath('//div[@class="page"]/script')
    来取得script标签,但是通过
    In [35]: Selector(response).xpath('//div[@class="page"]/span')
    就取不到span元素。

    有谁碰到过类似的问题吗?求教!谢谢!

    8 条回复    2015-07-30 18:50:33 +08:00
    imn1
        1
    imn1  
       2015-07-29 13:51:01 +08:00
    scrapy能运行js么?
    这个span是js生成的,直接从html的dom是找不到的
    Mirachael
        2
    Mirachael  
    OP
       2015-07-29 14:09:51 +08:00
    @imn1 原来是这样,多谢!
    knightdf
        3
    knightdf  
       2015-07-29 14:26:50 +08:00
    用phantomjs+ selenium来抓吧
    lakewalker
        4
    lakewalker  
       2015-07-29 15:58:33 +08:00
    页码都是page.js生成的。

    有个办法,你可以先从response中把var countPage = 25这一句话用正则给匹配出来,取25这个数字,然后下一页你就直接去拼url,都是有规律的
    第二页: http://www.csrc.gov.cn/pub/newsite/xxpl/yxpl/index_1.html
    第三页: http://www.csrc.gov.cn/pub/newsite/xxpl/yxpl/index_2.html
    ...

    以最大page count,搞个循环然后直接用拼出来的url进行yield_request操作,就可以不用phantomjs来抓了,phantom比较慢,不过对于只有25页来,还好。
    ammzen
        5
    ammzen  
       2015-07-29 18:26:29 +08:00
    握爪,最近我也在爬这些东西
    不知道你是用来做什么呢😁
    Mirachael
        6
    Mirachael  
    OP
       2015-07-30 18:42:43 +08:00
    @lakewalker 嗯,谢谢。我大概就是按照你的思路来做的,因为我发现25是个固定值,我直接循环加到start_urls里了。
    Mirachael
        7
    Mirachael  
    OP
       2015-07-30 18:43:27 +08:00
    @ammzen 我就是用python的scrapy爬虫框架来做的,比较快。
    Mirachael
        8
    Mirachael  
    OP
       2015-07-30 18:50:33 +08:00
    @knightdf 叼!长见识了!
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1547 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 17:02 · PVG 01:02 · LAX 09:02 · JFK 12:02
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.