猥琐方法获取防爬虫网页源码

2016-08-15 15:15:09 33 2183
0x00 引言
最近在整理一些搜索引擎的python脚本时,发现现在有很多引擎都不能直接通过urllib或者requests库来获取了,因为有很多网页采取了动态js以及防爬虫的措施,比如bing、zoomeye,虽然他们都提供了api来给你用,但还是有些不爽,比如bing限制了一个月5000条,zoomeye是只显示100条。那么这样就能拦住我们这些脚本小子了?那我们和普通网民有什么区别,不行,总得想想办法。

0x01 思路
楼主还是想过一些高大上的方法的,比如selenium加phantomjs,楼主试了,他能对付必应,但还是被zoomeye拦截了。于是楼主换成了selenium加chrome,发现还是不行,我凑。后来发现selenium这些包均是利用了chrome remote debugging protocol协议和浏览器通讯,于是尝试直接使用这个协议来操作浏览器,有兴趣的可以网上搜索相关关键词。大概原理是这样的:
1.开启chrome debug模式 .\chrome --remote-debugging-port=9222
2.使用chrome remote debugging protocol里提供的方法来和浏览器通讯
3.通讯协议使用websocket
经过以上尝试,楼主只研究到了打开一个网址的地方,后续会继续琢磨一下,搞好了再来分享,这里先分享一个猥琐的方法:
我们都知道,手工获取源码是非常简单的,crtl+s就完事了。。。不管你什么措施,除非你不想让浏览器打开,就算你以后防止浏览器打开源码,我们还有devtools,你也想防吗?那么好的,我们来模拟键盘完成这个程序,其实这个用vbs实现很简单,不过楼主python习惯了,还是用这个吧。

0x03 实现
模拟步骤:
1.打开chrome
2.打开网址
3.ctrl + s
4.输入保存文件名
5.确认保存
中间加入一些缓冲时间。
代码如下:
import win32com.client
import webbrowser
import time

def get_source(search_key):
        search_words = search_key
        file_list = []
        shell = win32com.client.Dispatch("WScript.Shell")
        shell.run("chrome.exe",1)
        time.sleep(5)
        shell.AppActivate("chrome.exe")
        for x in range(1,3):
                url = 'https://www.zoomeye.org/search?q=%s&t=host&p=%s' % (search_words,x)
                filename = "mytest_%s.html" % x
                webbrowser.open(url)
                time.sleep(5)
                shell.SendKeys("^s")
                time.sleep(1)
                shell.SendKeys(filename)
                time.sleep(0.5)
                shell.SendKeys("~")
                time.sleep(0.5)
                shell.SendKeys("~")
                time.sleep(2)
                file_list.append(filename)
        return file_list

if __name__ == '__main__':
        get_source('ftp idc')
(这里因为楼主电脑使用了搜狗输入法,所以需要发送两个enter键,一个是确认输入,一个是确认保存,如果你的输入法不需要确认输入,就删掉一个。然后chrome设置为默认浏览器,并将chrome.exe路径加入path)
使用前,可以手动保存选择一下想保存的路径,虽然也可以使用python实现。这样我们就获取了源码,后面使用soup或者re来获取url就不愁找不到想要的信息了。楼主电脑很破,上面打开chrome以及其他缓冲时间都设置的有些许长,可以根据主机性能设置。
运行这个脚本需要Python for Windows Extensions,你可以在这里找到:
https://sourceforge.net/projects ... ywin32/Build%20220/
装了之后,你就可以用python写一些类似vbs的脚本了。

0x04 小结
以上分享了一个模拟键盘的方法,来获取网页源码源码。演示代码,比较丑陋。优点:轻松绕过所有防爬,实现原理简单,不需要注册api,也不需要登录。缺点:程序运行时,不能乱动键盘和鼠标,实现技术太不hacker了。但这种简单的方法其实是可以用到很多地方的,发挥你的想象力。好了,可以交作业了,见笑。

关于作者

评论33次

要评论?请先  登录  或  注册
  • 33楼
    2017-2-28 16:02

    厉害了,过来学习了

  • 32楼
    2017-2-13 09:38

    爬出来源码,可以辅助渗透测试,算是信息收集的必要吧!

  • 31楼
    2016-8-19 16:03

    已经很不错了,楼主的方法,简单粗暴直接,我喜欢

  • 30楼
    2016-8-18 23:26

    效率问题是主要问题,如果只有几百个还好,几千个就太慢了

  • 29楼
    2016-8-18 19:33

    这个。。。。既然不要求速度,你用python或php去抓的时候sleep下不也可以吗

  • 28楼
    2016-8-18 15:35

    思路不错 更高级一点可以用splinter 直接spwan浏览器 基本无视所有防爬虫

  • 27楼
    2016-8-18 15:16

    貌似效率不高啊!

  • 26楼
    2016-8-18 10:06

    学习了

  • 25楼
    2016-8-18 09:30

    感觉瓶颈还是速度和流量限制,要是能应付google并且速度还不错,那就更好了

  • 24楼
    2016-8-18 00:31

    .....还以为是什么奇技淫巧。几年前博客园就看到过类似的了。也对 土司码农少,这方面的技术文章很少的。谢谢楼主分享

  • 23楼
    2016-8-17 23:32

    这个思路确实比较好,以前虽然想过,但是没想到python和浏览器通讯这么方便

  • 22楼
    2016-8-17 16:54
    kinsey

    这样很慢的吧。我用的selenium+Firefox,貌似可以。直接用selenium模拟点击等操作。

    1

    这个好

  • 21楼
    2016-8-17 12:24

    嗯 如果是对付普通网站 效率确实会不好 不过 如果是作为搜索引擎的源码采集 则不会是一个问题上面有些同学也提到了搜索引擎是会限制访问频率的 你想快都快不了 比如谷歌 同一个IP基本上需要平均缓冲2分钟左右才能进行大批量采集 不然就容易出现验证码如果觉得占用资源太多 又不需要js文件的话 那么就不要直接模拟ctrl+s 可以 ctrl+u-->ctrl+a-->ctrl+s-->ctrl+w这样只会保持源码内容。另外这两天继续研究了一下谷歌远程调试协议 找到了获取源码的协议方法 同样是不惧任何防爬 等同于devtools 那个效果就高级多了 以后另外分享一下这个帖子也就是开拓一下思路 没什么讨论的价值 谢谢大家 管理可以结贴了

  • 20楼
    2016-8-17 10:18

    嗯 也是担心效率...

  • 19楼
    2016-8-16 11:52

    selenium效率太低本身不适合做爬虫.针对单一网址进行采集,最好的方案就是分析前端的验证机制.或许你可以尝试下pyV8.

  • 18楼
    2016-8-16 10:06

    猥琐模仿按键精灵,思路不错。

  • 17楼
    2016-8-16 10:03

    如果量级小的花 这个方法可以 但量级大的话 会比较慢

  • 16楼
    2016-8-16 09:27

    还是有点问题的,就是google类似搜索引擎会限制每小时的查询总量。一般用户感觉不大,但是对于爬虫来说,频繁的被封IP就很难受了

  • 15楼
    2016-8-16 09:20

    直接模拟点击,目前来看是个猥琐的网爬虫方法,以后得从根上下手。

  • 14楼
    2016-8-16 09:11

    这样很慢的吧。我用的selenium+Firefox,貌似可以。直接用selenium模拟点击等操作。