2021-11-09 16:05

今天分享的项目主要功能是通过微博“搜索”页面,每天可以自动爬取所有列表中关键词的微博原数据。低速可控,简单粗暴,适合用来有针对性的搜集数据量不是很大的包含关键词的微博,每日可爬几万条。

新浪微博的各个客户端都有提供“搜索”功能,可以搜索出包含关键词的微博,一般默认按照从新到老的发布顺序显示。比如,今天我们就以EDA为关键词进行搜索,页面显示如下

那我们写一个爬虫程序自动的去获取关于“EDA”的相关微博,但是微博一直都是比较难访问的,虽然几万条数据不是很多,但是也存在封爬虫封ip的可能,所以爬虫程序是加了代理的,今天就以亿牛云爬虫代理标准版为例进行微博关键词数据的抓取,爬虫demo如下:

 #! -*- encoding:utf-8 -*-
        import base64            
        import sys
        import random

        PY3 = sys.version_info[0] >= 3

        def base64ify(bytes_or_str):
            if PY3 and isinstance(bytes_or_str, str):
                input_bytes = bytes_or_str.encode('utf8')
            else:
                input_bytes = bytes_or_str

            output_bytes = base64.urlsafe_b64encode(input_bytes)
            if PY3:
                return output_bytes.decode('ascii')
            else:
                return output_bytes

        class ProxyMiddleware(object):                
            def process_request(self, request, spider):
                # 代理服务器(产品官网 www.16yun.cn)
                proxyHost = "t.16yun.cn"
                proxyPort = "31111"

                # 代理验证信息
                proxyUser = "16NJXTEX"
                proxyPass = "966193"

                request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)

                # 添加验证头
                encoded_user_pass = base64ify(proxyUser + ":" + proxyPass)
                request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass                    

                # 设置IP切换头(根据需求)
                tunnel = random.randint(1,10000)
                request.headers['Proxy-Tunnel'] = str(tunnel)

以上是关于动态转发的使用方式,比较简单,对于很多新手小白爬虫来说是个不错的选择,有这方面需求学习的可以试试。


评论