代理ip网站源码-Python爬虫实现搭建代理ip池

前言

在使用爬虫的时候,很多网站都有一定的反爬虫措施。 即使在爬取大量数据或者经常多次访问网站时,也可能会面临IP封禁的情况,所以这个时候我们一般可以找到一些代理ip来继续爬虫测试。

首先简单介绍一下爬取免费代理ip来构建自己的代理ip池:这次爬取免费ip代理的URL:

提示:以下为本文正文内容,以下案例供参考

1. 用户代理

代理ip网站源码-Python爬虫实现搭建代理ip池

发送请求代理ip网站源码,通常会进行简单的反爬操作。 这时,你可以使用fake_useragent模块来设置一个请求头,并用它来冒充浏览器。 有以下两种方法。

from fake_useragent import UserAgent
headers = {
        # 'User-Agent': UserAgent().random #常见浏览器的请求头伪装(如:火狐,谷歌)
        'User-Agent': UserAgent().Chrome #谷歌浏览器
    }

代理ip网站源码-Python爬虫实现搭建代理ip池

2. 发送请求

response = requests.get(url='http://www.ip3366.net/free/', headers=request_header())
        # text = response.text.encode('ISO-8859-1')
        # print(text.decode('gbk'))

3. 分析数据

代理ip网站源码-Python爬虫实现搭建代理ip池

我们只需要解析出ip和端口即可。

使用xpath分析(我很喜欢用)(其实分析方法有很多代理ip网站源码,比如:正则、css选择器、BeautifulSoup等)。

	#使用xpath解析,提取出数据ip,端口
        html = etree.HTML(response.text)
        tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr')
        for td in tr_list:
            ip_ = td.xpath('./td[1]/text()')[0] #ip
            port_ = td.xpath('./td[2]/text()')[0]  #端口
            proxy = ip_ + ':' + port_   #115.218.5.5:9000

4、搭建ip代理池,衡量ip是否可用

#构建代理ip
	proxy = ip + ':' + port
	proxies = {
        "http": "http://" + proxy,
        "https": "http://" + proxy,
        # "http": proxy,
        # "https": proxy,
    }
    try:
        response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #设置timeout,使响应等待1s
        response.close()
        if response.status_code == 200:
            print(proxy, '33[31m可用33[0m')
        else:
            print(proxy, '不可用')
    except:
        print(proxy,'请求异常')

五、完整代码

import requests                         #导入模块
from lxml import etree
from fake_useragent import UserAgent
#简单的反爬,设置一个请求头来伪装成浏览器
def request_header():
    headers = {
        # 'User-Agent': UserAgent().random #常见浏览器的请求头伪装(如:火狐,谷歌)
        'User-Agent': UserAgent().Chrome #谷歌浏览器
    }
    return headers
'''
创建两个列表用来存放代理ip
'''
all_ip_list = []  #用于存放从网站上抓取到的ip
usable_ip_list = [] #用于存放通过检测ip后是否可以使用
#发送请求,获得响应
def send_request():
    #爬取7页,可自行修改
    for i in range(1,8): 
        print(f'正在抓取第{i}页……')
        response = requests.get(url=f'http://www.ip3366.net/free/?page={i}', headers=request_header())
        text = response.text.encode('ISO-8859-1')
        # print(text.decode('gbk'))
        #使用xpath解析,提取出数据ip,端口
        html = etree.HTML(text)
        tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr')
        for td in tr_list:
            ip_ = td.xpath('./td[1]/text()')[0] #ip
            port_ = td.xpath('./td[2]/text()')[0]  #端口
            proxy = ip_ + ':' + port_   #115.218.5.5:9000
            all_ip_list.append(proxy)
            test_ip(proxy)      #开始检测获取到的ip是否可以使用
    print('抓取完成!')
    print(f'抓取到的ip个数为:{len(all_ip_list)}')
    print(f'可以使用的ip个数为:{len(usable_ip_list)}')
    print('分别有:n', usable_ip_list)
#检测ip是否可以使用
def test_ip(proxy):
    #构建代理ip
    proxies = {
        "http": "http://" + proxy,
        "https": "http://" + proxy,
        # "http": proxy,
        # "https": proxy,
    }
    try:
        response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #设置timeout,使响应等待1s
        response.close()
        if response.status_code == 200:
            usable_ip_list.append(proxy)
            print(proxy, '33[31m可用33[0m')
        else:
            print(proxy, '不可用')
    except:
        print(proxy,'请求异常')
if __name__ == '__main__':
    send_request()

总结

关于Python爬虫搭建代理ip池的这篇文章到此结束。 关于Python代理ip池的更多信息,请搜索scripthome之前的文章或者继续浏览下面的相关文章。 希望大家以后多多支持剧本。 家!

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

悟空资源网 网站源码 代理ip网站源码-Python爬虫实现搭建代理ip池 https://www.wkzy.net/game/153455.html

常见问题

相关文章

官方客服团队

为您解决烦忧 - 24小时在线 专业服务