本項目其實就是個簡單的代理服務器,經過我小小的修改。加了個代理池進來。滲透、爬蟲的時候很容易就會把自己ip給ban了,所以就需要ip代理池了。

ProxyPool 爬蟲代理IP池

______                        ______             _
| ___ \_                      | ___ \           | |
| |_/ / \__ __   __  _ __   _ | |_/ /___   ___  | |
|  __/|  _// _ \ \ \/ /| | | ||  __// _ \ / _ \ | |
| |   | | | (_) | >  < \ |_| || |  | (_) | (_) || |___
\_|   |_|  \___/ /_/\_\ \__  |\_|   \___/ \___/ \_____\
                       __ / /
                      /___ /
ProxyPool

爬蟲代理IP池項目,主要功能為定時采集網上發布的免費代理驗證入庫,定時驗證入庫的代理保證代理的可用性,提供API和CLI兩種使用方式。同時你也可以擴展代理源以增加代理池IP的質量和數量。

  • 文檔: https://proxy-pool.readthedocs.io/zh/latest/
  • 支持版本:  
  • 測試地址: http://demo.spiderpy.cn (勿壓謝謝)
  • 付費代理推薦: luminati-china. 國外的亮數據BrightData(以前叫luminati)被認為是代理市場領導者,覆蓋全球的7200萬IP,大部分是真人住宅IP,成功率扛扛的。付費套餐多種,需要高質量代理IP的可以注冊后聯系中文客服,開通后有5美金贈送和教程指引(PS:用不明白的同學可以參考這個使用教程)。

運行項目

下載代碼:
  • git clone
git clone git@github.com:jhao104/proxy_pool.git
  • releases
https://github.com/jhao104/proxy_pool/releases 下載對應zip文件
安裝依賴:
pip install -r requirements.txt
更新配置:
# setting.py 為項目配置文件# 配置API服務HOST = "0.0.0.0"               # IPPORT = 5000                    # 監聽端口# 配置數據庫DB_CONN = 'redis://:pwd@127.0.0.1:8888/0'# 配置 ProxyFetcherPROXY_FETCHER = [    "freeProxy01",      # 這里是啟用的代理抓取方法名,所有fetch方法位于fetcher/proxyFetcher.py
    "freeProxy02",    # ....]

啟動項目:

# 如果已經具備運行條件, 可用通過proxyPool.py啟動。# 程序分為: schedule 調度程序 和 server Api服務# 啟動調度程序python proxyPool.py schedule# 啟動webApi服務python proxyPool.py server

Docker Image

docker pull jhao104/proxy_pool
docker run --env DB_CONN=redis://:password@ip:port/0 -p 5010:5010 jhao104/proxy_pool:latest

docker-compose

項目目錄下運行:

docker-compose up -d

使用

  • Api

啟動web服務后, 默認配置下會開啟 http://127.0.0.1:5010 的api接口服務:

  • 爬蟲使用

如果要在爬蟲代碼中使用的話, 可以將此api封裝成函數直接使用,例如:

import requestsdef get_proxy():    return requests.get("http://127.0.0.1:5010/get/").json()def delete_proxy(proxy):    requests.get("http://127.0.0.1:5010/delete/?proxy={}".format(proxy))# your spider codedef getHtml():    # ....
    retry_count = 5
    proxy = get_proxy().get("proxy")    while retry_count > 0:        try:            html = requests.get('http://www.example.com', proxies={"http": "http://{}".format(proxy)})            # 使用代理訪問
            return html
        except Exception:            retry_count -= 1
    # 刪除代理池中代理
    delete_proxy(proxy)    return None

擴展代理

項目默認包含幾個免費的代理獲取源,但是免費的畢竟質量有限,所以如果直接運行可能拿到的代理質量不理想。所以,提供了代理獲取的擴展方法。

添加一個新的代理源方法如下:

  • 1、首先在ProxyFetcher類中添加自定義的獲取代理的靜態方法, 該方法需要以生成器(yield)形式返回host:ip格式的代理,例如:
class ProxyFetcher(object):    # ....
    # 自定義代理源獲取方法
    @staticmethod
    def freeProxyCustom1():  # 命名不和已有重復即可
        # 通過某網站或者某接口或某數據庫獲取代理
        # 假設你已經拿到了一個代理列表
        proxies = ["x.x.x.x:3128", "x.x.x.x:80"]        for proxy in proxies:            yield proxy
        # 確保每個proxy都是 host:ip正確的格式返回
  • 2、添加好方法后,修改setting.py文件中的PROXY_FETCHER項:

PROXY_FETCHER下添加自定義方法的名字:


PROXY_FETCHER = [    "freeProxy01",    
    "freeProxy02",    # ....
    "freeProxyCustom1"  #  # 確保名字和你添加方法名字一致]

 schedule 進程會每隔一段時間抓取一次代理,下次抓取時會自動識別調用你定義的方法。

免費代理源

目前實現的采集免費代理網站有(排名不分先后, 下面僅是對其發布的免費代理情況, 付費代理測評可以參考https://zhuanlan.zhihu.com/p/33576641):

(具體地址可看項目地址)

項目地址

https://github.com/jhao104/proxy_pool

本項目其實就是個簡單的代理服務器,經過我小小的修改。加了個代理池進來。滲透、爬蟲的時候很容易就會把自己ip給ban了,所以就需要ip代理池了。

ProxyPool 爬蟲代理IP池

______                        ______             _
| ___ \_                      | ___ \           | |
| |_/ / \__ __   __  _ __   _ | |_/ /___   ___  | |
|  __/|  _// _ \ \ \/ /| | | ||  __// _ \ / _ \ | |
| |   | | | (_) | >  < \ |_| || |  | (_) | (_) || |___
\_|   |_|  \___/ /_/\_\ \__  |\_|   \___/ \___/ \_____\
                       __ / /
                      /___ /
ProxyPool

爬蟲代理IP池項目,主要功能為定時采集網上發布的免費代理驗證入庫,定時驗證入庫的代理保證代理的可用性,提供API和CLI兩種使用方式。同時你也可以擴展代理源以增加代理池IP的質量和數量。

  • 文檔: https://proxy-pool.readthedocs.io/zh/latest/
  • 支持版本:  
  • 測試地址: http://demo.spiderpy.cn (勿壓謝謝)
  • 付費代理推薦: luminati-china. 國外的亮數據BrightData(以前叫luminati)被認為是代理市場領導者,覆蓋全球的7200萬IP,大部分是真人住宅IP,成功率扛扛的。付費套餐多種,需要高質量代理IP的可以注冊后聯系中文客服,開通后有5美金贈送和教程指引(PS:用不明白的同學可以參考這個使用教程)。

運行項目

下載代碼:
  • git clone
git clone git@github.com:jhao104/proxy_pool.git
  • releases
https://github.com/jhao104/proxy_pool/releases 下載對應zip文件
安裝依賴:
pip install -r requirements.txt
更新配置:
# setting.py 為項目配置文件# 配置API服務HOST = "0.0.0.0"               # IPPORT = 5000                    # 監聽端口# 配置數據庫DB_CONN = 'redis://:pwd@127.0.0.1:8888/0'# 配置 ProxyFetcherPROXY_FETCHER = [    "freeProxy01",      # 這里是啟用的代理抓取方法名,所有fetch方法位于fetcher/proxyFetcher.py
    "freeProxy02",    # ....]

啟動項目:

# 如果已經具備運行條件, 可用通過proxyPool.py啟動。# 程序分為: schedule 調度程序 和 server Api服務# 啟動調度程序python proxyPool.py schedule# 啟動webApi服務python proxyPool.py server

Docker Image

docker pull jhao104/proxy_pool
docker run --env DB_CONN=redis://:password@ip:port/0 -p 5010:5010 jhao104/proxy_pool:latest

docker-compose

項目目錄下運行:

docker-compose up -d

使用

  • Api

啟動web服務后, 默認配置下會開啟 http://127.0.0.1:5010 的api接口服務:

  • 爬蟲使用

如果要在爬蟲代碼中使用的話, 可以將此api封裝成函數直接使用,例如:

import requestsdef get_proxy():    return requests.get("http://127.0.0.1:5010/get/").json()def delete_proxy(proxy):    requests.get("http://127.0.0.1:5010/delete/?proxy={}".format(proxy))# your spider codedef getHtml():    # ....
    retry_count = 5
    proxy = get_proxy().get("proxy")    while retry_count > 0:        try:            html = requests.get('http://www.example.com', proxies={"http": "http://{}".format(proxy)})            # 使用代理訪問
            return html
        except Exception:            retry_count -= 1
    # 刪除代理池中代理
    delete_proxy(proxy)    return None

擴展代理

項目默認包含幾個免費的代理獲取源,但是免費的畢竟質量有限,所以如果直接運行可能拿到的代理質量不理想。所以,提供了代理獲取的擴展方法。

添加一個新的代理源方法如下:

  • 1、首先在ProxyFetcher類中添加自定義的獲取代理的靜態方法, 該方法需要以生成器(yield)形式返回host:ip格式的代理,例如:
class ProxyFetcher(object):    # ....
    # 自定義代理源獲取方法
    @staticmethod
    def freeProxyCustom1():  # 命名不和已有重復即可
        # 通過某網站或者某接口或某數據庫獲取代理
        # 假設你已經拿到了一個代理列表
        proxies = ["x.x.x.x:3128", "x.x.x.x:80"]        for proxy in proxies:            yield proxy
        # 確保每個proxy都是 host:ip正確的格式返回
  • 2、添加好方法后,修改setting.py文件中的PROXY_FETCHER項:

PROXY_FETCHER下添加自定義方法的名字:


PROXY_FETCHER = [    "freeProxy01",    
    "freeProxy02",    # ....
    "freeProxyCustom1"  #  # 確保名字和你添加方法名字一致]

 schedule 進程會每隔一段時間抓取一次代理,下次抓取時會自動識別調用你定義的方法。

免費代理源

目前實現的采集免費代理網站有(排名不分先后, 下面僅是對其發布的免費代理情況, 付費代理測評可以參考https://zhuanlan.zhihu.com/p/33576641):

(具體地址可看項目地址)

項目地址

https://github.com/jhao104/proxy_pool

如有侵權,請聯系刪