本項目其實就是個簡單的代理服務器,經過我小小的修改。加了個代理池進來。滲透、爬蟲的時候很容易就會把自己ip給ban了,所以就需要ip代理池了。

ProxyPool 爬蟲代理IP池
______ ______ _
| ___ \_ | ___ \ | |
| |_/ / \__ __ __ _ __ _ | |_/ /___ ___ | |
| __/| _// _ \ \ \/ /| | | || __// _ \ / _ \ | |
| | | | | (_) | > < \ |_| || | | (_) | (_) || |___
\_| |_| \___/ /_/\_\ \__ |\_| \___/ \___/ \_____\
__ / /
/___ /
ProxyPool
爬蟲代理IP池項目,主要功能為定時采集網上發布的免費代理驗證入庫,定時驗證入庫的代理保證代理的可用性,提供API和CLI兩種使用方式。同時你也可以擴展代理源以增加代理池IP的質量和數量。
- 文檔: https://proxy-pool.readthedocs.io/zh/latest/
- 支持版本:
- 測試地址: http://demo.spiderpy.cn (勿壓謝謝)
- 付費代理推薦: luminati-china. 國外的亮數據BrightData(以前叫luminati)被認為是代理市場領導者,覆蓋全球的7200萬IP,大部分是真人住宅IP,成功率扛扛的。付費套餐多種,需要高質量代理IP的可以注冊后聯系中文客服,開通后有5美金贈送和教程指引(PS:用不明白的同學可以參考這個使用教程)。
運行項目
下載代碼:
- git clone
git clone git@github.com:jhao104/proxy_pool.git
- releases
https://github.com/jhao104/proxy_pool/releases 下載對應zip文件
安裝依賴:
pip install -r requirements.txt
更新配置:
# setting.py 為項目配置文件# 配置API服務HOST = "0.0.0.0" # IPPORT = 5000 # 監聽端口# 配置數據庫DB_CONN = 'redis://:pwd@127.0.0.1:8888/0'# 配置 ProxyFetcherPROXY_FETCHER = [ "freeProxy01", # 這里是啟用的代理抓取方法名,所有fetch方法位于fetcher/proxyFetcher.py
"freeProxy02", # ....]
啟動項目:
# 如果已經具備運行條件, 可用通過proxyPool.py啟動。# 程序分為: schedule 調度程序 和 server Api服務# 啟動調度程序python proxyPool.py schedule# 啟動webApi服務python proxyPool.py server
Docker Image
docker pull jhao104/proxy_pool docker run --env DB_CONN=redis://:password@ip:port/0 -p 5010:5010 jhao104/proxy_pool:latest
docker-compose
項目目錄下運行:
docker-compose up -d
使用
- Api
啟動web服務后, 默認配置下會開啟 http://127.0.0.1:5010 的api接口服務:

- 爬蟲使用
如果要在爬蟲代碼中使用的話, 可以將此api封裝成函數直接使用,例如:
import requestsdef get_proxy(): return requests.get("http://127.0.0.1:5010/get/").json()def delete_proxy(proxy): requests.get("http://127.0.0.1:5010/delete/?proxy={}".format(proxy))# your spider codedef getHtml(): # ....
retry_count = 5
proxy = get_proxy().get("proxy") while retry_count > 0: try: html = requests.get('http://www.example.com', proxies={"http": "http://{}".format(proxy)}) # 使用代理訪問
return html
except Exception: retry_count -= 1
# 刪除代理池中代理
delete_proxy(proxy) return None
擴展代理
項目默認包含幾個免費的代理獲取源,但是免費的畢竟質量有限,所以如果直接運行可能拿到的代理質量不理想。所以,提供了代理獲取的擴展方法。
添加一個新的代理源方法如下:
- 1、首先在ProxyFetcher類中添加自定義的獲取代理的靜態方法, 該方法需要以生成器(yield)形式返回host:ip格式的代理,例如:
class ProxyFetcher(object): # ....
# 自定義代理源獲取方法
@staticmethod
def freeProxyCustom1(): # 命名不和已有重復即可
# 通過某網站或者某接口或某數據庫獲取代理
# 假設你已經拿到了一個代理列表
proxies = ["x.x.x.x:3128", "x.x.x.x:80"] for proxy in proxies: yield proxy
# 確保每個proxy都是 host:ip正確的格式返回
- 2、添加好方法后,修改setting.py文件中的PROXY_FETCHER項:
在PROXY_FETCHER下添加自定義方法的名字:
PROXY_FETCHER = [ "freeProxy01",
"freeProxy02", # ....
"freeProxyCustom1" # # 確保名字和你添加方法名字一致]
schedule 進程會每隔一段時間抓取一次代理,下次抓取時會自動識別調用你定義的方法。
免費代理源
目前實現的采集免費代理網站有(排名不分先后, 下面僅是對其發布的免費代理情況, 付費代理測評可以參考https://zhuanlan.zhihu.com/p/33576641):

(具體地址可看項目地址)
項目地址
https://github.com/jhao104/proxy_pool
本項目其實就是個簡單的代理服務器,經過我小小的修改。加了個代理池進來。滲透、爬蟲的時候很容易就會把自己ip給ban了,所以就需要ip代理池了。

ProxyPool 爬蟲代理IP池
______ ______ _
| ___ \_ | ___ \ | |
| |_/ / \__ __ __ _ __ _ | |_/ /___ ___ | |
| __/| _// _ \ \ \/ /| | | || __// _ \ / _ \ | |
| | | | | (_) | > < \ |_| || | | (_) | (_) || |___
\_| |_| \___/ /_/\_\ \__ |\_| \___/ \___/ \_____\
__ / /
/___ /
ProxyPool
爬蟲代理IP池項目,主要功能為定時采集網上發布的免費代理驗證入庫,定時驗證入庫的代理保證代理的可用性,提供API和CLI兩種使用方式。同時你也可以擴展代理源以增加代理池IP的質量和數量。
- 文檔: https://proxy-pool.readthedocs.io/zh/latest/
- 支持版本:
- 測試地址: http://demo.spiderpy.cn (勿壓謝謝)
- 付費代理推薦: luminati-china. 國外的亮數據BrightData(以前叫luminati)被認為是代理市場領導者,覆蓋全球的7200萬IP,大部分是真人住宅IP,成功率扛扛的。付費套餐多種,需要高質量代理IP的可以注冊后聯系中文客服,開通后有5美金贈送和教程指引(PS:用不明白的同學可以參考這個使用教程)。
運行項目
下載代碼:
- git clone
git clone git@github.com:jhao104/proxy_pool.git
- releases
https://github.com/jhao104/proxy_pool/releases 下載對應zip文件
安裝依賴:
pip install -r requirements.txt
更新配置:
# setting.py 為項目配置文件# 配置API服務HOST = "0.0.0.0" # IPPORT = 5000 # 監聽端口# 配置數據庫DB_CONN = 'redis://:pwd@127.0.0.1:8888/0'# 配置 ProxyFetcherPROXY_FETCHER = [ "freeProxy01", # 這里是啟用的代理抓取方法名,所有fetch方法位于fetcher/proxyFetcher.py
"freeProxy02", # ....]
啟動項目:
# 如果已經具備運行條件, 可用通過proxyPool.py啟動。# 程序分為: schedule 調度程序 和 server Api服務# 啟動調度程序python proxyPool.py schedule# 啟動webApi服務python proxyPool.py server
Docker Image
docker pull jhao104/proxy_pool docker run --env DB_CONN=redis://:password@ip:port/0 -p 5010:5010 jhao104/proxy_pool:latest
docker-compose
項目目錄下運行:
docker-compose up -d
使用
- Api
啟動web服務后, 默認配置下會開啟 http://127.0.0.1:5010 的api接口服務:

- 爬蟲使用
如果要在爬蟲代碼中使用的話, 可以將此api封裝成函數直接使用,例如:
import requestsdef get_proxy(): return requests.get("http://127.0.0.1:5010/get/").json()def delete_proxy(proxy): requests.get("http://127.0.0.1:5010/delete/?proxy={}".format(proxy))# your spider codedef getHtml(): # ....
retry_count = 5
proxy = get_proxy().get("proxy") while retry_count > 0: try: html = requests.get('http://www.example.com', proxies={"http": "http://{}".format(proxy)}) # 使用代理訪問
return html
except Exception: retry_count -= 1
# 刪除代理池中代理
delete_proxy(proxy) return None
擴展代理
項目默認包含幾個免費的代理獲取源,但是免費的畢竟質量有限,所以如果直接運行可能拿到的代理質量不理想。所以,提供了代理獲取的擴展方法。
添加一個新的代理源方法如下:
- 1、首先在ProxyFetcher類中添加自定義的獲取代理的靜態方法, 該方法需要以生成器(yield)形式返回host:ip格式的代理,例如:
class ProxyFetcher(object): # ....
# 自定義代理源獲取方法
@staticmethod
def freeProxyCustom1(): # 命名不和已有重復即可
# 通過某網站或者某接口或某數據庫獲取代理
# 假設你已經拿到了一個代理列表
proxies = ["x.x.x.x:3128", "x.x.x.x:80"] for proxy in proxies: yield proxy
# 確保每個proxy都是 host:ip正確的格式返回
- 2、添加好方法后,修改setting.py文件中的PROXY_FETCHER項:
在PROXY_FETCHER下添加自定義方法的名字:
PROXY_FETCHER = [ "freeProxy01",
"freeProxy02", # ....
"freeProxyCustom1" # # 確保名字和你添加方法名字一致]
schedule 進程會每隔一段時間抓取一次代理,下次抓取時會自動識別調用你定義的方法。
免費代理源
目前實現的采集免費代理網站有(排名不分先后, 下面僅是對其發布的免費代理情況, 付費代理測評可以參考https://zhuanlan.zhihu.com/p/33576641):

(具體地址可看項目地址)
項目地址
https://github.com/jhao104/proxy_pool
如有侵權,請聯系刪
安全圈
瀟湘信安
金融電子化
關鍵基礎設施安全應急響應中心
中國信通院CAICT
一顆小胡椒
看雪學苑
FreeBuf
安全圈
數世咨詢
LemonSec
HACK之道