2008 iis 网站,国外采购商联系方式,网上购物商城源代码,介绍营销的网站手把手教你搭建代理IP池#xff1a;
项目简介#xff1a;
爬虫代理IP池项目,主要功能为定时采集网上发布的免费代理验证入库#xff0c;定时验证入库的代理保证代理的可用性#xff0c;提供API和CLI两种使用方式。同时你也可以扩展代理源以增加代理池IP的质量和数量。…手把手教你搭建代理IP池
项目简介
爬虫代理IP池项目,主要功能为定时采集网上发布的免费代理验证入库定时验证入库的代理保证代理的可用性提供API和CLI两种使用方式。同时你也可以扩展代理源以增加代理池IP的质量和数量。
GitHub地址
jhao104/proxy_pool: Python ProxyPool for web spider (github.com)
部署安装流程
首先需要将git源码克隆到本地
git clone gitgithub.com:jhao104/proxy_pool.git 重新创建一个python虚拟环境防止包依赖冲突
conda create -n env_name pythonx.xconda create -n pc python3.8查看当前所有环境
conda env list 进入某个环境
conda activate 环境名
conda activate pc安装相关包
找到项目所在的requirements.txt 所在的目录
我的在D:\Git_local\proxy_pool\requirements.txt 然后在环境里面输入
pip install D:\Git_local\proxy_pool\requirements.txt环境部署就成功了很多GitHub的项目如果需要在本地运行都需要这样的操作因为python的库之前存在依赖必须是某个版本的才可以不然就会冲突。
数据库配置 开启redis数据库
注意先开启服务端在开启客户端 启动项目 # 如果已经具备运行条件, 可用通过proxyPool.py启动。
# 程序分为: schedule 调度程序 和 server Api服务# 启动调度程序
python proxyPool.py schedule# 启动webApi服务
python proxyPool.py serverpython proxyPool.py schedulepython proxyPool.py server成功
代码接口
import requestsdef get_proxy():return requests.get(http://127.0.0.1:5010/get/).json()def delete_proxy(proxy):requests.get(http://127.0.0.1:5010/delete/?proxy{}.format(proxy))# your spider codedef getHtml():# ....retry_count 5proxy get_proxy().get(proxy)while retry_count 0:try:html requests.get(http://www.example.com, proxies{http: http://{}.format(proxy)})# 使用代理访问return htmlexcept Exception:retry_count - 1# 删除代理池中代理delete_proxy(proxy)return None