代理对于搞爬虫的都不会陌生。公司有一批阿里云服务器用于分布式增量抓取,但对于一些封ip且只需进行一次全量抓取的数据源,或数据量级较小时,如果部署到爬虫集群上又太费事不值得。在网上找的免费代理可用性又太低,于是决定充分利用爬虫服务器的网络资源,在上面搭建自己的代理服务。

本文福利:私信回复【PDF】可获取Python电子书一套

一、squid搭建与配置过程

文中使用的服务器是centos系统。

二、安装squid

使用yum直接安装即可yum install squid -y,安装完成后配置文件在/etc/squid/目录下。

三、配置basic认证

不得不说现在网络上扫描器实在太多了。笔者在一台机器上使用默认端口3128开启了squid服务,没有配置访问认证,测试结束后忘记关闭squid服务,过了几个小时就发现服务器负载太高,查看日志(/var/log/squid/)发现是已经被人扫到并用上了。

看来必需要配置访问认证了

1.生成passwords文件 在本机上执行

# 安装htpasswd工具 yum install httpd-tools -y # 生成passwords文件 htpasswd -c passwords authorized_user

2.输入两次密码后生成passwords文件

配置squid认证 将passwords文件上传到爬虫服务器/etc/squid/目录下,编辑/etc/squid/squid.conf文件,添加

四、高匿配置

squid默认配置为透明代理,通过squid发送请求时squid会添加x-forwarded-for与via请求头,对方会发现你在使用代理,并根据这个得知你的真实ip,对于爬取数据必需要使用高匿代理,在配置文件中添加如下内容

五、批量安装

上面已经介绍了搭建与配置squid的步骤,下面介绍如何通过python批量安装。首先需要通过ssh连接到服务器,使用paramiko库可以通过ssh连接到远程服务器,建立连接后执行上面的命令就可以了,没什么可说的就直接贴代码了

理对于搞爬虫的都不会陌生。公司有一批阿里云服务器用于分布式增量抓取,但对于一些封ip且只需进行一次全量抓取的数据源,或数据量级较小时,如果部署到爬虫集群上又太费事不值得。在网上找的免费代理可用性又太低,于是决定充分利用爬虫服务器的网络资源,在上面搭建自己的代理服务。

查看原文 >>
相关文章