网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
08月15日漏签0天
python吧 关注:476,390贴子:1,972,153
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 0回复贴,共1页
<<返回python吧
>0< 加载中...

科普贴丨Python中如何设置使用代理IP

  • 只看楼主
  • 收藏

  • 回复
  • ipip
  • 贡士
    7
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
在Pyhton中要怎么使用ip代理?我们经常说ip代理能够让Python更好的发挥爬虫效果,首先我们要懂得如何在python语言中设置ip代理来利用。
1、urllib模块设置代理
如果我们频繁用一个IP去爬取同一个网站的内容,很可能会被网站封杀IP。其中一种比较常见的方式就是设置ip代理。
from urllib import request   proxy = 'http://39.134.93.12:80'   proxy_support = request.ProxyHandler({'http': proxy})   opener = request.build_opener(proxy_support)   request.install_opener(opener)   result = request.urlopen('http://baidu.com')
首先我们需要构建一个ProxyHandler类,随后将该类用于构建网页代开的opener的类,最后在request中安装opener
2、requests模块使用代理
该模块设置代理非常容易  import requests   proxies = {   'http': 'http://10.10.1.10:3128',   'https': 'http://10.10.1.10:1080'   }   r = requests.get('http://icanhazip.com', proxies=proxies)
ip代理利用得当,我们的爬虫将不会轻易被网站禁止,这样就可以顺利抓取到我们需要的数据信息,帮助了我们爬虫的效果。
网页链接


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 0回复贴,共1页
<<返回python吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示