#!/usr/bin/env python import urllib2 # change followings before use user = 'foo' passwd = 'bar' proxyserver = '1.2.3.4:5' url = 'http://www.google.com/' def proxy1(): # work proxy = 'http://%s:%s@%s' % (user, passwd, proxyserver) opener = urllib2.build_opener( urllib2.ProxyHandler({'http':proxy}) ) urllib2.install_opener( opener ) sContent = urllib2.urlopen(url) print ...
by unixlanser - Python文档中心 - 2009-04-23 13:30:25 阅读(3141) 回复(0)
1. to use urllib2/sgmllib,list all URLs on a web page: import urllib2 from sgmllib import SGMLParser class URLLister(SGMLParser): def reset(self): ...
http://blog.alexa-pro.cn/?p=195 简介: urllib2是python的一个获取url(Uniform Resource Locators,统一资源定址器)的模块。它用urlopen函数的形式提供了一个非常简洁的接口。这使得用各种各样的协议获取url成为可能。它同时 也提供了一个稍微复杂的接口来处理常见的状况-如基本的认证,cookies,代理,等等。这些都是由叫做opener和handler的对象来处理的。 以下是获取url最简单的方式: import urllib2 response = url...
查看文章 python urllib2技术补充参考--中文版01 2008-12-12 17:38 python urllib2技术补充参考--中文版01 此文由我( 54snapple )翻译自 http://www.voidspace.org.uk/python/articles/urllib2.shtml 。原文标题:urllib2 - The Missing Manual -副标题:HOWTO Fetch Internet Resources with Python。英文版权归文章原作者所有。转载请保留以上信息。 行文仓促,未作校正,请谅解指正。 -----------------------------------...
现在使用urllib2提交数据,发现服务器给我返回100,而该服务器正常的返回应该是302,即重定向,我的数据已经检查过,没有问题,请教各位有经验的大虾,这通常是什么原因造成的啊? 还有一个问题,就是我在addheaders中加入了keep-alive和connection keep-alive,但是我发现,返回的页面仍然是connection:close 而浏览器正常工作时,connection应该是keep-alive的。 谢先。
urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件。他以urlopen函数的形式提供了一个非常简单的接口, 这是具有利用不同协议获取URLs的能力,他同样提供了一个比较复杂的接口来处理一般情况,例如:基础验证,cookies,代理和其他。 它们通过handlers和openers的对象提供。 urllib2支持获取不同格式的URLs(在URL的”:”前定义的字串,例如:”ftp”是”ftp:python.ort/”的前缀),它们利用它们相关网络协议(例如FT...
我将文件分成三个部分,分三个线程下载,每个线程再按指定的块大小发送HTTP请求。但是会出现第一个线程发出去请求后得到的数据是第二个线程的数据内容。 例如第一个线程请求Range:bytes:100-200,但得到的是第二个线程Range:bytes:3000-3100的内容。 虽然我每个线程内容都单独创建了Request对象,但也没解决问题。 Python的urllib2是不是线程安全的?
# -*- coding: cp936 -*- """ 使用身份验证 1.创建继承于urllib2.HTTPPasswordMgr 2.重载find_user_password 3.创建OpenerMgr实例 结果是:如果请求的url需要身份验证,此程序会提示输入用户名和密码,如果无法通过身份验证,程序异常. """ import sys,urllib2,getpass # 创建HTTPPasswordMgr类 class TerminalPassword(urllib2.HTTPPasswordMgr): # 重载find_user_password方法 def find_user_password(self,realm,a...
我在下载一个网站的文件时候需要使用它保存在cookie中的一个字符串 怎么才能获得这个字符串呢 (这个字符传随cookie传输是没有用的,必须要读取出来 做为请求的参数才可以) 怎么获得呢 import urllib2,cookielib import urllib import re cookie=cookielib.CookieJar() opener=urllib2.build_opener (urllib2.HTTPCookieProcessor(cookie)) urllib2.install_opener(opener) login_response=urllib2.urlopen('http://comic.sky...