python爬取网站数据
开学前接了一个任务,内容是从网上爬取特定属性的数据。正好之前学了 python,练练手。
编码问题
因为涉及到中文,所以必然地涉及到了编码的问题,这一次借这个机会算是彻底搞清楚了。
问题要从文字的编码讲起。原本的英文编码只有 0~255,刚好是 8 位 1 个字节。为了表示各种不同的语言,自然要进行扩充。中文的话有 GB 系列。可能还听说过 Unicode 和 UTF-8,那么,它们之间是什么关系呢?
Unicode 是一种编码方案,又称万国码,可见其包含之广。但是具体存储到计算机上,并不用这种编码,可以说它起着一个中间人的作用。你可以再把 Unicode 编码 (encode) 为 UTF-8,或者 GB,再存储到计算机上。UTF-8 或者 GB 也可以进行解码 (decode) 还原为 Unicode。
在 python 中 Unicode 是一类对象,表现为以 u 打头的,比如 u'中文',而 string 又是一类对象,是在具体编码方式下的实际存在计算机上的字符串。比如 utf-8 编码下的 '中文' 和 gbk 编码下的 '中文',并不相同。可以看如下代码:
1 2 3 4 5 6 7 8 9 | >>> str = u '中文' >>> str1 = str .encode( 'utf8' ) >>> str2 = str .encode( 'gbk' ) >>> print repr ( str ) u '\u4e2d\u6587' >>> print repr (str1) '\xe4\xb8\xad\xe6\x96\x87' >>> print repr (str2) '\xd6\xd0\xce\xc4' |
可以看到,其实存储在计算机中的只是这样的编码,而不是一个一个的汉字,在 print 的时候要知道当时是用的什么样的编码方式,才能正确的 print 出来。有一个说法提得很好,python 中的 Unicode 才是真正的字符串,而 string 是字节串
文件编码
既然有不同的编码,那么如果在代码文件中直接写 string 的话,那么它到底是哪一种编码呢?这个就是由文件的编码所决定的。文件总是以一定的编码方式保存的。而 python 文件可以写上 coding 的声明语句,用来说明这个文件是用什么编码方式保存的。如果声明的编码方式和实际保存的编码方式不一致就会出现异常。可以见下面例子: 以 utf-8 保存的文件声明为 gbk
1 2 3 4 5 6 7 8 9 | #coding:gbk str = u '汉' str1 = str .encode( 'utf8' ) str2 = str .encode( 'gbk' ) str3 = '汉' print repr ( str ) print repr (str1) print repr (str2) print repr (str3) |
提示错误 File "test.py", line 1 SyntaxError: Non-ASCII character '\xe6' in file test.py on line 1, but no encodi ng declared; see http://www.python.org/peps/pep-0263.html for details 改为
1 2 3 4 5 6 7 8 9 | #coding:utf8 str = u '汉' str1 = str .encode( 'utf8' ) str2 = str .encode( 'gbk' ) str3 = '汉' print repr ( str ) print repr (str1) print repr (str2) print repr (str3) |
输出正常结果 u'\u6c49' '\xe6\xb1\x89' '\xba\xba' '\xe6\xb1\x89'
更多内容可参见这篇文章http://www.cnblogs.com/huxi/archive/2010/12/05/1897271.html
基本方法
其实用 python 爬取网页很简单,只有简单的几句话
1 2 | import urllib2 page = urllib2.urlopen( 'url' ).read() |
这样就可以获得到页面的内容。接下来再用正则匹配去匹配所需要的内容就行了。
但是,真正要做起来,就会有各种各样的细节问题。
登录
这是一个需要登录认证的网站。也不太难,只要导入 cookielib 和 urllib 库就行。
1 2 3 | import urllib,urllib2,cookielib cookiejar = cookielib.CookieJar() urlOpener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookiejar)) |
这样就装载进一个 cookie,用 urlOpener 去 open 登录以后就可以记住信息。
断线重连
如果只是做到上面的程度,不对 open 进行包装的话,只要网络状况有些起伏,就直接抛出异常,退出整个程序,是个很不好的程序。这个时候,只要对异常进行处理,多试几次就行了:
1 2 3 4 5 6 7 8 9 | def multi_open(opener, * arg): while True : retryTimes = 20 while retryTimes> 0 : try : return opener. open ( * arg) except : print '.' , retryTimes - = 1 |
正则匹配
其实正则匹配并不算是一个特别好的方法,因为它的容错性很不好,网页要完全统一。如果有稍微的不统一,就会失败。后来看到说有根据 xpath 来进行选取的,下次可以尝试一下。
写正则其实是有一定技巧的:
- 非贪婪匹配。比如这样一个标签:<span class='a'>hello</span>,要取出 a 来,如果写成这样的表达式,就不行了:<span class=.*>hello</span>。因为 * 进行了贪婪匹配。这是要用.?:<span class=.?>hello</span>。
- 跨行匹配。实现跨行有一种思路是运用 DOTALL 标志位,这样. 就会匹配到换行。但是这样一来,整个匹配过程就会变得很慢。本来的匹配是以行为单位的。整个过程最多就是 O(nc2),n 是行数,c 是平均列数。现在极有可能变为 O((nc)2)。我的实现方案是运用 \n 来匹配换行,这样可以明确指出匹配最多跨跃多少行。比如:abc\s*\n\s*def,就指出查找的是隔一行的。(.\n)? 就可以指定是匹配尽可能少的行。
- 这里其实还要注意一个点。有的行末是带有 \r 的。也就是说一行是以 \r\n 结尾的。当初不知道这一点,正则就调试了很久。现在直接用 \s,表示行末空格和 \r。
- 无捕获分组。为了不对捕获的分组造成影响,上面的 (.\n) 可以改为 (?:.\n),这样捕获分组时,就会忽略它。
- 单括号要进行转义。因为单括号在正则里是用来表示分组的,所以为了匹配单括号就进行转义。正则字符串最好用的是带有 r 前缀的字符串,如果不是的话,则要对 \ 再进行转义。
- 快速正则。写了那么多模式,也总结出一规律出来。先把要匹配的字符相关的段落拿出来。要匹配的东西用 (.?) 代替。把换行 \n 替换为字符串 \s\n\s*,再去掉行首行末的空格。整个过程在 vim 中可以很快就写好。
Excel 操作
这次的数据是放进 Excel 的。到后面才意识到如果放进数据库的话,可能就没有那么多事了。但是已经写到一半,难以回头了。
搜索 Excel,可以得出几个方案来,一个是用 xlrt/xlwt 库,这个不管电脑上是否安装了 Excel,都可以运行,但只能是 xls 格式的。还有一个是直接包装了 com,需要电脑上安装了软件才行。我采用的是前一种。
基本的读写没有问题。但是数据量一大起来,就有问题了。
- 内存不够。程序一跑起来,内存占用就一点一点往上涨。后面再查了一下,知道要用 flush_row_data。但是还是会出错。一看内存占用,没有什么问题,一直很平稳。但最后还是会出现 memory error。这真是见鬼了。又是反复地查, 反复地运行。一点结果都没有。要命的是 bug 只在数据量大起来才出现,而等数据量大起来往往要好几个小时,这 debug 的成本实在是太高了。一个偶然的机会,突然发现内存占用,虽然总体平稳,但是会规律性的出现小的高涨,而这规律性,会不会和 flush_row_data,有关。一直疑惑的是 data 被 flush 到了哪里。原来 xlwt 的作法是很蛋疼的作法。把数据存在内存里,或者 flush 到一个 temp,到 save 的时候,再一次性写入。而问题正出在这一次性写入,内存猛涨。那我要 flush_row_data 何用?为什么不一开始就 flush 进要写入的地方。
- 行数限制。这个是 xls 格式本身决定的,最多行数只能是 65536。而且数据一大,文件打开也不方便。
结合以上两点,最终采取了这么一个策略,如果行数是 1000 的倍数,进行一次 flush,如果行数超过 65536,新开一个 sheet,如果超过 3 个 sheet,则新建一个文件。为了方便,把 xlwt 包装了一下
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 | #coding:utf-8# import xlwt class XLS: '''a class wrap the xlwt''' MAX_ROW = 65536 MAX_SHEET_NUM = 3 def __init__( self ,name,captionList,typeList,encoding = 'utf8' ,flushBound = 1000 ): self .name = name self .captionList = captionList[:] self .typeList = typeList[:] self .workbookIndex = 1 self .encoding = encoding self .wb = xlwt.Workbook(encoding = self .encoding) self .sheetIndex = 1 self .__addSheet() self .flushBound = flushBound def __addSheet( self ): if self .sheetIndex ! = 1 : self .wb.save( self .name + str ( self .workbookIndex) + '.xls' ) if self .sheetIndex>XLS.MAX_SHEET_NUM: self .workbookIndex + = 1 self .wb = xlwt.Workbook(encoding = self .encoding) self .sheetIndex = 1 self .sheet = self .wb.add_sheet( self .name.encode( self .encoding) + str ( self .sheetIndex)) for i in range ( len ( self .captionList)): self .sheet.write( 0 ,i, self .captionList[i]) self .row = 1 def write( self ,data): if self .row> = XLS.MAX_ROW: self .sheetIndex + = 1 self .__addSheet() for i in range ( len (data)): if self .typeList[i] = = "num" : try : self .sheet.write( self .row,i, float (data[i])) except ValueError: pass else : self .sheet.write( self .row,i,data[i]) if self .row % self .flushBound = = 0 : self .sheet.flush_row_data() self .row + = 1 def save( self ): self .wb.save( self .name + str ( self .workbookIndex) + '.xls' ) |
转换网页特殊字符
由于网页也有自己独特的转义字符,在进行正则匹配的时候就有些麻烦。在官方文档中查到一个用字典替换的方案,私以为不错,拿来做了一些扩充。其中有一些是为保持正则的正确性。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 | html_escape_table = { "&" : "&" , '"' : """, "'" : "'" , ">" : ">" , "<" : "<" , u "·" : "·" , u "°" : "°" , #regular expression "." :r "\." , "^" :r "\^" , "$" :r "\$" , "{" :r "\{" , "}" :r "\}" , "\\":r" \\", "|" :r "\|" , "(" :r "\(" , ")" :r "\)" , "+" :r "\+" , "*" :r "\*" , "?" :r "\?" , } def html_escape(text): """Produce entities within text.""" tmp = "".join(html_escape_table.get(c,c) for c in text) return tmp.encode( "utf-8" ) |
结
得出的经验差不多就是这些了。不过最后写出来的程序自已也不忍再看。风格很不好。一开始想着先写着试试。然后试着试着就不想改了。
最终的程序要跑很久,其中网络通信时间占了大部分。是不是可以考虑用多线程重构一下?想想,还是就这样吧。