Python采集腾讯新闻实例

1310次阅读  |  发布于5年以前

目标是把腾讯新闻主页上所有新闻爬取下来,获得每一篇新闻的名称、时间、来源以及正文。

接下来分解目标,一步一步地做。

步骤1:将主页上所有链接爬取出来,写到文件里。

python在获取html方面十分方便,寥寥数行代码就可以实现我们需要的功能。

复制代码 代码如下:

def getHtml(url):
page = urllib.urlopen(url)
html = page.read()
page.close()
return html

我们都知道html链接的标签是"a",链接的属性是"href",也就是要获得html中所有tag=a,attrs=href 值。

查阅了资料,一开始我打算用HTMLParser,而且也写出来了。但是它有一个问题,就是遇到中文字符的时候无法处理。

复制代码 代码如下:

class parser(HTMLParser.HTMLParser):
def handle_starttag(self, tag, attrs):
if tag == 'a':
for attr, value in attrs:
if attr == 'href':
print value

后来使用了SGMLParser,它就没有这个问题。

复制代码 代码如下:

class URLParser(SGMLParser):
def reset(self):
SGMLParser.reset(self)
self.urls = []

    def start_a(self,attrs):          
            href = [v for k,v in attrs if k=='href']            
            if href:  
                    self.urls.extend(href)  

SGMLParser针对某个标签都需要重载它的函数,这里是把所有的链接放到该类的urls里。

复制代码 代码如下:

lParser = URLParser()#分析器来的
socket = urllib.urlopen("http://news.qq.com/")#打开这个网页

fout = file('urls.txt', 'w')#要把链接写到这个文件里
lParser.feed(socket.read())#分析啦

reg = 'http://news.qq.com/a/.*'#这个是用来匹配符合条件的链接,使用正则表达式匹配
pattern = re.compile(reg)

for url in lParser.urls:#链接都存在urls里
if pattern.match(url):
fout.write(url+'\n')

fout.close()

Copyright© 2013-2020

All Rights Reserved 京ICP备2023019179号-8