usingdjangowithgaepython后台抓取多个网站的页面全文

一直想做个能帮我过滤出优质文章和博客的平台 给它取了个名 叫moven。。 把实现它的过程分成了三个阶段:
1. downloader: 对于指定的url的下载 并把获得的内容传递给analyser--这是最简单的开始
2. analyser: 对于接受到的内容,用regular expression 或是 xpath 或是 beautifulsoup/lxml 进行过滤和简化--这部分也不是太难
3. smart crawler: 去抓取优质文章的链接--这部分是最难的:

crawler的话可以在scrapy framework的基础上快速的搭建
但是判断一个链接下的文章是不是优质 需要一个很复杂的算法

最近就先从downloader 和 analyser 开始: 最近搭了一个l2z story 并且还有一个 z life 和 z life@sina 还有一个她的博客 做为一个对downloader 和 analyser的练习 我就写了这个东西来监听以上四个站点 并且把它们的内容都同步到这个站上:

http://l2zstory.appspot.com

app 的特色
这个站上除了最上面的黑色导航条 和 最右边的about this site 部分外, 其他的内容都是从另外的站点上自动获得
原则上, 可以添加任何博客或者网站地址到这个东西。。。当然因为这个是l2z story..所以只收录了四个站点在里面
特点是: 只要站点的主人不停止更新, 这个东西就会一直存在下去---这就是懒人的力量

值得一提的是, content 菜单是在客户端用javascript 自动生成的--这样就节约了服务器上的资源消耗

这里用的是html全页面抓取 所以对那些feed没有全文输出的站点来说, 这个app 可以去把它要隐藏的文字抓来
在加载的时候会花很多时间因为程序会自动到一个没有全文输出的页面上抓取所有的文章列表,作者信息,更新时间,以及文章全文。。所以打开的时候请耐心。。。下一步会加入数据存储部分,这样就会快了。。

技术准备

前端:

1. css 在信奉简单之上的原则上 twitter的bootstrap.css满足了我大多数的要求 个人超喜欢它的 grid system
2. javascript上, 当然选用了jquery 自从我开始在我的第一个小项目上用了jquery 后 我就爱上了它 那个动态的目录系统就是用jquery快速生成的
为了配合bootstrap.css, bootstrap-dropdown.js 也用到了

服务器:

这个app有两个版本:
一个跑在我的apache上, 但是因为我的网络是adsl, 所以ip一直会变基本上只是我在我的所谓的局域网内自测用的。。这个版本是纯django的
另一个跑在google app engine上 地址是 http://l2zstory.appspot.com 在把django 配置到gae的时候我花了很多功夫才把框架搭起来

详情请见: using django with google app engine gae: l2z story setup-step 1 http://blog.sina.com.cn/s/blog_6266e57b01011mjk.html

后台:

主要语言是python–不解释, 自从认识python后就没有离开它

主要用到的module是

1. beautifulsoup.py 用于html 的解析–不解释
2. feedparser.py 用于对feed xml的解析--网上有很多人说gae不支持feedparser..这里你们得到答案了。。可以。。这里我也是花了很久才弄明白到底是怎么回事。。总之简单讲就是: 可以用!但是feedparser.py这个文件必须放到跟app.yaml同一个目录中 不然会出现网上众人说的不可以import feedparser的情况

数据库:
google datastore: 在下一步中, 这个程序会每隔30分钟醒来 逐一查看各个站点有没有更新并抓取更新后的文章并存入google 的datastore中

app 的配置

遵循google的规则, 配置文件app.yaml 如下:
这里主要是定义了一些static directory--css 和 javascript的所在地

代码如下:

application: l2zstory
version: 1
runtime: python
api_version: 1

handlers:

– url: /images
static_dir: l2zstory/templates/template2/images
– url: /css
static_dir: l2zstory/templates/template2/css
– url: /js
static_dir: l2zstory/templates/template2/js
– url: /js
static_dir: l2zstory/templates/template2/js
– url: /.*
script: main.py

url的配置

这里采用的是django 里的正则表达式

代码如下:

from django.conf.urls.defaults import *

# uncomment the next two lines to enable the admin:
# from django.contrib import admin
# admin.autodiscover()

urlpatterns = patterns(”,
# example:
# (r’^l2zstory/’, include(‘l2zstory.foo.urls’)),

# uncomment the admin/doc line below and add ‘django.contrib.admindocs’
# to installed_apps to enable admin documentation:
# (r’^admin/doc/’, include(‘django.contrib.admindocs.urls’)),

# uncomment the next line to enable the admin:
# (r’^admin/(.*)’, admin.site.root),
(r’^$’,’l2zstory.stories.views.l2zstory’),
(r’^yukilife/’,’l2zstory.stories.views.yukilife’),
(r’^zlife_sina/’,’l2zstory.stories.views.zlife_sina’),
(r’^zlife/’,’l2zstory.stories.views.zlife’)
)

views的细节

对django比较熟悉的人应该会从url的配置中看到view的名字了 我只把l2zstory的这个view贴出来因为其他的在view里的架构至少是差不多的

代码如下:

#from beautifulsoup import beautifulsoup
from pyutils import getaboutpage
from pyutils import getpostinfos

def l2zstory(request):
url=”feed://l2zstory.wordpress.com/feed/”
about_url=”http://l2zstory.wordpress.com/about/”
blog_type=”wordpress”
htmlpages={}
aboutcontent=getaboutpage(about_url,blog_type)
if aboutcontent==”not found”:
aboutcontent=”we use this to tell those past stories…”
htmlpages[‘about’]={}
htmlpages[‘about’][‘content’]=aboutcontent
htmlpages[‘about’][‘title’]=”about this story”
htmlpages[‘about’][‘url’]=about_url
postinfos=getpostinfos(url,blog_type,order_desc=true)
return render_to_response(‘l2zstory.html’,
{‘postinfos’:postinfos,
‘htmlpages’:htmlpages
})

这里主要是构建一个dictionary of dictionary htmlpages 和一个list of dictionary postinfos
htmlpages 主要是存贮站点的 about, contact us 之类的页面
postinfos 会存贮所有文章的 内容, 作者, 发布时间 之类的

这里面最重要的是pyutils。。这是这个app的核心

pyutils的细节

我把一些我认为比较重要的细节加深了 并加了评论

代码如下:

import feedparser
import urllib2
import re
from beautifulsoup import beautifulsoup
header={
‘user-agent’:’mozilla/5.0 (macintosh; intel mac os x 10.7; rv:8.0.1) gecko/20100101 firefox/8.0.1′,
}

#用来欺骗网站的后台。。象新浪这类的网站对我们这类的app十分不友好。。。希望它们可以多象被墙掉的wordpress学一学。。

代码如下:

timeoutmsg=”””
the robot cannot connect to the desired page due to either of these reasons:
1. great fire wall
2. the blog site has block connections made by robots.
“””

def getpagecontent(url,blog_type):
try:
req=urllib2.request(url,none,header)
response=urllib2.urlopen(req)
html=response.read()
html=beautifulsoup(html).prettify()
soup=beautifulsoup(html)
content=””
if blog_type==”wordpress”:
try:
for sharesection in soup.findall(‘p’,{‘class’:’sharedaddy sd-like-enabled sd-sharing-enabled’}):
sharesection.extract()
for item in soup.findall(‘p’,{‘class’:’post-content’}):
content+=unicode(item)
except:
content=”no post content found”
elif blog_type==”sina”:
try:
for item in soup.findall(‘p’,{‘class’:’articalcontent ‘}):
content+=unicode(item)
except:
content=”no post content found”

#对于不同的网站类型 应用不同的过滤器

except:
content=timeoutmsg
return removestyle(content)

def removestyle(content):
#add this to remove all the img tag : ()|()|(src=\”.*\”)|
patn=re.compile(r”(align=\”.*\”)|(.*\”)|(*\”)|(.*\”)|()|(

发表评论