关于毕业设计:毕业设计之-爬虫

85次阅读

共计 2735 个字符,预计需要花费 7 分钟才能阅读完成。

简介

爬虫罕用与毕业设计的数据收集阶段, 多同学要求和反馈, 让学长出一片解说爬虫的文章.
本文将形容和解析爬虫怎么应用, 并且给出实例.

所谓爬虫就是编写代码从网页上爬取本人想要的数据,代码的品质决定了你是否准确的爬取想要失去的数据,失去数据后是否直观正确的剖析。

Python 无疑是所有语言中最适宜爬虫的。Python 自身很简略,可是真正用好它须要学习大量的第三方库插件。比方 matplotlib 库,是一个仿照 matalab 的弱小的绘图库,用它能够将爬下来的数据画出饼图、折线图、散点图等等,甚至是 3D 图来直观的展现。

Python 第三方库的装置能够手动装置,然而更为简便的是在命令行间接输出一行代码即可主动搜寻资源并装置。而且十分智能,能够辨认本人电脑的类型找到最合适的版本。

Pip install + 你所须要的第三方库

或者是 easy install + 你所须要的第三方库

这里倡议大家应用 pip 装置,因为 pip 能够装置也能够卸载,而另一种办法只能装置。如果遇到你想应用新的版本的第三方库,应用 pip 的劣势就会显现出来。

交互界面

[图片上传失败 …(image-7b940a-1604630578613)]

def web():
    root = Tk()
    Label(root,text='请输出网址').grid(row=0,column=0)           #对 Label 内容进行表格局布局
    Label(root,text='请输出 User-Agent :').grid(row=1,column=0)
    v1=StringVar()    #设置变量
    v2=StringVar()   
    e1 = Entry(root,textvariable=v1)            #用于贮存 输出的内容
    e2 = Entry(root,textvariable=v2)
    e1.grid(row=0,column=1,padx=10,pady=5)      #进行表格局布局                
    e2.grid (row=1,column=1,padx=10,pady=5)
    url = e1.get()                              #将从输入框中失去的网址赋值给 url
    head = e2.get()

爬虫局部

应用爬虫爬取轻易一个博客,并对其所有的文章进行结巴分词。从而提取关键词,剖析这位博主应用当下比拟热的与互联网相干的词汇的频率。
[图片上传失败 …(image-75c9f8-1604630578613)]
先编写一个函数 download()获取 url,接着编写一个函数 parse_descrtion()解析从
url 中获取的 html,最初结巴分词。

def download(url):                          #通过给定的 url 爬出数据
    if url is None:
        return None
    try:
        response = requests.get(url, headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36', })
    if (response.status_code == 200):
        return response.content
    return None
    except:
        return None

 

def  parse_descrtion(html):                                                         
    if html is None:
        return None
    soup = BeautifulSoup(html, "html.parser")         #html 字符串创立 BeautifulSoup
    links = soup.find_all('a', href=re.compile(r'/forezp/article/details'))
    for link in links:
        titles.add(link.get_text())



def jiebaSet():
    strs=''
    if titles.__len__()==0:
        return
    for item in titles:
        strs=strs+item;
    tags = jieba.analyse.extract_tags(strs, topK=100, withWeight=True)
    for item in tags:
        print(item[0] + '\t' + str(int(item[1] * 1000)))

第一个函数没什么好说的。

第二个函数用到了 beautifulsoup,通过对网页的剖析,从而寻找所有的满足条件为
href=re.compile(r’/forezp/article/details’) 的 a 标签里的内容。

第三个函数就是结巴分词。接下来对结巴分词作简略的介绍。

反对三种分词模式。

准确模式:试图将句子最准确地切开,适宜文本剖析。

全模式:把句子中所有的能够成词的词语都扫描进去,速度十分快,然而不能解决歧义。

搜索引擎模式:在准确模式的根底上,对长词再次切分,进步召回率,适宜用于搜索引擎分词。

举个例子,结巴分词“我来到北京清华大学”这句话。

【全模式】: 我 / 来到 / 北京 / 清华 / 清华大学 / 华大 / 大学

【准确模式】: 我 / 来到 / 北京 / 清华大学

数据存储

我这里应用 mongoDB 数据库, 同学们能够选取本人相熟或符合要求的数据库
client = pymongo.MongoClient(“localhost”, 27017)

这句是应用给定主机地位和端口。pymongo 的 Connection()办法不倡议应用,官网举荐新办法 MongoClient()。

db = client[‘local’]

这句是将创立好 mongoDB 后默认存在的两个数据库中的其中一个“local”赋给 db,这样
db 在当前的程序里就代表数据库 local。

posts = db.pymongo_test
post_id = posts.insert(data)
将 local 里默认的一个汇合“pymongo_test”赋值给 posts,并且用 insert 办法单个插入数据。最初回到结巴分词里的一个循环程序里,将数据顺次插入。

以上是无关连贯数据库的外围代码,接下来介绍如何启动 mongoDB 数据库。(我一开始编程怎么都连贯不上,起初发现是数据库本身没有启动,唉,编程里产生的傻逼事件切实是太多了。)

微软徽标 +R,输出 cmd,找“mongodb”的门路,而后运行 mongod 开启命令,同时用 –dbpath 指定数据寄存地点为“db”文件夹。


启动 mongoDB

我这里是放在了 E 盘,大家依据须要本人设置。最初要看下是否开启胜利,从图中的信息中获知,mongodb 采纳 27017 端口,那么咱们就在浏览器输 http://localhost:27017,关上后 mongodb 通知咱们在 27017 上 Add 1000 能够用 http 模式查看 mongodb 的治理信息。

正文完
 0