用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境!

代码 代码 1552 人阅读 | 0 人回复

<
用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境!

热热闹闹的开学季又来了,小伙伴们又可以在一起玩耍了,不对是在一起学习了,哈哈。
用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150628jpn09twjd57svb0n.jpg

再过几周就是国庆假期,想想照旧很冲动的,我决定给大家做个游记爬虫,大家早做准备。。嘿嘿
用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150629fjppqv5f5bb14qp9.png

代码操纵展示:

用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150629pjtlk0ltx6ihnkig.gif

本日目标地址https://travel.qunar.com/place/
开发情况
windows10
python3.6
开发工具
pycharm

tkinter、re、os、lxml、threading、xlwt、xlrd
1.首先先将天下所有的城市名称和id拿到

用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150630fa5rrroynya5adrp.jpg

2.右击检查,进行抓包,找到数据所在的包

用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150630lel3b1vw4bwv31go.jpg

3.发送请求,获取响应,解析响应

  1. # 发送请求,获取响应,解析响应
  2.         response = session.get(self.start_url, headers=self.headers).html
  3.         # 提取所有目的地(城市)的url
  4.         city_url_list = response.xpath(
  5.             &#39;//*[@id="js_destination_recommend"]/div[2]/div[1]/div[2]/dl/dd/div/ul/li/a/@href&#39;)
  6.         city_id_list = [&#39;&#39;.join(re.findall(r&#39;-cs(.*?)-&#39;, i)) for i in city_url_list]
  7.         # 提取所有的城市名称
  8.         city_name_list = response.xpath(
  9.             &#39;//*[@id="js_destination_recommend"]/div[2]/div[1]/div[2]/dl/dd/div/ul/li/a/text()&#39;)
复制代码
4.随机点一个城市,进入该城市,查看游记攻略,本文选的是上海

用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150631c16jyc122yxz62b2.jpg

5.进行抓包,查找需要的信息

用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150631qfwfiyj5iftzz57j.jpg

  1.                                 # 提取游记作者
  2.                 author_list = html.xpath(&#39;//span[@class="user_name"]/a/text()&#39;)
  3.                 # 出发时间
  4.                 date_list = html.xpath(&#39;//span[@class="date"]/text()&#39;)
  5.                 # 游玩时间
  6.                 days_list = html.xpath(&#39;//span[@class="days"]/text()&#39;)
  7.                 # 阅读量
  8.                 read_list = html.xpath(&#39;//span[@class="icon_view"]/span/text()&#39;)
  9.                 # 点赞量
  10.                 like_count_list = html.xpath(&#39;//span[@class="icon_love"]/span/text()&#39;)
  11.                 # 评论量
  12.                 icon_list = html.xpath(&#39;//span[@class="icon_comment"]/span/text()&#39;)
  13.                 # 游记地址
  14.                 text_url_list = html.xpath(&#39;//h3[@class="tit"]/a/@href&#39;)
复制代码
6.进行翻页抓包,第二页为异步加载

用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150632ojseond4kgyygy6x.jpg

用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150632lwj642dwa69mazrs.jpg

7.在上一张图中点击Headers,获取游记攻略的请求地址

用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150632jbzh2mp5bpcfgm59.jpg

这样思路是不是清晰一点,来观察一下请求地址https://travel.qunar.com/place/api/html/books/dist/299878?sortField=0&pageSize=10&page=2
此中299878是上海城市的id page是页数

源码展示:

  1. # !/usr/bin/nev python# -*-coding:utf8-*-import tkinter as tkimport refrom lxml import etreeimport tkinter.messagebox as msgboxfrom requests_html import HTMLSessionfrom threading import Threadimport os, xlwt, xlrdfrom xlutils.copy import copysession = HTMLSession()class TKSpider(object):    def __init__(self):        # 定义循环条件        self.is_running = True        # 定义起始的页码        self.start_page = 1        """定义可视化窗口,并设置窗口和主题大小布局"""        self.window = tk.Tk()        self.window.title(&#39;爬虫数据采集&#39;)        self.window.geometry(&#39;1000x800&#39;)        """创建label_user按钮,与说明书"""        self.label_user = tk.Label(self.window, text=&#39;请选择城市输入序号:&#39;, font=(&#39;Arial&#39;, 12), width=30, height=2)        self.label_user.pack()        """创建label_user关联输入"""        self.entry_user = tk.Entry(self.window, show=None, font=(&#39;Arial&#39;, 14))        self.entry_user.pack(after=self.label_user)        """创建Text富文本框,用于按钮操纵结果的展示"""        # 定义富文本框滑动条        scroll = tk.Scrollbar()        # 放到窗口的右侧, 添补Y竖直方向        scroll.pack(side=tk.RIGHT, fill=tk.Y)        self.text1 = tk.Text(self.window, font=(&#39;Arial&#39;, 12), width=75, height=20)        self.text1.pack()        # 两个控件关联        scroll.config(command=self.text1.yview)        self.text1.config(yscrollcommand=scroll.set)        """定义按钮1,绑定触发事件方法"""        self.button_1 = tk.Button(self.window, text=&#39;下载游记&#39;, font=(&#39;Arial&#39;, 12), width=10, height=1, command=self.parse_hit_click_1)        self.button_1.pack(before=self.text1)        """定义按钮2,绑定触发事件方法"""        self.button_2 = tk.Button(self.window, text=&#39;扫除&#39;, font=(&#39;Arial&#39;, 12), width=10, height=1, command=self.parse_hit_click_2)        self.button_2.pack(anchor="e")        """定义富文本文字的显示"""        self.start_url = &#39;https://travel.qunar.com/place/&#39;        self.headers = {            &#39;user-agent&#39;: &#39;Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36&#39;        }        # 发送请求,获取响应,解析响应
  2.         response = session.get(self.start_url, headers=self.headers).html
  3.         # 提取所有目的地(城市)的url
  4.         city_url_list = response.xpath(
  5.             &#39;//*[@id="js_destination_recommend"]/div[2]/div[1]/div[2]/dl/dd/div/ul/li/a/@href&#39;)
  6.         city_id_list = [&#39;&#39;.join(re.findall(r&#39;-cs(.*?)-&#39;, i)) for i in city_url_list]
  7.         # 提取所有的城市名称
  8.         city_name_list = response.xpath(
  9.             &#39;//*[@id="js_destination_recommend"]/div[2]/div[1]/div[2]/dl/dd/div/ul/li/a/text()&#39;)        self.dict_data = dict(zip(city_id_list, city_name_list))        text_info = &#39;&#39;        for city_id, city_name in zip(city_id_list, city_name_list):            text_info += city_id + ":" + city_name + &#39;\t\t&#39;        self.text1.insert("insert", text_info)    def parse_hit_click_1(self):        """线程关联:定义触发事件1, 将执行结果显示在文本框中"""        Thread(target=self.parse_start_url_job).start()    def parse_city_id_name_info(self):        """        富文本内容展示:        :return:        """        # 发送请求,获取响应,解析响应
  10.         response = session.get(self.start_url, headers=self.headers).html
  11.         # 提取所有目的地(城市)的url
  12.         city_url_list = response.xpath(
  13.             &#39;//*[@id="js_destination_recommend"]/div[2]/div[1]/div[2]/dl/dd/div/ul/li/a/@href&#39;)
  14.         city_id_list = [&#39;&#39;.join(re.findall(r&#39;-cs(.*?)-&#39;, i)) for i in city_url_list]
  15.         # 提取所有的城市名称
  16.         city_name_list = response.xpath(
  17.             &#39;//*[@id="js_destination_recommend"]/div[2]/div[1]/div[2]/dl/dd/div/ul/li/a/text()&#39;)        self.dict_data = dict(zip(city_id_list, city_name_list))        text_info = &#39;&#39;        for city_id, city_name in zip(city_id_list, city_name_list):            text_info += city_id + ":" + city_name + &#39;\t\t****&#39;        self.text1.insert("insert", text_info)    def parse_start_url_job(self):        # 从输入窗口获取输入        city_id = self.entry_user.get()        self.text1.delete("1.0", "end")        # 异常捕获,是否存在key值        try:            city_name = self.dict_data[city_id]            self.parse_request_yj(city_id, city_name)        except:            # 报错提示            msgbox.showerror(title=&#39;错误&#39;, message=&#39;检测到瞎搞,请重新输入!&#39;)    def parse_request_yj(self, city_id, city_name):        """        拼接游记地址,进行翻页        :param city_id: 城市的id        :param city_name: 城市的名称        :return:        """        while self.is_running:            yj_url = f&#39;https://travel.qunar.com/place/api/html/books/dist/{city_id}?sortField=0&pageSize=10&page={self.start_page}&#39;            response = session.get(yj_url, headers=self.headers).json()[&#39;data&#39;].replace(&#39;\\&#39;, &#39;&#39;)            html = etree.HTML(response)            # 提取游记的标题:            title_list = html.xpath(&#39;//h3[@class="tit"]/a/text()&#39;)            # 死循环的终止条件            if not title_list:                print("该城市已经采集到最后一页----------城市切换中---------logging!!!")                break            else:                # 提取游记作者                author_list = html.xpath(&#39;//span[@class="user_name"]/a/text()&#39;)                # 出发时间                date_list = html.xpath(&#39;//span[@class="date"]/text()&#39;)                # 游玩时间                days_list = html.xpath(&#39;//span[@class="days"]/text()&#39;)                # 阅读量                read_list = html.xpath(&#39;//span[@class="icon_view"]/span/text()&#39;)                # 点赞量                like_count_list = html.xpath(&#39;//span[@class="icon_love"]/span/text()&#39;)                # 评论量                icon_list = html.xpath(&#39;//span[@class="icon_comment"]/span/text()&#39;)                # 游记地址                text_url_list = html.xpath(&#39;//h3[@class="tit"]/a/@href&#39;)                """构造保存数据格式字典"""                for a, b, c, d, e, f, g, h in zip(title_list, author_list, date_list, days_list, read_list, like_count_list, icon_list, text_url_list):                    dict_dd = {                        city_name: [a, b, c, d, e, f, g, h]                    }                    self.text1.insert("insert", f"{a}-----------采集完成!!!" + &#39;\n&#39;)                    self.SaveExcels(dict_dd)            self.start_page += 1    def SaveExcels(self, data):        # 获取表的名称        sheet_name = [i for i in data.keys()][0]        # 创建保存excel表格的文件夹        # os.getcwd() 获取当前文件路径        os_mkdir_path = os.getcwd() + &#39;/数据/&#39;        # 判断这个路径是否存在,不存在就创建        if not os.path.exists(os_mkdir_path):            os.mkdir(os_mkdir_path)        # 判断excel表格是否存在           工作簿文件名称        os_excel_path = os_mkdir_path + &#39;数据.xls&#39;        if not os.path.exists(os_excel_path):            # 不存在,创建工作簿(也就是创建excel表格)            workbook = xlwt.Workbook(encoding=&#39;utf-8&#39;)            """工作簿中创建新的sheet表"""  # 设置表名            worksheet1 = workbook.add_sheet(sheet_name, cell_overwrite_ok=True)            """设置sheet表的表头"""            sheet1_headers = (&#39;游记标题&#39;, &#39;发布游记的作者名称&#39;, &#39;出发时间&#39;, &#39;游玩时间&#39;, &#39;阅读量&#39;, &#39;点赞量&#39;, &#39;评论量&#39;, &#39;游记地址&#39;)            # 将表头写入工作簿            for header_num in range(0, len(sheet1_headers)):                # 设置表格长度                worksheet1.col(header_num).width = 2560 * 3                # 写入表头        行,    列,           内容                worksheet1.write(0, header_num, sheet1_headers[header_num])            # 循环竣事,代表表头写入完成,保存工作簿            workbook.save(os_excel_path)        """=============================已有工作簿添加新表==============================================="""        # 打开工作薄        workbook = xlrd.open_workbook(os_excel_path)        # 获取工作薄中所有表的名称        sheets_list = workbook.sheet_names()        # 如果表名称:字典的key值不在工作簿的表名列表中        if sheet_name not in sheets_list:            # 复制先有工作簿对象            work = copy(workbook)            # 通过复制过来的工作簿对象,创建新表  -- 保存原有表结构            sh = work.add_sheet(sheet_name)            # 给新表设置表头            excel_headers_tuple = (&#39;游记标题&#39;, &#39;发布游记的作者名称&#39;, &#39;出发时间&#39;, &#39;游玩时间&#39;, &#39;阅读量&#39;, &#39;点赞量&#39;, &#39;评论量&#39;, &#39;游记地址&#39;)            for head_num in range(0, len(excel_headers_tuple)):                sh.col(head_num).width = 2560 * 3                #               行,列,  内容,            样式                sh.write(0, head_num, excel_headers_tuple[head_num])            work.save(os_excel_path)        """========================================================================================="""        # 判断工作簿是否存在        if os.path.exists(os_excel_path):            # 打开工作簿            workbook = xlrd.open_workbook(os_excel_path)            # 获取工作薄中所有表的个数            sheets = workbook.sheet_names()            for i in range(len(sheets)):                for name in data.keys():                    worksheet = workbook.sheet_by_name(sheets[i])                    # 获取工作薄中所有表中的表名与数据名对比                    if worksheet.name == name:                        # 获取表中已存在的行数                        rows_old = worksheet.nrows                        # 将xlrd对象拷贝转化为xlwt对象                        new_workbook = copy(workbook)                        # 获取转化后的工作薄中的第i张表                        new_worksheet = new_workbook.get_sheet(i)                        for num in range(0, len(data[name])):                            new_worksheet.write(rows_old, num, data[name][num])                        new_workbook.save(os_excel_path)    def parse_hit_click_2(self):        """定义触发事件2,删除文本框中内容"""        self.entry_user.delete(0, "end")        # self.entry_passwd.delete(0, "end")        self.text1.delete("1.0", "end")        self.parse_city_id_name_info()    def center(self):        """创建窗口居中函数方法"""        ws = self.window.winfo_screenwidth()        hs = self.window.winfo_screenheight()        x = int((ws / 2) - (800 / 2))        y = int((hs / 2) - (600 / 2))        self.window.geometry(&#39;{}x{}+{}+{}&#39;.format(800, 600, x, y))    def run_loop(self):        """克制修改窗体大小规格"""        self.window.resizable(False, False)        """窗口居中"""        self.center()        """窗口维持--持久化"""        self.window.mainloop()if __name__ == &#39;__main__&#39;:    t = TKSpider()    t.run_loop()
复制代码
代码仅供学习!!

代码仅供学习!!

代码仅供学习!!

祝大家学习python顺利!

用python爬取去哪儿游记攻略为十月假期做准备。。。爬虫之路,永无止境! 150633gixhxjyyliizx7gr.jpg


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
1、本网站属于个人的非赢利性网站,转载的文章遵循原作者的版权声明,如果原文没有版权声明,按照目前互联网开放的原则,我们将在不通知作者的情况下,转载文章;如果原文明确注明“禁止转载”,我们一定不会转载。如果我们转载的文章不符合作者的版权声明或者作者不想让我们转载您的文章的话,请您发送邮箱:Cdnjson@163.com提供相关证明,我们将积极配合您!
2、本网站转载文章仅为传播更多信息之目的,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证信息的正确性和完整性,且不对因信息的不正确或遗漏导致的任何损失或损害承担责任。
3、任何透过本网站网页而链接及得到的资讯、产品及服务,本网站概不负责,亦不负任何法律责任。
4、本网站所刊发、转载的文章,其版权均归原作者所有,如其他媒体、网站或个人从本网下载使用,请在转载有关文章时务必尊重该文章的著作权,保留本网注明的“稿件来源”,并自负版权等法律责任。
回复 关闭延时

使用道具 举报

 
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则