利用python爬取贝壳网租房信息 红太狼 2021-12-22 03:45 582阅读 0赞 最近准备换房子,在网站上寻找各种房源信息,看得眼花缭乱,于是想着能否将基本信息汇总起来便于查找,便用python将基本信息爬下来放到excel,这样一来就容易搜索了。 **1. 利用lxml中的xpath提取信息** xpath是一门在 xml文档中查找信息的语言,xpath可用来在 xml 文档中对元素和属性进行遍历。对比正则表达式 re两者可以完成同样的工作,实现的功能也差不多,但xpath明显比re具有优势。具有如下优点:(1)可在xml中查找信息 ;(2)支持html的查找;(3)通过元素和属性进行导航 **2. 利用xlsxwriter模块将信息保存只excel** xlsxwriter是操作excel的库,可以帮助我们高效快速的,大批量的,自动化的操作excel。它可以写数据,画图,完成大部分常用的excel操作。缺点是xlsxwriter 只能创建新文件,不可以修改原有文件,如果创建新文件时与原有文件同名,则会覆盖原有文件。 **3. 爬取思路** 观察发现贝壳网租房信息总共是100页,我们可以分每页获取到html代码,然后提取需要的信息保存至字典,将所有页面的信息汇总,最后将字典数据写入excel。 **4. 爬虫源代码** # @Author: Rainbowhhy # @Date : 19-6-25 下午6:35 import requests import time from lxml import etree import xlsxwriter def get_html(page): """获取网站html代码""" url = "https://bj.zu.ke.com/zufang/pg{}/#contentList".format(page) headers = { 'user-agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36' } response = requests.get(url, headers=headers).text return response def parse_html(htmlcode, data): """解析html代码""" content = etree.HTML(htmlcode) results = content.xpath('///div[@class="content__article"]/div[1]/div') for result in results[:]: community = result.xpath('./div[1]/p[@class="content__list--item--title twoline"]/a/text()')[0].replace('\n', '').strip().split()[ 0] address = "-".join(result.xpath('./div/p[@class="content__list--item--des"]/a/text()')) landlord = result.xpath('./div/p[@class="content__list--item--brand oneline"]/text()')[0].replace('\n', '').strip() if len( result.xpath('./div/p[@class="content__list--item--brand oneline"]/text()')) > 0 else "" postime = result.xpath('./div/p[@class="content__list--item--time oneline"]/text()')[0] introduction = ",".join(result.xpath('./div/p[@class="content__list--item--bottom oneline"]/i/text()')) price = result.xpath('./div/span/em/text()')[0] description = "".join(result.xpath('./div/p[2]/text()')).replace('\n', '').replace('-', '').strip().split() area = description[0] count = len(description) if count == 6: orientation = description[1] + description[2] + description[3] + description[4] elif count == 5: orientation = description[1] + description[2] + description[3] elif count == 4: orientation = description[1] + description[2] elif count == 3: orientation = description[1] else: orientation = "" pattern = description[-1] floor = "".join(result.xpath('./div/p[2]/span/text()')[1].replace('\n', '').strip().split()).strip() if len( result.xpath('./div/p[2]/span/text()')) > 1 else "" date_time = time.strftime("%Y-%m-%d", time.localtime()) """数据存入字典""" data_dict = { "community": community, "address": address, "landlord": landlord, "postime": postime, "introduction": introduction, "price": '¥' + price, "area": area, "orientation": orientation, "pattern": pattern, "floor": floor, "date_time": date_time } data.append(data_dict) def excel_storage(response): """将字典数据写入excel""" workbook = xlsxwriter.Workbook('./beikeHouse.xlsx') worksheet = workbook.add_worksheet() """设置标题加粗""" bold_format = workbook.add_format({ 'bold': True}) worksheet.write('A1', '小区名称', bold_format) worksheet.write('B1', '租房地址', bold_format) worksheet.write('C1', '房屋来源', bold_format) worksheet.write('D1', '发布时间', bold_format) worksheet.write('E1', '租房说明', bold_format) worksheet.write('F1', '房屋价格', bold_format) worksheet.write('G1', '房屋面积', bold_format) worksheet.write('H1', '房屋朝向', bold_format) worksheet.write('I1', '房屋户型', bold_format) worksheet.write('J1', '房屋楼层', bold_format) worksheet.write('K1', '查看日期', bold_format) row = 1 col = 0 for item in response: worksheet.write_string(row, col, item['community']) worksheet.write_string(row, col + 1, item['address']) worksheet.write_string(row, col + 2, item['landlord']) worksheet.write_string(row, col + 3, item['postime']) worksheet.write_string(row, col + 4, item['introduction']) worksheet.write_string(row, col + 5, item['price']) worksheet.write_string(row, col + 6, item['area']) worksheet.write_string(row, col + 7, item['orientation']) worksheet.write_string(row, col + 8, item['pattern']) worksheet.write_string(row, col + 9, item['floor']) worksheet.write_string(row, col + 10, item['date_time']) row += 1 workbook.close() def main(): all_datas = [] """网站总共100页,循环100次""" for page in range(1, 100): html = get_html(page) parse_html(html, all_datas) excel_storage(all_datas) if __name__ == '__main__': main() **5. 信息截图** **![1450914-20190625230205332-1921987143.png][]** 转载于:https://www.cnblogs.com/technology178/p/11087251.html [1450914-20190625230205332-1921987143.png]: /images/20211220/89caa008db844bab89893f46ccb829a3.png
相关 python 用代理简单的爬取ganji网租房信息 python 用代理proxy 简单的爬取ganji网的租房信息。 环境: 1.python3.7 2.requests 请求模块(pip instal reque 红太狼/ 2023年06月16日 03:53/ 0 赞/ 10 阅读
相关 python爬取自如网房源信息 前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 作者: Star\_Zhao PS:如有 柔光的暖阳◎/ 2023年02月19日 12:22/ 0 赞/ 13 阅读
相关 Request爬取拉勾网信息 首先, 拉勾网是一个典型的难以爬取信息的网站。是因为此网站包含robot协议,获取爬取请求做限制。导致无法顺利爬虫。 另外,职位信息是Ajax文件加载进来的,单纯了通过源码获 叁歲伎倆/ 2022年05月16日 02:40/ 0 赞/ 363 阅读
相关 python 爬取了租房数据 爬取链接:[https://sh.lianjia.com/zufang/][https_sh.lianjia.com_zufang] 代码如下: import 谁借莪1个温暖的怀抱¢/ 2022年05月14日 07:42/ 0 赞/ 341 阅读
相关 50 行代码爬取链家租房信息 最近自己开始学习数据分析的技术,但数据分析最重要的就是数据。没有数据怎么办?那就自己爬一些数据。大家一定要记得爬虫只是获取数据的一种手段,但如果不用一系列科学的方式去分析这些数 淡淡的烟草味﹌/ 2022年02月02日 03:25/ 0 赞/ 322 阅读
相关 利用python爬取贝壳网租房信息 最近准备换房子,在网站上寻找各种房源信息,看得眼花缭乱,于是想着能否将基本信息汇总起来便于查找,便用python将基本信息爬下来放到excel,这样一来就容易搜索了。 1. 红太狼/ 2021年12月22日 03:45/ 0 赞/ 583 阅读
相关 JAVA爬虫 - 爬取豆瓣租房信息 最近打算换房子,豆瓣上面的租房小组相对来说较为真实,但是发现搜索功能不是那么友好,所以想把帖子的数据都爬到数据库,自己写sql语句去筛选,开搞! 每步过程都贴上完整代码,感兴 柔情只为你懂/ 2021年12月17日 12:04/ 0 赞/ 445 阅读
相关 python爬虫爬取腾讯网招聘信息 python爬虫爬取腾讯网招聘信息 话不多说,直接上代码! from bs4 import BeautifulSoup import urllib2 朱雀/ 2021年07月26日 20:01/ 0 赞/ 790 阅读
相关 python爬虫爬取拉勾网招聘信息 python爬虫爬取拉勾网招聘信息 话不多说,直接上代码! import math import random import requests 叁歲伎倆/ 2021年07月26日 12:55/ 0 赞/ 769 阅读
还没有评论,来说两句吧...