Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

大数据 数据分析
本文主要分为两部分:Python爬取赶集网北京二手房数据,R对爬取的二手房房价做线性回归分析,适合刚刚接触Python&R的同学们学习参考。

房价高是北漂们一直关心的话题,本文就对北京的二手房数据进行了分析。

本文主要分为两部分:Python爬取赶集网北京二手房数据,R对爬取的二手房房价做线性回归分析,适合刚刚接触Python&R的同学们学习参考。

01、Python爬取赶集网北京二手房数据

[[240927]]

入门爬虫一个月,所以对每一个网站都使用了Xpath、Beautiful Soup、正则三种方法分别爬取,用于练习巩固。数据来源如下:

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

Xpath爬取:

这里主要解决运用Xpath如何判断某些元素是否存在的问题,比如如果房屋没有装修信息,不加上判断,某些元素不存在就会导致爬取中断。

  1. import requests 
  2. from lxml import etree 
  3. from requests.exceptions import RequestException 
  4. import multiprocessing 
  5. import time 
  6.  
  7. headers = { 
  8.     'User-Agent''Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
  9.  
  10. def get_one_page(url): 
  11.     try: 
  12.         response = requests.get(url, headers=headers) 
  13.         if response.status_code == 200: 
  14.             return response.text 
  15.         return None 
  16.     except RequestException: 
  17.         return None 
  18.  
  19. def parse_one_page(content): 
  20.     try: 
  21.         selector = etree.HTML(content) 
  22.         ALL = selector.xpath('//*[@id="f_mew_list"]/div[6]/div[1]/div[3]/div[1]/div'
  23.         for div in ALL
  24.             yield { 
  25.                 'Name': div.xpath('dl/dd[1]/a/text()')[0], 
  26.                 'Type': div.xpath('dl/dd[2]/span[1]/text()')[0], 
  27.                 'Area': div.xpath('dl/dd[2]/span[3]/text()')[0], 
  28.                 'Towards': div.xpath('dl/dd[2]/span[5]/text()')[0], 
  29.                 'Floor': div.xpath('dl/dd[2]/span[7]/text()')[0].strip().replace('\n'""), 
  30.                 'Decorate': div.xpath('dl/dd[2]/span[9]/text()')[0], 
  31.                 #地址需要特殊处理一下 
  32.                 'Address': div.xpath('dl/dd[3]//text()')[1]+div.xpath('dl/dd[3]//text()')[3].replace('\n','')+div.xpath('dl/dd[3]//text()')[4].strip(), 
  33.                 'TotalPrice': div.xpath('dl/dd[5]/div[1]/span[1]/text()')[0] + div.xpath('dl/dd[5]/div[1]/span[2]/text()')[0], 
  34.                 'Price': div.xpath('dl/dd[5]/div[2]/text()')[0] 
  35.             } 
  36.         if div['Name','Type','Area','Towards','Floor','Decorate','Address','TotalPrice','Price'] == None:##这里加上判断,如果其中一个元素为空,则输出None 
  37.             return None 
  38.     except Exception: 
  39.         return None 
  40.  
  41. def main(): 
  42.     for i in range(1, 500):#这里设置爬取500页数据,在数据范围内,大家可以自设置爬取的量 
  43.         url = 'http://bj.ganji.com/fang5/o{}/'.format(i) 
  44.         content = get_one_page(url) 
  45.         print('第{}页抓取完毕'.format(i)) 
  46.         for div in parse_one_page(content): 
  47.             print(div) 
  48.  
  49. if __name__ == '__main__'
  50.     main() 

Beautiful Soup爬取:

  1. import requests 
  2. import re 
  3. from requests.exceptions import RequestException 
  4. from bs4 import BeautifulSoup 
  5. import csv 
  6. import time 
  7.  
  8. headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
  9.  
  10. def get_one_page(url): 
  11.     try: 
  12.         response = requests.get(url,headers = headers) 
  13.         if response.status_code == 200: 
  14.             return response.text 
  15.         return None 
  16.     except RequestException: 
  17.         return None 
  18.  
  19. def parse_one_page(content): 
  20.     try: 
  21.         soup = BeautifulSoup(content,'html.parser'
  22.         items = soup.find('div',class_=re.compile('js-tips-list')) 
  23.         for div in items.find_all('div',class_=re.compile('ershoufang-list')): 
  24.             yield { 
  25.                 'Name':div.find('a',class_=re.compile('js-title')).text, 
  26.                 'Type': div.find('dd', class_=re.compile('size')).contents[1].text,#tag的 .contents 属性可以将tag的子节点以列表的方式输出 
  27.                 'Area':div.find('dd',class_=re.compile('size')).contents[5].text, 
  28.                 'Towards':div.find('dd',class_=re.compile('size')).contents[9].text, 
  29.                 'Floor':div.find('dd',class_=re.compile('size')).contents[13].text.replace('\n',''), 
  30.                 'Decorate':div.find('dd',class_=re.compile('size')).contents[17].text, 
  31.                 'Address':div.find('span',class_=re.compile('area')).text.strip().replace(' ','').replace('\n',''), 
  32.                 'TotalPrice':div.find('span',class_=re.compile('js-price')).text+div.find('span',class_=re.compile('yue')).text, 
  33.                 'Price':div.find('div',class_=re.compile('time')).text 
  34.             } 
  35.         #有一些二手房信息缺少部分信息,如:缺少装修信息,或者缺少楼层信息,这时候需要加个判断,不然爬取就会中断。 
  36.         if div['Name''Type''Area''Towards''Floor''Decorate''Address''TotalPrice''Price'] == None: 
  37.                 return None 
  38.     except Exception: 
  39.         return None 
  40.  
  41. def main(): 
  42.     for i in range(1,50): 
  43.         url = 'http://bj.ganji.com/fang5/o{}/'.format(i) 
  44.         content = get_one_page(url) 
  45.         print('第{}页抓取完毕'.format(i)) 
  46.         for div in parse_one_page(content): 
  47.             print(div) 
  48.         with open('Data.csv''a', newline=''as f:  # Data.csv 文件存储的路径,如果默认路径就直接写文件名即可。 
  49.             fieldnames = ['Name''Type''Area''Towards''Floor''Decorate''Address''TotalPrice''Price'
  50.             writer = csv.DictWriter(f, fieldnames=fieldnames) 
  51.             writer.writeheader() 
  52.             for item in parse_one_page(content): 
  53.                 writer.writerow(item) 
  54.         time.sleep(3)#设置爬取频率,一开始我就是爬取的太猛,导致网页需要验证。 
  55.  
  56. if __name__=='__main__'
  57.     main() 

正则爬取:我研究了好久,还是没有解决。

这一过程中容易遇见的问题有:

  • 有一些房屋缺少部分信息,如缺少装修信息,这个时候需要加一个判断,如果不加判断,爬取就会自动终止(我在这里跌了很大的坑)。

Data.csv知识点存储文件路径默认是工作目录,关于Python中如何查看工作目录:

  1. import os  
  2.  
  3. #查看pyhton 的默认工作目录 
  4. print(os.getcwd()) 
  5.  
  6. #修改时工作目录 
  7. os.chdir('e:\\workpython'
  8. print(os.getcwd()) 
  9. #输出工作目录 
  10. e:\workpython 
  • 爬虫打印的是字典形式,每个房屋信息都是一个字典,由于Python中excel相关库是知识盲点,所以爬虫的时候将字典循环直接写入了CSV。

Pycharm中打印如下:

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

将字典循环直接写入CSV效果如下:

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

  • 很多初学者对于Address不知如何处理,这里强调一下Beautiful Soup 中.contents的用法,亲身体会,我在这里花了好多时间才找到答案。

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

02、R对爬取的二手房房价做一般线性回归分析

下面我们用R对抓取的赶集网北京二手房数据做一些简单的分析。

数据的说明

  • Name:主要是商家的醒目标题,不具备分析参考意义
  • Type:卧室数、客厅数、卫生间数
  • Area:面积(平方米)
  • Towards:朝向
  • Floor:楼层
  • Decorate:装修情况,如精装修、简单装修、毛坯房
  • Address:二手房的地址
  • TotalPrice:总价
  • Price:均价(元/平方米)

数据清洗

  1. data<-read.csv("E://Data For R/RData/data.csv"
  2. DATA<-data[,-c(1,7)]#将Name和Address两列去掉 
  3. DATA[sample(1:nrow(DATA),size=10),] 

 

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

  1. #在爬取的时候加入了判断,所以不知道爬取的数据中是否存在缺失值,这里检查一下 
  2. colSums(is.na(DATA)) 

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

  1. #这里将Type的卧室客厅和卫生间分为三个不同的列 
  2. ##这里需要注意,有一些房屋没有客厅如:1室1卫这时候需要单独处理,还有一些没有厕所信息。 
  3. library(tidyr) 
  4. library(stringr) 
  5. DATA=separate(data=DATA,col=Type,into = c("Bedrooms","Halls"),sep="室"
  6. DATA=separate(data=DATA,col=Halls,into = c("Halls","Toilet"),sep="厅"
  7. ##将卫生间后面的汉字去掉 
  8. DATA$Toilet<-str_replace(DATA$Toilet,"卫",""
  9. ###如图六,将Halls中带有汉字去掉,因为有一些房屋信息没有客厅,如:1室1厅,在分成卧室和客厅时,会将卫生间分到客厅一列。 
  10. DATA$Halls<-str_replace(DATA$Halls,"卫",""
  11. ##取出没有客厅信息的数据,这些数据被separate到Halls列 
  12. newdata<-DATA[which(DATA$Toilet %in% NA),2] 
  13. newdata 
  14. ##将没有客厅的房屋信息Halls列填充为0 
  15. DATA[which(DATA$Toilet %in% NA),2]<-0 
  16. DATA[which(DATA$Toilet %in% NA),3]<-newdata 
  17. colSums(DATA==""
  18.   Bedrooms      Halls     Toilet       Area    Towards      Floor   Decorate  
  19.          0          0          2          0          0          0          0  
  20. TotalPrice      Price  
  21.          0          0  
  22.  
  23. ##发现有2个厕所没有信息,将其填写为0。 
  24. DATA$Toilet[DATA$Toilet == ""]<-0 

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

  1. ##这里将Area后的㎡去掉 
  2. DATA$Area<-str_replace(DATA$Area,"㎡",""
  3.  
  4. ##查看Towards的类型 
  5. table(DATA$Towards) 
  6.  
  7. Towards    北向  东北向  东南向  东西向    东向  南北向    南向  西北向  
  8.      51      25      23      50      65      32    1901     678      38  
  9.  西南向    西向  
  10.      28      26  
  11. ##将Floor信息带括号的全部去除 
  12. DATA$Floor<-str_replace(DATA$Floor,"[(].*[)]","")##正则表达式 
  13. #查看Floor的类别信息 
  14.  低层  地下  高层 共1层 共2层 共3层 共4层 共5层  中层  
  15.   632    32   790    36    61   101    68   130  1016  
  16.  
  17. #分别将TotalPrice和Price后面的万元、元/㎡去掉 
  18.  
  19. DATA$TotalPrice<-str_replace(DATA$TotalPrice,"万元",""
  20. DATA$Price<-str_replace(DATA$Price,"元/㎡",""
  21.  
  22. head(DATA) 

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

  1. ##将数据转换格式 
  2. DATA$Bedrooms<-as.factor(DATA$Bedrooms) 
  3. DATA$Halls<-as.factor(DATA$Halls) 
  4. DATA$Toilet<-as.factor(DATA$Toilet) 
  5. DATA$Area<-as.numeric(DATA$Area) 
  6. DATA$TotalPrice<-as.numeric(DATA$TotalPrice) 
  7. DATA$Price<-as.numeric(DATA$Price) 
  8. DATA$Towards<-as.factor(DATA$Towards) 
  9. DATA$Decorate<-as.factor(DATA$Decorate) 
  10. str(DATA) 

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

以上数据清洗完毕。

03、描述性分析

这部分的主要思路是探究单个自变量对因变量的影响,对房价的影响因素进行模拟探究之前,首先对各变量进行描述性分析,以初步判断房价的影响因素。这里探究各个因素对总价影响。

探究Bedrooms与TotalPrice的关系

  1. table(DATA$Bedrooms) 
  2.   1    2    3    4    5    6    7    9  
  3. 541 1225  779  193  102   20    5    1  
  4. ##由于拥有6、7、9个卧室数的数量较少,这里我们排出这些数据。 
  5. DATA<-DATA[-(which(DATA$Bedrooms %in"6")),] 
  6. DATA<-DATA[-(which(DATA$Bedrooms %in"7")),] 
  7. DATA<-DATA[-(which(DATA$Bedrooms %in"9")),] 
  8. table(DATA$Bedrooms) 
  9.    1    2    3    4    5  
  10.  541 1225  779  193  102  
  11.  
  12. library(ggplot2) 
  13. ggplot(DATA,aes(x=Bedrooms,y=TotalPrice))+geom_boxplot(col="red"

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

  1. DATA$Bedrooms<-as.numeric(DATA$Bedrooms) 
  2. ##这里将卧室数为1、2、3命名为A,4为B,5为C 
  3. DATA$Bedrooms[DATA$Bedrooms=='1']<-"A" 
  4. DATA$Bedrooms[DATA$Bedrooms=='2']<-"A" 
  5. DATA$Bedrooms[DATA$Bedrooms=='3']<-"A" 
  6. DATA$Bedrooms[DATA$Bedrooms=='4']<-"B" 
  7. DATA$Bedrooms[DATA$Bedrooms=='5']<-"C" 

不同卧室数,TotalPrice不同。且随着卧室数的增多,总价越高,符合大众的认知。

探究Halls与TotalPrice的关系

  1.  table(DATA$Halls)  
  2.    0    1    2    3    4    5    9  
  3.   20 1674 1050   77   18    1    0  
  4. ##5个客厅只有一个个体,我们这里将其排出 
  5. DATA<-DATA[-(which(DATA$Halls %in"5")),] 
  6. table(DATA$Halls) 
  7.    0    1    2    3    4    5    9  
  8.   20 1674 1050   77   18    0    0  
  9. ggplot(DATA,aes(x=Halls,y=TotalPrice))+geom_boxplot(col="red"

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

客厅数为3时候总价***,客厅数为0、1和2的时候总价低于客厅数3和客厅数4。

探究Toilet与TotalPrice的关系

  1. #探究卫生间与总价的关系 
  2. table(DATA$Toilet) 
  3.    0    1    2    3    4    5    6    7    9  
  4.    2 2142  470  116   74   26    7    2    0   
  5. #这里将卫生间数为0、6和7的去掉 
  6. DATA<-DATA[-(which(DATA$Toilet %in"0")),] 
  7. DATA<-DATA[-(which(DATA$Toilet %in"6")),] 
  8. DATA<-DATA[-(which(DATA$Toilet %in"7")),] 
  9. table(DATA$Toilet) 
  10.    0    1    2    3    4    5    6    7    9  
  11.    0 2142  470  116   74   26    0    0    0  
  12. ggplot(DATA,aes(x=Toilet,y=TotalPrice))+geom_boxplot(col="red"

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

一般卧室数越多,卫生间数也越多,即卫生间数越多,总价越高。

探究Area与TotalPrice的关系

  1. ggplot(DATA, aes(x=Area, y=TotalPrice)) + geom_point(col='red'

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

这个完全符合住房面积越大,总价越高。

探究Towards与TotalPrice的关系

  1. ggplot(DATA,aes(x=Towards,y=TotalPrice))+geom_boxplot(col="red"

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

探究Floor与TotalPrice的关系

  1. ggplot(DATA,aes(x=Floor,y=TotalPrice))+geom_boxplot(col="red"

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

图中信息显示楼层一共只有1、2、3、地下的总价较高。

探究Decorate与TotalPrice的关系

  1. ggplot(DATA,aes(x=Decorate,y=TotalPrice))+geom_boxplot(col="red"

 

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

不同装修信息对总价影响较小。

04、模型建立

  1. fit <-lm(TotalPrice~Bedrooms+Halls+Toilet+Area+Towards+Floor+Decorate,data=DATA) 
  2. summary(fit) 
  3.  
  4. Call: 
  5. lm(formula = TotalPrice ~ Bedrooms + Halls + Toilet + Area +  
  6.     Towards + Floor + Decorate, data = DATA) 
  7.  
  8. Residuals: 
  9.      Min       1Q   Median       3Q      Max  
  10. -1330.80  -103.49   -21.41    63.88  2961.59  
  11.  
  12. Coefficients: 
  13.                   Estimate Std. Error t value Pr(>|t|)     
  14. (Intercept)      -112.7633    88.3010  -1.277 0.201697     
  15. Bedrooms2         -43.5934    16.2533  -2.682 0.007359 **  
  16. Bedrooms3         -82.6565    20.7641  -3.981 7.04e-05 *** 
  17. Bedrooms4         -63.3096    34.9521  -1.811 0.070198 .   
  18. Bedrooms5          79.0618    54.0763   1.462 0.143842     
  19. Halls1             -5.0663    64.2764  -0.079 0.937182     
  20. Halls2            -53.8905    65.4427  -0.823 0.410307     
  21. Halls3           -303.9750    79.2280  -3.837 0.000127 *** 
  22. Halls4           -528.5427   104.0849  -5.078 4.07e-07 *** 
  23. Toilet2           112.9566    19.1171   5.909 3.87e-09 *** 
  24. Toilet3           543.7304    38.8056  14.012  < 2e-16 *** 
  25. Toilet4           735.1894    55.0977  13.343  < 2e-16 *** 
  26. Toilet5           338.7906    84.2851   4.020 5.98e-05 *** 
  27. Area                5.1091     0.1619  31.557  < 2e-16 *** 
  28. Towards东北向     138.9088    79.3817   1.750 0.080248 .   
  29. Towards东南向     187.1895    68.5388   2.731 0.006351 **  
  30. Towards东西向     176.3055    65.8384   2.678 0.007453 **  
  31. Towards东向       210.9435    73.2744   2.879 0.004022 **  
  32. Towards南北向      75.7831    57.1199   1.327 0.184704     
  33. Towards南向        60.1949    56.9678   1.057 0.290763     
  34. Towards西北向      75.4326    71.1415   1.060 0.289091     
  35. Towards西南向     169.8106    75.9626   2.235 0.025467 *   
  36. Towards西向       234.0816    76.5585   3.058 0.002253 **  
  37. Floor地下        -812.3578    63.3277 -12.828  < 2e-16 *** 
  38. Floor高层          12.3525    14.2466   0.867 0.385991     
  39. Floor共1层       -313.7278    52.1342  -6.018 2.00e-09 *** 
  40. Floor共2层       -453.3692    41.6829 -10.877  < 2e-16 *** 
  41. Floor共3层       -601.7032    44.3336 -13.572  < 2e-16 *** 
  42. Floor共4层       -183.7866    36.3396  -5.057 4.52e-07 *** 
  43. Floor共5层        -41.4184    25.7922  -1.606 0.108419     
  44. Floor中层          -1.7223    13.5961  -0.127 0.899204     
  45. Decorate简单装修  -63.1591    22.0584  -2.863 0.004224 **  
  46. Decorate精装修    -49.3276    19.8544  -2.484 0.013033 *   
  47. Decorate毛坯     -157.0299    24.3012  -6.462 1.22e-10 *** 
  48. --- 
  49. Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 
  50.  
  51. Residual standard error: 265.5 on 2794 degrees of freedom 
  52. Multiple R-squared:  0.6852,    Adjusted R-squared:  0.6815  
  53. F-statistic: 184.3 on 33 and 2794 DF,  p-value: < 2.2e-16 

模型的F检验拒绝原假设,说明建立的模型是显著的;Ajusted R-squared为0.6815,模型的拟合程度尚可接受。

作者:徐麟,知乎同名专栏作者,目前就职于上海唯品会产品技术中心,哥大统计数据狗,从事数据挖掘&分析工作,喜欢用R&Python玩一些不一样的数据。

责任编辑:未丽燕 来源: 数据森麟
相关推荐

2018-10-22 13:10:43

分析Python房价

2020-05-06 15:48:24

Python数据二手房价

2020-10-27 15:18:39

央行数字人民币穆长春

2019-12-19 15:56:10

Python数据工具

2013-03-19 14:25:36

2011-08-25 22:57:42

惠普喷墨打印机

2016-12-02 17:56:15

华为双活存储

2011-12-29 16:48:26

爱普生喷墨打印机

2012-07-02 09:36:10

链家地产组织与劳动力转型

2022-03-11 15:17:15

码农美国薪资

2013-02-21 12:38:58

佳能打印机

2020-06-05 19:19:03

苹果促销商家

2021-08-23 13:29:44

码农编程开发

2009-08-18 16:34:12

2020-07-14 11:14:55

网络安全APP技术

2019-03-13 10:04:34

程序员租房架构

2011-11-28 15:07:52

宽带

2011-05-04 10:49:34

原装硒鼓兼容硒鼓

2018-08-27 09:39:33

租房数据北漂

2012-02-27 14:33:51

投影机推荐
点赞
收藏

51CTO技术栈公众号