您当前的位置:首页 > IT编程 > python
| C语言 | Java | VB | VC | python | Android | TensorFlow | C++ | oracle | 学术与代码 | cnn卷积神经网络 | gnn | 图像修复 | Keras | 数据集 | Neo4j | 自然语言处理 | 深度学习 | 医学CAD | 医学影像 | 超参数 | pointnet | pytorch | 异常检测 | Transformers | 情感分类 | 知识图谱 |

自学教程:利用机器学习预测房价

51自学网 2021-10-30 22:44:43
  python
这篇教程利用机器学习预测房价写得很实用,希望能帮到您。

项目介绍

背景:

DC竞赛比赛项目,运用回归模型进行房价预测。

数据介绍:

数据主要包括2014年5月至2015年5月美国King County的房屋销售价格以及房屋的基本信息。

其中训练数据主要包括10000条记录,14个字段,分别代表:

  • 销售日期(date):2014年5月到2015年5月房屋出售时的日期;
  • 销售价格(price):房屋交易价格,单位为美元,是目标预测值;
  • 卧室数(bedroom_num):房屋中的卧室数目;
  • 浴室数(bathroom_num):房屋中的浴室数目;
  • 房屋面积(house_area):房屋里的生活面积;
  • 停车面积(park_space):停车坪的面积;
  • 楼层数(floor_num):房屋的楼层数;
  • 房屋评分(house_score):King County房屋评分系统对房屋的总体评分;
  • 建筑面积(covered_area):除了地下室之外的房屋建筑面积;
  • 地下室面积(basement_area):地下室的面积;
  • 建筑年份(yearbuilt):房屋建成的年份;
  • 修复年份(yearremodadd):房屋上次修复的年份;
  • 纬度(lat):房屋所在纬度;
  • 经度(long):房屋所在经度。

目标:

算法通过计算平均预测误差来衡量回归模型的优劣。平均预测误差越小,说明回归模型越好。

代码详解

数据导入

先导入分析需要的python包:

#导入类库和加载数据集import pandas as pdimport numpy as npimport matplotlib.pyplot as pltimport seaborn as sns%matplotlib inline

导入下载好的kc_train的csv文件:

#读取数据train_names = ["date",               "price",               "bedroom_num",               "bathroom_num",               "house_area",               "park_space",               "floor_num",               "house_score",               "covered_area",               "basement_area",               "yearbuilt",               "yearremodadd",               "lat",               "long"]data = pd.read_csv("kc_train.csv",names=train_names)data.head()

在这里插入图片描述

数据预处理

查看数据集概况

# 观察数据集概况data.info()

在这里插入图片描述

从图中可以看出没有任何缺失值,因此不需要对缺失值进行处理。

拆分数据

把原始数据中的年月日拆开,然后根据房屋的建造年份和修复年份计算一下售出时已经过了多少年,这样就有17个特征。

sell_year,sell_month,sell_day=[],[],[]house_old,fix_old=[],[]for [date,yearbuilt,yearremodadd] in data[['date','yearbuilt','yearremodadd']].values:    year,month,day=date//10000,date%10000//100,date%100    sell_year.append(year)    sell_month.append(month)    sell_day.append(day)    house_old.append(year-yearbuilt)    if yearremodadd==0:        fix_old.append(0)    else:        fix_old.append(year-yearremodadd)del data['date']data['sell_year']=pd.DataFrame({'sell_year':sell_year})data['sell_month']=pd.DataFrame({'sell_month':sell_month})data['sell_day']=pd.DataFrame({'sell_day':sell_day})data['house_old']=pd.DataFrame({'house_old':house_old})data['fix_old']=pd.DataFrame({'fix_old':fix_old})data.head()

在这里插入图片描述

观察因变量(price)数据情况

#观察数据print(data['price'].describe())

在这里插入图片描述

#观察price的数据分布plt.figure(figsize = (10,5))# plt.xlabel('price')sns.distplot(data['price'])

在这里插入图片描述

从数据和图片上可以看出,price呈现典型的右偏分布,但总体上看还是符合一般规律。

相关性分析

自变量与因变量的相关性分析,绘制相关性矩阵热力图,比较各个变量之间的相关性:

#自变量与因变量的相关性分析plt.figure(figsize = (20,10))internal_chars = ['price','bedroom_num','bathroom_num','house_area','park_space','floor_num','house_score','covered_area'                  ,'basement_area','yearbuilt','yearremodadd','lat','long','sell_year','sell_month','sell_day',                 'house_old','fix_old']corrmat = data[internal_chars].corr()  # 计算相关系数sns.heatmap(corrmat, square=False, linewidths=.5, annot=True) #热力图csdn.net/jlf7026/article/details/84630414

在这里插入图片描述

相关性越大,颜色越浅。看着可能不太清楚,因此看下排名

#打印出相关性的排名print(corrmat["price"].sort_values(ascending=False))

在这里插入图片描述

可以看出house_area,house_score,covered_area,bathroom_num这四个特征对price的影响最大,都超过了0.5。负数表明与price是负相关的。

特征选择

一般来说,选择一些与因变量(price)相关性比较大的做特征,但我尝试过选择前十的特征,然后进行建模预测,但得到的结果并不是很好,所以我还是把现有的特征全部用上。

归一化

对于各个特征的数据范围不一样,影响线性回归的效果,因此归一化数据。

#特征缩放data = data.astype('float')x = data.drop('price',axis=1)y = data['price']from sklearn.preprocessing import MinMaxScalerscaler = MinMaxScaler()newX= scaler.fit_transform(x)newX = pd.DataFrame(newX, columns=x.columns)newX.head()

在这里插入图片描述

划分数据集

#先将数据集分成训练集和测试集from sklearn.model_selection import train_test_splitX_train,X_test,y_train,y_test = train_test_split(newX, y, test_size=0.2, random_state=21)

建立模型

选择两个模型进行预测,观察那个模型更好。

  • 线性回归
  • 随机森林
#模型建立from sklearn import metricsdef RF(X_train, X_test, y_train, y_test):    #随机森林     from sklearn.ensemble import RandomForestRegressor    model= RandomForestRegressor(n_estimators=200,max_features=None)    model.fit(X_train, y_train)    predicted= model.predict(X_test)    mse = metrics.mean_squared_error(y_test,predicted)    return (mse/10000)def LR(X_train, X_test, y_train, y_test):    #线性回归    from sklearn.linear_model import LinearRegression                LR = LinearRegression()    LR.fit(X_train, y_train)    predicted = LR.predict(X_test)    mse = metrics.mean_squared_error(y_test,predicted)    return (mse/10000)

评价标准

算法通过计算平均预测误差来衡量回归模型的优劣。平均预测误差越小,说明回归模型越好。

print('RF mse: ',RF(X_train, X_test, y_train, y_test))print('LR mse: ',LR(X_train, X_test, y_train, y_test))

在这里插入图片描述

可以看出,随机森林算法比线性回归算法要好很多。

总结

对机器学习有了初步了解。但对于数据的预处理,和参数,特征,模型的调优还很欠缺。

希望通过以后的学习,能不断提高。也希望看这篇文章的朋友和我一起感受机器学习的魅力,更多相关机器学习内容请搜索51zixue.net以前的文章或继续浏览下面的相关文章,希望大家以后多多支持51zixue.net!


基于python分布式爬虫并解决假死的问题
python3 解决requests出错重试的问题
万事OK自学网:51自学网_软件自学网_CAD自学网自学excel、自学PS、自学CAD、自学C语言、自学css3实例,是一个通过网络自主学习工作技能的自学平台,网友喜欢的软件自学网站。