文摘
汽车租赁系统是一个受欢迎的出租汽车模型共享使用。由于其灵活性,尤其具有吸引力;也就是说,返回的车可以租来的,在一个地方的授权停车位置。本研究工作的主要目的是预测汽车使用停车场站和调查有助于改善预测的因素。因此,新策略可以用来制造更多的汽车在路上和更少的站停车。实现,各种机器学习模型,即向量自回归(VAR),支持向量回归(SVR),极端的梯度增加(XGBoost),再邻居(资讯),和深度学习模型特别长短时记忆(LSTM),封闭的复发性单元(格勒乌)、卷积神经网络(CNN), CNN-LSTM,和多层感知器(MLP)上执行不同的功能。这些特性包括过去的使用水平,重庆的环境条件和时间信息。使用不同的指标比较结果后,我们发现CNN-LSTM优于其他方法预测未来汽车的使用。同时,该模型使用所有不同功能类别的结果模型的最精确的预测比任何一次使用一个功能类别
1。介绍
预测未来是应用科学中最具挑战性的任务之一。计算和统计方法用于扣除过去和未来观测值之间的依赖关系,以建立有效的预测从历史数据。运输回答人民渴望参与不同的活动在不同的地方1]。汽车已经成为移动生态系统的一部分,由于他们所提供的灵活性和自由(2]。人们更加依赖汽车城际和市内的交通,造成交通拥挤和停车困难(3]。“寻找停车位创造额外的延迟和损害当地的流通。大城市的中心区域,可能占超过10%的当地发行量司机可以花20分钟找一个停车位,”博士说让·保罗·罗德里格全球研究和地理的霍夫斯特拉大学的部门。许多租赁模型是解决这些出现停车问题,其中一个是汽车模型,旨在发布汽车在一个城市使用以较低的成本。以这种方式,个人可以利用私家车的好处没有租赁支付的麻烦,维护,或停车。程序由单向或双向,取决于上车和下车的车站是相同的或不4]。
汽车共享系统提供了一个选项来许多人选择不是自己的车,他们使用这个系统只要一个私人汽车是必要的。这个系统通常每分钟修复成本价格,包含一个引用变量,如燃料,价格每公里,和固定成本的比重等操作员维护、再平衡,保险,和停车5]。除了帮助减少交通拥堵的程度和管理缺乏停车场,汽车共享系统有很多优势,如车辆所有权的减少导致有效地使用道路和基础设施,经济节省用户,减少空气和噪音污染5]。
然而,这个计划正面临许多问题6),其中一个是车辆的nonsuitable分布在汽车系统。因此,汽车往往容易在瓦停车场过剩而不足数量的可用车辆高峰期停车场(6]。对于汽车企业来说,这个问题造成重大经济损失。提高汽车使用率,公司采用各种技术,蕴含着巨大的承诺在汽车预测。
在过去的几年里,机器学习和深度学习已经证明了他们在不同领域的效率和得到认可。机器学习方法利用学习算法从数据推断学习新任务(7],广泛采用的大规模和复杂的数据密集型领域如医学、天文学、生物学(8- - - - - -11]。深度学习模型产生良好的结果在计算机视觉领域和自然语言处理12- - - - - -15),它可以自动提取多维特性和有效地提取数据模式分类或回归16]。
在我们的工作,提出了一种多变量时间序列的方法,它的目的是预测在短期内汽车使用和调查的因素,有助于提高其预测精度。多个机器学习模型和深度学习模型已经履行承诺多元时间序列预测方法和提取有意义的理解也证明了他们的能力,人类很难分析和推断5]。这些模型进行不同的功能组包括过去的使用水平,重庆的环境条件和时间信息。
剩下的纸是组织如下。部分2提出了当前研究时间系列模型的文献综述。部分3研究问题的描述。提出了一种时间序列分析的部分4。部分5展示了我们的方法的框架。部分6描述了实验框架用来评估的性能模型用于多变量时间序列的方法。最后,部分7总结了论文,并概述了未来的工作方向。
2。文献综述
汽车已经成为最受欢迎的研究对象运输。进行了许多研究,但到我们所知,没有科学文献的工作已经完成,比较不同的机器学习和深度学习模型预测未来汽车共享系统的使用和在调查因素,有助于提高其预测精度。有趣的作品而不是以下:
研究有关这一主题可以分为许多子组包括以下(5,17):(i)用户特征:它调查的用户交互与服务(18,19];(2)描述塑造服务负责的条款和销售汽车在城市(20.,21];(3)汽车需求预测水平(22,23]。
汽车需求预测水平,汽车共享系统可以制定一个时间序列的预测问题。时间序列使用了很多方法,如自回归综合移动平均(ARIMA)模型,着重于提取交通流的时空变化模式,并使用它们为预测;支持向量回归(SVR)模型,捕捉复杂的非线性,(20.)表明,通常这种方法对交通流时间序列执行更好;极端的梯度增加(XGBoost), (21)表明,该模型提高了预测的精度和效率。在开始计算之前,XGBoost各种交通数据根据特征值和枚举也实现并行计算功能。
最近,机器学习方法一直受到深度学习交通预测方法。深度学习方法有很强的能力来表达多通道数据中的模式,以减少过度拟合问题,并获得较高的预测精度。此外,作为交通流过程在本质上是复杂的,深度学习算法可以表示交通特性没有先验知识,这对交通流预测具有良好的性能。
徐和Lim22]进化神经网络用于证明该算法的有效性及其可能的使用作为预测工具的净流动汽车共享系统为了提供最好的车辆在最短的时间内可能的准确性;(23)尝试使用深度信念网(DBN)定义一个深架构学习特性的交通流预测与有限的先验知识。
上述模型需要预先定义的输入长度和静态的,并且他们不能自动确定最优时间滞后。解决这些问题,许多工作已经完成,如24)使用一个模型叫做长短期记忆递归神经网络(LSTM RNN),更有效地捕捉交通流的非线性和随机性,并自动确定最优时间滞后;(25]提出了一种新颖的长期短期记忆神经网络预测旅行速度使用微波检测器数据,未来的交通状况通常是相关的先前的事件与长时间跨度;莫等。26)预测未来的轨迹周围车辆使用CNN-LSTM在拥挤的交通。我们所知,在文献中没有找到工作在汽车使用CNN-LSTM时间序列预测。
关于调查的因素提高预测,6)进行这项研究季节性因素的影响在蒙特利尔的预订汽车,和分析结果后,得出的结论是,在夏季使用得分结果更好。
对上述工作,我们的方法提出了以下亮点:(我)比较各种机器学习和深度学习模型预测未来的预订数量由汽车共享用户使用不同的度量(2)调查的因素,有助于预测汽车使用估计数据的特性和模型性能之间的关系
3所示。问题描述
本研究的目的是预测车辆的数量将被用于停车场站在给定时刻和调查的因素,提高预测的准确性。
汽车的使用在给定的时间的数量可能是与一组特性(6),如下:(我)过去使用的 :历史上使用跟踪建立预测模型。它包括汽车交易的数量基于汽车运营商的数据位于重庆,中国。(2)时间信息 :的时间过去的用法。由于汽车需求可能改变随着时间的推移,我们的时间分割成段捕捉不同时间趋势(如假期/工作日,1 h),每天播发或者刊登(6]。(3)的环境条件当时:用户交通习惯通常是受天气条件的影响。
表1总结了汽车租赁的功能类别的描述时间序列。
3.1。汽车租赁的预测问题
以后,我们制定了多元回归的问题解决在本文6]。它由预测汽车使用基于特征的值属于类别 , ,和 。让的历史时期被认为是培训, ,…,过去的时间点 ,和当前采样时间。我们将表示使用[1≤j≤k]在时间的使用水平 。我们将1 h,每天播发或者刊登一个预测地平线(6]。
因为未来汽车使用多个特性相关,多元回归量表示如下: 在哪里汽车的使用水平,是时间信息在哪里tx,该地区气候条件在时间吗tx(6]。
3.2。因素的调查问题
这项研究的另一个目的是决定的因素,有助于预测车辆的使用。的特性被认为是在这项研究中分为不同的类别,即过去的使用,时间信息和环境条件。我们研究了大量的机器学习和深度学习模型,结合不同的功能类别或单独使用它们一个接一个,旨在发现功能,提高模型的预测精度。
4所示。时间序列分析
时间序列是一个有序集合连续观察记录的时间,他们可以单变量或多变量(27,28]。我们可以进行时间序列分析,目的是预测未来值或理解流程驱动他们(29日]。
解决问题在前一节中所述,进行多种机器学习和深度学习模型。
4.1。机器学习模型
以下4.4.1。向量自回归(VAR)
向量自回归预测算法时使用两个或两个以上的时间序列相互影响。它被认为是一个自回归模型,因为预测不仅系列的滞后也过去落后的本身(30.]。假设我们测量三个不同的时间序列变量,用 , , 。订单1的向量自回归模型表示为VAR(1)如下30.]:
的变量是一个k向量的常量作为模型的截距。是一个定常(k×k)矩阵,是一个k向量误差项。
每个变量的线性函数滞后1组中的所有变量的值。一般来说,VAR (p)模型,第一个p每个变量的滞后系统将作为每个变量的回归预测(31日,32]。
4.1.2。极端的梯度增加(XGBoost)
XGBoost是一种有效的和可扩展的实现梯度增加框架的弗里德曼et al。33和弗里德曼等。34包包含一个有效的线性模型解算器和树学习算法(35]。XGBoost符合先前的新的模型残差预测,然后最大限度地减少损失,同时添加最新的预测(36]。独特之处是,它使用“更正规化模型规范化控制过度拟合,使它更好的性能”-Tianqi陈。XGBoost用于监督学习问题,我们使用训练数据x我预测目标变量y我。在选择目标变量y我,我们需要定义目标函数来衡量模型适合训练数据,它由两部分组成,培训损失和正则化项,如下: 在哪里θ表示参数,我们需要从数据中学习,l是培训损失函数,Ω的正则化项。一个共同的选择l是均方误差,它是由:
和正则化项控制模型的复杂性,这有助于我们避免过度拟合(27]。
4.1.3。支持向量回归(SVR)
支持向量机(SVM)的基础已经奠定了Vapnik Chervonenkis,方法是受到了人们的欢迎。地基处理分类问题的支持向量机被称为支持向量分类(SVC)和支持向量机处理建模和预测被称为支持向量回归(SVR)) (28]。
最现实的问题不能通过使用线性模型形式(31日]。SVR方法允许处理现实问题。下面是一些常用的内核在SVR建模25]:(1)线性内核:x∗y(2)多项式核函数:((x∗x我)+ 1]d(3)径向基函数(RBF): exp {-ϒ|x−x我|2}
4.1.4。再邻居(资讯)
再邻居(资讯)是一种高效、直观的方法,已广泛用于分类模式识别(32]。这是一个基于距离的分类器,这意味着它隐式地假定两个点之间的距离越小,越相似,他们会(37]。资讯分类算法是迄今为止比资讯回归(更受欢迎37]。然而,回归模型,导出信息从观测数据应用于实时预报的预测变量(38]。换句话说,它估计一个测试点的响应Xt作为一个平均的响应k最近的训练点,X(1),X(2)、…X(k),在附近Xt(32]。让X= {X1,X2、……X米}是一个培训资料处理组成的系统米训练点,每一个都拥有N功能(32]。使用欧氏距离计算出每个训练点X我测试点吗Xt使用 在哪里特征的数量,是第n个特性值的测试点Xt,是第n个特性值的训练点X我。其他一些方法是曼哈顿,闵可夫斯基,汉明距离的方法。
4.2。深度学习模型
4.2.1。准备长短期记忆(LSTM)
长短期记忆神经网络(LSTM NN)最初引入Hochreiter(1997)的和。施密德胡贝尔表示(21]。LSTM NN的主要目标是克服消失梯度的标准问题递归神经网络(RNN)在处理长期依赖项(39]。其特性尤其可取的交通流量预测的领域(40]。图1显示长短期记忆细胞的结构。LSTM的核心概念是由循环地连接的内存块,每一个都包含一个或多个记忆细胞,还有三个乘法“门”单元:一个输入通道与相应的权重矩阵 , , , ;忘记一个门与相应的权重矩阵 , , , ;一个输出门与相应的权重矩阵 , , , 。所有这些盖茨将生成一些度,通过使用当前的输入 ,国家上一步生成的,和当前状态的细胞 ,决定是否要输入,之前忘记记忆存储和输出后生成的状态。就像这些方程如下39]:
网络控制信息流动的乙状结肠层输出0和1之间的数字(年代(t)= 1 / (1 +e−t))。
4.2.2。封闭的复发性单元(格勒乌)
封闭的复发性单元(格勒乌)体系结构包含两个门:一个更新zt决定多少单位更新其激活或内容和重置rt允许忘记前面计算的状态(41]。该模型被定义为以下: 在哪里ht代表输出状态向量t,而Ht是候选人的国家获得双曲正切,代表输入向量t,模型的参数 , , (前馈连接), , , (复发性权重),偏差向量 , , (42]。
4.2.3。卷积神经网络(CNN)
卷积神经网络(cnn)是类似传统的人工神经网络(ann),因为它们是由神经元自优化通过学习(43]。他们最初是为计算机视觉开发任务;然而,有一些最近的研究将它们应用于时间序列预测任务。cnn是由三种类型的层包括卷积层、汇聚层,充分连接层,如图2。
卷积层将决定神经元的输出连接到本地区域的输入通过标量积的计算体积重量和地区连接到输入(43]。有两个重要的技术用于卷积层加速训练过程:本地连接和共享。这两种技术实现使用一个过滤器与一个特定的内核大小,定义了节点的数量,重量。使用显著减少学习的数量和重量,并允许存储网络发展更深层次的参数较少。池层通常包含两个连续卷积层(44]。
池的主要想法是为进一步减少复杂性层由采样下来(45]。Max-pooling是最常见的一种类型的池方法最好执行(44]。它包含在次区域矩形分割图像,只返回的次区域内的最大值(45]。
只是完全连接层,前馈神经网络。它们形成网络中的最后几层(46]。完全连接的输入层是最后池或卷积的输出层,夷为平地,然后送入完全连接层为了执行相同的关税标准中人工神经网络(43,46]。
4.2.4。CNN-LSTM模型
CNN-LSTM是一个混合模型由CNN结合LSTM改善预测的准确性(47]。图3显示了CNN-LSTM模型的体系结构。模型由两个主要组件组成:第一个组件由卷积和汇聚层的复杂数学运算执行过滤输入数据并提取有用的信息。更具体地说,卷积层应用卷积操作和原始输入数据之间的卷积核,产生新的特性值(48]。卷积内核可以被认为是一个窗口,其中包含一个矩阵形式的系数值。这个窗口幻灯片在输入矩阵应用卷积运算在每个子区域。所有这些操作的结果是一个卷积矩阵代表一个特征值。
卷积层通常是紧随其后的是一个非线性激活函数,然后一个汇聚层。一个池层是一种二次抽样技术,提取特定值卷积特性和产生新的矩阵(即。,总结了版本的卷积特性产生的卷积层)。
第二部分利用生成的特性由LSTM具有学习能力的长期和短期依赖通过反馈连接的利用率和致密层48]。
4.2.5。多层感知器(MLP)
多层感知器(mlp)人工神经网络和通常用于监督学习问题(49]。从图我们可以看出4,多层感知器由三种类型的层:一个输入层接收信号,输出层,执行所需任务做出决定或预测的输入,和任意数量的隐藏层,是真正的计算引擎(49,50]。在延时,向前方向的数据流从输入到输出层,和神经元与反向传播学习算法训练一组输入输出对。培训涉及调整参数、重量和偏见,以最小化模型的错误(49]。
4.3。梯度的问题消失
人工神经网络通常经验培训由于消失和梯度爆炸问题。培训问题是放大指数特别是深度学习由于其复杂的人工神经网络架构(51]。消失的梯度是不稳定行为的一个例子可能会遇到在基于训练和梯度方法(例如,反向传播)52]。神经网络的权重得到更新与误差函数的偏导数,对当前的体重在每个迭代中训练。在某些情况下,梯度趋于变小,我们通过隐藏层向后移动。这意味着神经元在前面的层比神经元在以后学习更慢层防止体重改变它的值(52]。
在实践中存在一些方法来减少这种影响,例如,通过仔细的初始化,隐藏层监督和批处理规范化(53]。批标准化已经使用,我们的工作是有效地增加深层神经网络的性能。
5。框架的方法
图5显示了汽车的过程使用预测和基于机器的因素的调查方法和深度学习模型。
5.1。收集重庆汽车运营商数据
重庆汽车运营商的数据集包含超过1 M记录汽车的使用超过860个停车场,从1月1日,2017年,就是1月31日,2019年,23:00:00。最初的记录了在不同的时间间隔,为研究目的,数据聚合的小时,天,周,整个网络。
5.2。收集重庆的天气数据
硒的web爬行技术被用来提取每小时从1月1日重庆的天气数据,2017年,就是1月31日,2019年,23:00:00 [54]。
5.3。数据预处理
数据预处理是数据集上执行提高性能(55]。
5.3.1。处理缺失值
一些价值观缺失数据集从重庆汽车运营商。由于其数值意义,我们代替缺失值的意思是前一个和后一个小时的汽车共享使用。这种方法会产生更好的效果比删除行。详细的计算如下所示: 在哪里代表站我缺失值的kth小时的j今年的一天。重庆汽车租赁运营商处理缺失值后的数据集,我们合并与重庆的天气数据集根据日期和时间。
5.3.2。编码的分类数据
因为最后的数据集,结合重庆汽车运营商和气象数据,包含了一些分类数据,如天气条件和季节,我们分类数据转换成数字数据使用一个炎热的编码方法。它由代表每个类别变量与一个二进制向量有一个元素为每一个独特的标签和标记的类标签1和所有其他元素0 (56]。
5.3.3。聚类汽车停车场站
识别和理解跨站和汽车租赁行为揭示了一天的时间和使用之间的关系(57与类似的模式),我们组织了停车场站成五个不同的类如下:(我)甲级:每日租来的汽车(2)乙级:经常使用汽车(3)丙级:有时二手车(iv)类D:偶尔二手车(v)类E:与其他停车场站、汽车这类汽车很少使用A, B, C, D, E有不同的停车场站的id,如104 6 28日和25日分别。简化大型数据集,使其可以理解的,我们使用了分组频率表集群860停车场站成五类(58]。首先,使用频率的车站停车检修,然后,计算范围如下(59]: 第二,一个近似类宽度计算范围的数量除以类: 使用频率最低的代表第一个最小数据值。第三,下一个下层阶级的价值是通过添加类宽度计算最低的使用频率。 这个步骤是重复的最小数据值,直到选择类创建数量。第四,上层阶级限制(可能的最高的值的类)的计算是通过减去1类宽度和添加到最小数据值。 最后,获得的类的列表包括在每个类的使用频率大于下层阶级价值和小于上层阶级的限制。
5.4。Deseasonalization
平稳性是时间序列分析的一个重要概念。一些专家认为,神经网络模型能够直接,不需要事先deseasonalization季节性,而另一些人则认为相反。结果在60)表明,之前的数据处理需要构造一个预测模型。测试我们的时间序列,增强Dickey-Fuller测试进行测试(ADF)与机器学习和深度学习模型预测更加准确(61年]。我们使用差分去除后的非平稳时间序列的季节性ADF检验(61年,62年]。
5.5。扩展
扩展阶段是至关重要的时间序列移动到一个合理的范围内。在我们的工作中,MinMaxScaler用于每个特性扩展到一个给定的范围内。
5.6。把数据集
处理前面提到的步骤之后,我们准备正确的数据集。我们将训练集和测试集之间的数据。训练集从2017年1月1日至12月31日,2018年1月01st测试集,2019年1月31日,2019年。与一个外循环嵌套交叉验证等于十和一个内循环等于5用于计算和比较每个模型错误。所有模型都使用相同的验证程序的一致性问题。
6。实验
6.1。数据集
实验进行了预处理重庆汽车运营商数据集结合重庆的天气数据集,提取功能,有助于预测汽车的使用,并证明深度学习的有效性,更精确地CNN-LSTM比较其他模型。
我们实现了该模型使用电脑的英特尔i7™(R)核心i7 - 7500 u 3.00 GHz CPU和10 8 GB RAM的Windows操作系统,在Python 3.7开发环境。以下包安装:TensorFlow 1.14.0;Keras 2.2.4-tf;熊猫0.23.4;Sklearn 0.21.1;Numpy 1.18.1;Matplotlib 3.1.0;Statsmodels 0.10.1。
每小时天气观测包括时间、温度、湿度、风速、压力、降水、和天气条件。有一个基本的了解天气状况通常与重庆市相关,我们计算每个天气条件(的归一化频率分布表2)。
从表2在重庆,公平是最流行的气象条件,紧随其后的是雾,小雨,局部多云和阴天。
从表3,7月和8月是今年最热的一个月的平均温度为28°C,今年一月是最冷的月份和7°C的温度。
6.2。评价指标
评价指标是反映测量距离预测匹配的历史数据。他们是有用的在预测方法比较在相同的数据集63年]。
6.2.1。平均绝对误差(MAE)
美作为绝对的均值计算预测误差值。美很受欢迎,因为它很容易理解和计算。
6.2.2。均方误差(MSE)
MSE闻名把更多的重量大的错误。这是计算的平均平方预测误差值。
6.2.3。根平方平均误差(RMSE)
上面描述的均方误差的平方单位的预测。它可以转换回原来的单位的预测均方误差的平方根的分数(64年]:
RMSE选择作为评价指标,因为它惩罚大预测误差与平均绝对误差(MAE)。
6.2.4。平均绝对误差百分比(日军)
平均绝对百分比误差(日军)是使用最广泛的措施之一,预测的准确性,由于其规模优势独立和可解释性65年]。计算使用每个时期的绝对误差的观测值除以明显的时期,因此平均这些固定百分比(66年]。日军表明多少错误预测与实际价值。日军可以定义由以下公式: 在哪里是实际的价值,是预测价值,表示安装点的数量。
6.2.5。均方根日志错误(RMSLE)
均方根日志错误(RMSLE)对数转换的RMSE值预测和目标(54]。RMSLE只考虑预测和实际值之间的相对误差和错误是无效的规模对数变换(67年]。RMSLE的公式表示如下: 在哪里观察的总数在数据集,的预测目标,实际的目标什么我,自然对数的吗 ,日志e(x)。
6.3。实验和分析
许多实验在停车场站不同的类来提取哪些特性提高了预测和预测相应的要求。在应用不同的模型之前,对我们的时间序列进行了一些测试。
6.3.1。格兰杰因果检验
格兰杰因果关系检验是统计假设检验来确定是否一个时间序列预测是有用的另一个(68年]。换句话说,它是一个方法,分析不同变量之间的因果关系的时间序列。
后分析结果见表4,我们发现所有的值都小于显著性水平(0.05)。例如,值为0.0003(第4行)表示格兰杰因果关系检验价值temperature_x导致number_rented_cars_y (值(0.0003)< 0.05的显著性水平)。
从结果中,我们可以推断出,所有的变量都是不错的候选人来帮助预测租来的汽车的数量。
再。机器学习配置
(1)极端的梯度增加。创建一个网格搜索XGBoost模型为了找到最优的hyperparameters数据集。
(2)向量自回归。选择正确的顺序的VAR模型,我们反复地增加订单的VAR模型和模型选择的顺序给AIC(最少的29日]。在我们的工作中,我们选择了延迟4模型。在预测未来值的目标变量VAR,我们利用残差序列相关检查如果我们的模型能够解释在时间序列的模式。获得的成绩表5表明,我们的模型可以捕捉到所有的模式没有剩下的。
(3)支持向量回归。RBF内核被选在这项研究中以其良好的性能和优势在时间序列预测问题,过去的研究已经证明了这点69年,70年]。最好的惩罚参数都调整网格搜索方法的使用。预测是计算成本的最优组合和γ参数。
(4)再邻居。最重要的hyper-parameters资讯如下:邻居(K)的数量和距离度量,和他们确定的方式选择最近的邻居。
选择邻居(K)的数量,一个网格搜索了。此外,距离度量在最近邻算法中起着至关重要的作用。大多数的论文引用使用欧氏距离。文献[71年)比较了欧几里得和曼哈顿距离和发现统计上,没有距离度量比另一种更好。欧几里得距离已被选中,因为它是最常用的时间序列预测与资讯回归工作。
6.3.3。深度学习配置
(1)短期记忆和封闭的复发性单元模型。在这项研究中,LSTM和格勒乌模型有一个输出层的神经元。两种神经网络模型的设计只有一个隐藏层,50的时代选择,学习速率被设置为0.01。格勒乌的输入和隐藏的神经元模型的相同LSTM模型,将41到50,分别为(56]。
(2)卷积神经网络。CNN是最成功的一个深刻的学习方法,和其网络结构包括CNN 1 d, 2 d CNN,和3 d CNN。1 d CNN使用本文,它可以应用于时间序列分析。1 d CNN的详细过程描述如下:
在我们的实验中,我们使用各层包括一个卷积层与内核大小2和64过滤器,max-pooling层,连同纠正线性单元(ReLU)激活函数应用于卷积和输出层。最小化均方误差、梯度下降法和亚当优化器使用反向传播算法;后,0.5的辍学率是用来避免过度拟合72年,和一些70年时代被用于训练模型。
(3)CNN-LSTM。在我们的实现中,我们使用的一个版本CNN-LSTM模型,该模型由两个一维卷积层与内核大小等于5,32岁和64过滤器,分别之后max-pooling层,一层LSTM五十台,和一层致密的32个神经元(48),为了避免过度拟合训练期间,辍学是调整到0.2。时代被选出的100位宾客的火车模型。
(4)多层感知器回归量。延时是我们多元时间序列,应用于与ReLU激活函数训练回归模型。三个隐藏层与一个数字联合使用的50岁,35岁,分别和10个隐藏的神经元。中长期规划培训进行50时代学习速率为0.01。
6.4。预测结果
论文的良好的组织,没有多余的解释,我们只讨论结果分析类的“A”与其他类表现出相同的行为,导致了同样的结论。
执行具有不同的特性,同时拟合模型进行比较的结果只有CNN-LSTM深学习模型和XGBoost机器学习模型是描述在我们的分析。同样的,每一个应用模型有相同的分析结果。
在我们的调查中,指标如梅、MSE、RMSE,日军,RMSLE用于各自的顺序进行比较。请注意,最小的错误表中的粗体文本所示6- - - - - -13。
6.4.1。单变量时间序列
(1)机器学习模型。如表所示6,XGBoost减少了错误的(93.14%,99.14%,93.36%,69.17%,93.76%)对VAR;(93.69%,99.48%,94.17%,83.09%,94.70%)对支持向量机;和(93.93%、99.65%、94.44%、84.17%、95.05%)与资讯。
(2)深度学习模型。从表可以看出7CNN-LSTM取得最好的结果,有较小的评估误差相比,所有其他模型。CNN-LSTM评估误差降低了(44.19%、48.37%、34.44%、1.03%、24.14%)对LSTM;(51.91%,57.97%,35.15%,11.71%,40.21%)对格勒乌;(61.15%,58.58%,79.38%,37.38%,38.76%)对美国有线电视新闻网(CNN);和(67.43%、95.75%、69%、88.24%、61.37%)对延时。
6.4.2。周末的影响的信息
我们不可能忘记或低估的影响周末在预测与时间序列数据建立预测模型。他们是重要的,因为他们可以将特性添加到结果。
(1)机器学习模型。从表8使用XGBoost模型,它可以注意到周末功能增强的改进速度(1.14%,0.62%,1.08%,0.42%,0.24%)比单变量时间序列。
XGBoost优于VAR、支持向量机和资讯。它的速度减少评价误差(93.20%、99.19%、93.34%、69.04%、93.76%)与VAR;(93.74%,99.47%,94.14%,82.98%,94.46)与支持向量机;和(94.00%、99.65%、94.37%、84.04%、95.04%)与资讯。
(2)深度学习模型。周末的特性改进预测精度可以观察到从表9周末,添加功能的单变量时间序列类”“改善结果率(2.4%,4.95%,2.54%,4.23%,0.43%)CNN-LSTM。
关于模型的比较,CNN-LSTM实现最好的结果的改进率(43.75%,46.52%,28岁,50%,0.88%,37.98%)对LSTM;(46.47%,57.96%,35.16%,4.87%,35.45%)对格勒乌;(40.38%,59.34%,67.17%,48.70%,40.56%)对美国有线电视新闻网(CNN);和(65.92%、89.22%、67.79%、75.46%、60.88%)对延时。
6.4.3。天气信息的影响
除了租赁信息的城市重庆,我们可以利用气象数据来提高预测在一天的不同时刻。
(1)机器学习模型。表10表明应用XGBoost美减少了2.68%;MSE的3.18%;RMSE 0.25%;日军的6.84%;和RMSLE 1.56%相比,单变量时间序列的结果。相应地,它的美减少了1.56%;MSE的2.58%;RMSE 0.33%;日军的6.98%;和RMSLE 1.32%相对于周末的结果。
XGBoost优于其他模型,因为它降低了的错误值(93.28%,99.21%,93.35%,76.26%,93.72%)相比,VAR;(93.49%,99.41%,94.15%,94.20%,94.05%)相比,支持向量机;和(94.08%、99.56%、94.26%、94.54%、95.10%)与资讯。
(2)深度学习模型。从表11,我们的研究结果表明,CNN-LSTM模型(37.97%,37.59%,35.82%,5.49%,23.42%)比LSTM更准确;(39.82%,57.73%,34.93%,2.62%,38.70%)比格勒乌更准确;(40.21%,58.84%,58.46%,43.80%,40.76%)比CNN更准确;(65.25%,82.77%,52.96%,76.67%,60.67%)比延时更准确。
此外,观察到在全面地检查后,将气象数据特性提高了预测精度。当CNN-LSTM模型应用于类“A”数据和天气特征,它美减少了2.67%;MSE的6.04%;RMSE 3.03%;日军的11.10%;和RMSLE 5.02%相比,单变量时间序列的结果。同样,它还美减少了0.28%;MSE的1.16%;RMSE 0.51%;日军的7.17%; and the RMSLE by 5.43% compared to the weekend’s results.
6.4.4。结合历史的影响,周末,天气信息
(1)机器学习模型。评价XGBoost误差较低,如表所示12。它减少了错误(93.35%,99.28%,93.76%,73.71%,80.32%)相对于VAR;(93.57%,99.47%,94.47%,94.21%,93.81%)相对于支持向量机;和(94.12%,99.59%,94.62%,94.54%,95.16%)相对于资讯。
我们的研究结果表明,所有功能一起使用时,XGBoost表现好与率(3.96%,12.92%,6.65%,6%,2.85%)。同样,它也表现(2.85%,12.38%,6.72%,6.14%,2.62%)比当历史结合周末使用特性和(1.31%,10.6%,6.41%,5.48%,1.31%)比当历史结合天气特征。
(2)深度学习模型。从表13,我们的研究结果表明,当CNN-LSTM配备所有功能结合在一起,它表现的更好率(1.41%,2.34%,1.28%,8.82%,7.98%)比只使用历史特性;同样,这是(4.04%,8.24%,4.28%,8.17%,12.60%)比历史加上周末功能使用时,和(1.68%,3.47%,1.79%,8.33%,12.97%)比当历史结合天气特征。
与其他模型相比,CNN-LSTM评价更低的错误。它减少了错误(36.80%、23.39%、31.18%、46.46%、29.66%)对LSTM,由(37.03%、53.09%、35.41%、74.91%、37.21%)对格勒乌,由(36.939%、58.25%、31.52%、88.65%、42.98%)对CNN,由(38.79%,59.17%,36.02%,88.52%,31.97%)相比,延时。
6.5。的比较结果
我们的目标之一是比较各种机器学习的精度和深度学习模型预测未来汽车交易的数量。在分析获得的结果在我们的研究中,以下是我们的发现:
6.5.1。机器学习
首先,对获得的结果与比较后的机器学习模型和基于评价指标,它表明XGBoost给最好的结果,其次是VAR, SVR和资讯。XGBoost模型有几个优势模型预测等完整的特征提取,良好的拟合效果和预测精度高。
第二,SVR预测系列未能捕获随机和非线性模式。因此,它未能表现良好,而XGBoost和VAR预测系列能够捕获随机游走模式。
第三,然而表现的差比其他机器学习模型,因为大量的输入。
6.5.2。深度学习
比较的结果后,我们可以推断出CNN-LSTM产生更好的结果LSTM紧随其后,格勒乌,CNN和延时。
混合CNN-LSTM模型取得了更好的性能在其能力的力量在支持很长时间子序列的输入序列,可以读取CNN模型然后LSTM一起形成的模型。
除了CNN-LSTM模型、长期短期记忆模型效果良好的学习模式的能力更有效地从测序数据。
封闭的复发性之间的关键区别单元模型和长期短期记忆模型是格勒乌比LSTM不那么复杂,因为它只有两个盖茨(即。盖茨,重置和更新),而LSTM有三个(包括输入、输出和忘记)。通过对比两个模型使用不同的评价指标,可以得出结论,LSTM模型有很好的记忆更长时间序列格勒乌模型相比,它表现在长途需要建模的任务关系。
CNN产生了令人印象深刻的结果,因为能力的卷积层识别模式之间的时间步骤。LSTM模型相反,CNN模型不复发,它只能训练数据输入的模型在一个特定的时间步。
与其他模型、多层感知器模型表现更糟。接收到的模型输入和不把他们当作序列数据,导致损失时间依赖性和序列模式。
6.5.3。对比机器学习和深度学习模型
从结果可以推断,深度学习机器学习模型优于所有的时间序列预测模型。从不同模型的不同的结果,我们发现CNN-LSTM提供了最佳的性能措施,取得最准确的预测结果。此外,图6显示,预测值的虚线几乎伴随着实际价值之一,证明了混合CNN-LSTM模型生成的良好效果。
图7显示了两个最好的机器学习和比较深度学习模型的类,它可以注意到CNN-LSTM略优于XGBoost模型。
6.5.4。计算时间
各种机器的计算时间和深度学习模型中可以找到如下表:
表14表明XGBoost更快的计算时间而支持向量机是要求更高。深入学习模型,表15显示的计算时间CNN-LSTM大于LSTM,格勒乌,CNN和中长期规划模型。
机器学习模型表现出更快的计算时间,而深度学习模型需要更长的时间,因为他们的高参数的数量和复杂的数学公式。
6.6。特征调查
所有的使用时间序列预测模型表明,预测结果更准确,当我们使用不同的功能类别,即过去使用水平特性(例如,汽车共享交易),时间信息的功能(例如,季节,工作日/周末),特性和环境条件(如温度、湿度、风速、压力、降水、天气条件)在一起。
它还表明,环境条件主导其他功能特性,是紧随其后的是时间信息的功能。我们得到了最糟糕的结果只在使用汽车的数量从重庆的汽车交易基于数据运算符。
7所示。结论
这个研究论文,通过应用不同的机器学习和深度学习多元时间序列模型,旨在预测汽车使用和研究的因素,有助于提高预测的准确性。
不同的机器学习和深度学习的评价模型与美,MSE, RMSE,日军,RMSLE揭示了混合模型(CNN-LSTM)给显著较小的错误而独立的使用模型。实验结果表明,利用CNN-LSTM模型汽车交易的数量,以及环境条件和时间信息特性一起,收益率预测精度最高。混合模型的主要思想是有效地合并两个深度学习技术的优点。它利用卷积的能力层中提取有用的知识和学习的时间序列数据的内部表示的有效性以及长期记忆事件的短期记忆(LSTM)层短和很长时间。
此外,通过实验分析,我们得出这样的结论:尽管LSTM汽车共享时间序列预测模型构成一个有效的选择,它们的用法以及额外的卷积层提高预测的性能提供了重要的推动作用。尽管CNN-LSTM需要高搜索时间由于各种hyperparameters敏感性和高复杂性,它显示了最高的预测准确性和最佳的性能。
使用的所有的结果模型确认租车使用比时间信息更敏感,环境条件意味着天气租车运输的影响更值得关注研究。然而,我们的工作是有限的时间特性。未来的研究可以扩展添加更多的功能,如数据的时间跨度,时空变量和模型扩展到消费者的习惯(73年- - - - - -76年]。
数据可用性
使用的数据来支持本研究的发现可以从相应的作者。
的利益冲突
作者宣称没有利益冲突有关这项研究的出版物。
确认
本研究工作是由北京市自然科学基金(批准号4212026)和中国国家科学基金会(批准号61772075)。作者感谢他们的金融支持。