贾特人gydF4y2Ba
《先进的交通工具gydF4y2Ba
2042 - 3195gydF4y2Ba
0197 - 6729gydF4y2Ba
HindawigydF4y2Ba
10.1155 / 2020/8870211gydF4y2Ba
8870211gydF4y2Ba
研究文章gydF4y2Ba
检测车辆占用的框架基础上,主人标记方法gydF4y2Ba
https://orcid.org/0000 - 0002 - 4691 - 3791gydF4y2Ba
李gydF4y2Ba
JooyounggydF4y2Ba
1gydF4y2Ba
https://orcid.org/0000 - 0001 - 7004 - 025 xgydF4y2Ba
ByungydF4y2Ba
走入gydF4y2Ba
2gydF4y2Ba
https://orcid.org/0000 - 0002 - 2332 - 0344gydF4y2Ba
LimgydF4y2Ba
JaedeokgydF4y2Ba
3gydF4y2Ba
https://orcid.org/0000 - 0001 - 9292 - 8583gydF4y2Ba
李gydF4y2Ba
JaeyungydF4y2Ba
3gydF4y2Ba
RoutilgydF4y2Ba
LadislavgydF4y2Ba
1gydF4y2Ba
绿色交通的秋春Shik研究生院gydF4y2Ba
韩国先进科技学院gydF4y2Ba
大田市34051gydF4y2Ba
韩国gydF4y2Ba
kaist.ac.krgydF4y2Ba
2gydF4y2Ba
环保中心智能车辆gydF4y2Ba
韩国先进科技学院gydF4y2Ba
大田市34051gydF4y2Ba
韩国gydF4y2Ba
kaist.ac.krgydF4y2Ba
3gydF4y2Ba
技术研究中心gydF4y2Ba
因解决方案公司。gydF4y2Ba
07255年首尔gydF4y2Ba
韩国gydF4y2Ba
2020年gydF4y2Ba
3gydF4y2Ba
12gydF4y2Ba
2020年gydF4y2Ba
2020年gydF4y2Ba
24gydF4y2Ba
8gydF4y2Ba
2020年gydF4y2Ba
31日gydF4y2Ba
10gydF4y2Ba
2020年gydF4y2Ba
17gydF4y2Ba
11gydF4y2Ba
2020年gydF4y2Ba
3gydF4y2Ba
12gydF4y2Ba
2020年gydF4y2Ba
2020年gydF4y2Ba
版权©2020 Jooyoung李et al。gydF4y2Ba
这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。gydF4y2Ba
专用(共)车道或拥堵收费优惠政策来鼓励multipassenger车辆。然而,车辆占用检测,基本实现这样的政策,是基于一个劳动密集型手工方法。为了解决这个问题,一些研究和一些公司试图开发一个自动检测系统。由于图像处理过程的困难,这些系统是有局限性的。本研究克服这些限制,提出了一个算法的总体框架,有效地检测居住者在车辆使用摄影数据。特别是,我们应用一个新的数据标签检测方法,使高度准确的主人即使少量的数据。新的标签方法直接标签使用者的数量,而不是执行的脸或人类的标签。人类的标签,用于现有的研究,和主人标签,本研究建议,比较来验证这种标记方法的贡献。结果,给出了模型的检测精度为99%的二进制案例(2或3人)和91%计算(居住者)的确切数字,这是高于先前研究模型的准确性。基本上,这个系统是为双边开发相机,左和右,但只有一个方面,可以检测出入住率。 The single side image accuracy is 99% for the binary case and 87% for the counting case. These rates of detection are also better than existing labeling.
贸易、工业和能源gydF4y2Ba
韩国发展研究所的技术gydF4y2Ba
0002246gydF4y2Ba
1。介绍gydF4y2Ba
随着车辆供应的增加,道路基础设施容量相对减少,因此连续建设新的道路需要在全球许多地区。然而,增加道路基础设施能力通过建造更多的道路是昂贵和耗时的,所以是有限度的,不能适应车辆增长速度。为了解决这个问题,一些政策已经实施鼓励拼车,减少旅行时间等多座客车通过通道或提供折扣从multipassenger车辆拥堵收费gydF4y2Ba
1gydF4y2Ba ]。执行这一政策,技术检测车辆居住者是至关重要的。目前,当高巷控制政策执行或提供拥堵收费折扣multipassenger车辆,员工视觉估计在每辆车的乘客数量检查视频数据管理中心(gydF4y2Ba
2gydF4y2Ba ]。本手册的方法是劳动密集型,降低运营效率并增加劳动力成本。在美国,这是打击非法使用模式之道,实际违反率约为50 - 80%,但据报道,打击率小于10%gydF4y2Ba
3gydF4y2Ba ]。在韩国,拥堵收费提供折扣,拥堵可能会增加更多的高峰时段由于检查每辆车的乘客数量的收费站和收费的集合。gydF4y2Ba
为了解决这个问题,进行了各种研究自动化车辆乘员估计过程。研究可分为两个探测技术领域:利用车载传感器(gydF4y2Ba
4gydF4y2Ba - - - - - -gydF4y2Ba
10gydF4y2Ba )和使用图像数据从外部相机(gydF4y2Ba
11gydF4y2Ba - - - - - -gydF4y2Ba
17gydF4y2Ba ]。当使用车载传感器,精度一般是高;然而,所有的车辆都需要配备的设备可以检测乘客的数量。这种设备通常使用摄像机,这一点引起了很多人的隐私问题。因此,使用这种方法是不切实际的。此外,大多数研究,检测居住者使用外部摄像头范围有限。例如,他们只能探测到前排座位的乘客数量(gydF4y2Ba
12gydF4y2Ba - - - - - -gydF4y2Ba
14gydF4y2Ba ),只有数的儿童数量上(gydF4y2Ba
16gydF4y2Ba ),或者只确定两个或两个以上的乘客登上一辆车。特别是,在gydF4y2Ba
17gydF4y2Ba ),88%的检测精度是通过使用捕捉图像数据由一个前面的车外和一个照相机。这个精度级别适用于现实世界,因此飞行员服务在几个地区在美国进行。gydF4y2Ba
在车辆乘员探测领域,有另一个限制,只有新获得的图像可以作为训练数据。因此,需要一个算法来实现高检测率即使一个小数据集。在之前的研究中,一个两级检测算法被用来克服这种限制。通常,两级检测算法首先检测车辆图像,然后检测窗口区域的乘客数量只在窗口区域(gydF4y2Ba
15gydF4y2Ba ]。然而,这种算法有一些局限性由于其复杂的学习过程和网络规模的增加,从而增加所需的计算时间。gydF4y2Ba
因此,本研究提出了一个算法的总体框架,有效地检测车辆使用者使用左、右侧摄影数据从车辆外部一步过程使用少量的数据。具体来说,我们提出一个新的数据标签方法准确地检测使用者的数量。新的标签方法直接标签使用者的数量,而不是执行的脸或人类的标签,这是一种广泛使用的图像检测方法。基于这一先进的标记方法,本研究只包含一个单级检测算法。减少在检测阶段减少网络的大小,数量的样品,和检测时间。gydF4y2Ba
本文的结构如下:第二部分介绍了图像采集系统检测车载居住者和描述了一种新的入住率标记方法和获得的图像数据集;第三部分描述了结构的深层神经网络用于检测居住者;第四部分提出了一个算法讨论的结果在这个研究;最后部分总结了本研究的结论和启示。gydF4y2Ba
2。图像采集和新入住率标记方法gydF4y2Ba
两个红外线摄像机,红外线照明系统和激光触发获取的图像用于训练和测试。图像采集系统的概述图所示gydF4y2Ba
1gydF4y2Ba 。摄像机位于车辆的左右。通过各种测试,研究小组确定最优规格的位置,高度,角度的相机gydF4y2Ba
18gydF4y2Ba ]。红外线照明系统用于提高当没有足够的可见光图像,如在夜间或在汽车的窗户上是有色的。激光触发检测车辆的进入检测区域的摄像机。触发识别车辆时,红外线摄像机图像的车辆的左右。然后,相机向服务器发送帧,和积累的图像用于培训。检测车辆占用时,图像不需要传输到服务器因为他们现场系统对待。gydF4y2Ba
图1gydF4y2Ba
概述图像采集系统的车辆占用检测。(一)后视图。(b)侧视图。gydF4y2Ba
(一)gydF4y2Ba
(b)gydF4y2Ba
在介绍中提到的,先前的研究已经标记对象,如脸、人类,和windows,这标签方法有一些好处:(i)的数量标签类型,方法需要一个或两种标签;(2)获得大量的学习样本,因为每一个图像都有一个或多个窗口和一个人。然而,该方法需要两个阶段,如发现窗户,然后脸或一个算法将居住者的行。它会导致更多的时间计算和更高的错误率。为了克服的限制,本研究采用一种新的标记方法来确定有多少人在前方和后方乘客座位。因此,每个形象都必须有两个标签在六种标签:一个人在前排座位或两人在前排座位,和0,1,2,或者3人在后座,如图gydF4y2Ba
2gydF4y2Ba 。gydF4y2Ba
图2gydF4y2Ba
新的标记方法的例子。(一)前座:1、后座:1例。(b)前座:2,后座:2例。(c)前座:1、后座:0例。(d)前座:2,后座:1例。gydF4y2Ba
(一)gydF4y2Ba
(b)gydF4y2Ba
(c)gydF4y2Ba
(d)gydF4y2Ba
3所示。车辆占用检测方法gydF4y2Ba
图gydF4y2Ba
3gydF4y2Ba 显示该方法检测居住者使用该标签方法在本研究中。一个独立训练占用检测模型用于图像两侧,在检测到前排座椅和乘客从右侧。至于检测居住者在后座,左边和右边的图片,和后座的乘客的数量决定使用检测得分越高,比较检测结果分数来自双方的图像。之后,乘客的数量在前座和后座被添加到获得居民的总数。gydF4y2Ba
图3gydF4y2Ba
概述车辆占用检测方法的使用权利和左图像。gydF4y2Ba
本研究检测模型训练和测试结果在MATLAB环境2019 b。我们使用了快RCNN检测方法,该方法检测精度高,而不是一个统一的检测算法,如Yolo或SSD高速(意思gydF4y2Ba
19gydF4y2Ba ]。越快RCNN方法介绍(gydF4y2Ba
20.gydF4y2Ba ),它可以检测多个对象在一个图像精度高和速度。这种加速处理regional-based CNN算法(gydF4y2Ba
21gydF4y2Ba ]。具体地说,该地区建议网络(RPN),这是基于一个完全卷积网络,介绍了获得该地区建议从输入图像特征映射,它取代了选择性搜索,这是一个训练过程的瓶颈。幻灯片3 x 3项空间窗口地图上一个特性来预测该地区建议,多个锚,呼吁每一个窗口。锚的边界框的乘客的数量需要在输入图像中检测到。在上一篇文章中,9个组合的三个尺寸(128、256和512)和三个比率(2:1,1:1,1:2)锚箱是用于训练。派生的锚分为地区建议如果借据(十字路口在联盟,明白了gydF4y2Ba
1gydF4y2Ba )与地面真理框高于0.7或如果它是最高的。如果低于0.3借据,这是归类为背景。gydF4y2Ba
(1)gydF4y2Ba
借据gydF4y2Ba
=gydF4y2Ba
锚gydF4y2Ba
∩gydF4y2Ba
地面实况盒子gydF4y2Ba
锚gydF4y2Ba
∪gydF4y2Ba
地面实况盒子gydF4y2Ba
。gydF4y2Ba
感兴趣的一个RoI(地区)maxPooling层是用来适应不同大小提出区域来源于RPN相同的大小。RoI池处理后,将softmax分类器,分类居住者,和盒子回归量,估计边界框,是训练有素的。因此,我们下面的多任务损失函数用于培训的总和gydF4y2Ba
ℒgydF4y2Ba
clf。gydF4y2Ba
(损失函数分类)和gydF4y2Ba
ℒgydF4y2Ba
bboxgydF4y2Ba
(损失函数边界框检测)。gydF4y2Ba
(2)gydF4y2Ba
ℒgydF4y2Ba
=gydF4y2Ba
ℒgydF4y2Ba
clf。gydF4y2Ba
+gydF4y2Ba
ℒgydF4y2Ba
bboxgydF4y2Ba
,gydF4y2Ba
ℒgydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
我gydF4y2Ba
=gydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
ℒgydF4y2Ba
clf。gydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
,gydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
NgydF4y2Ba
clf。gydF4y2Ba
+gydF4y2Ba
λgydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
⋅gydF4y2Ba
ℒgydF4y2Ba
1gydF4y2Ba
cgydF4y2Ba
我gydF4y2Ba
−gydF4y2Ba
cgydF4y2Ba
我gydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
NgydF4y2Ba
bboxgydF4y2Ba
,gydF4y2Ba
在哪里gydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
锚的预测概率吗gydF4y2Ba
我gydF4y2Ba
,这是一个对象,gydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
是地面真理是否锚标签gydF4y2Ba
我gydF4y2Ba
是一个对象或一个背景。gydF4y2Ba
cgydF4y2Ba
我gydF4y2Ba
表明预测的四坐标参数化的锚gydF4y2Ba
我gydF4y2Ba
:gydF4y2Ba
xgydF4y2Ba ,gydF4y2Ba
ygydF4y2Ba 位置、宽度和高度。gydF4y2Ba
cgydF4y2Ba
我gydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
真理是地面坐标锚吗gydF4y2Ba
我gydF4y2Ba
,gydF4y2Ba
NgydF4y2Ba
clf。gydF4y2Ba
和gydF4y2Ba
NgydF4y2Ba
bboxgydF4y2Ba
代表了标准化的术语,这将是minibatch大小和锚位置的数量,分别。gydF4y2Ba
λgydF4y2Ba
平衡参数使吗gydF4y2Ba
ℒgydF4y2Ba
clf。gydF4y2Ba
和gydF4y2Ba
ℒgydF4y2Ba
bboxgydF4y2Ba
大约同样的重量。在边界框回归的情况下,通过坐标和培训gydF4y2Ba
ℒgydF4y2Ba
1gydF4y2Ba
损失函数估计如下:gydF4y2Ba
(3)gydF4y2Ba
cgydF4y2Ba
xgydF4y2Ba
=gydF4y2Ba
xgydF4y2Ba
−gydF4y2Ba
xgydF4y2Ba
一个gydF4y2Ba
wgydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
ygydF4y2Ba
=gydF4y2Ba
ygydF4y2Ba
−gydF4y2Ba
ygydF4y2Ba
一个gydF4y2Ba
hgydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
wgydF4y2Ba
=gydF4y2Ba
日志gydF4y2Ba
wgydF4y2Ba
wgydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
hgydF4y2Ba
=gydF4y2Ba
日志gydF4y2Ba
hgydF4y2Ba
hgydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
xgydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
=gydF4y2Ba
xgydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
−gydF4y2Ba
xgydF4y2Ba
一个gydF4y2Ba
wgydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
ygydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
=gydF4y2Ba
ygydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
−gydF4y2Ba
ygydF4y2Ba
一个gydF4y2Ba
hgydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
wgydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
=gydF4y2Ba
日志gydF4y2Ba
wgydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
wgydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
hgydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
=gydF4y2Ba
日志gydF4y2Ba
hgydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
hgydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
在哪里gydF4y2Ba
xgydF4y2Ba
,gydF4y2Ba
ygydF4y2Ba
,gydF4y2Ba
wgydF4y2Ba
,gydF4y2Ba
hgydF4y2Ba
是锚和边界框的坐标:gydF4y2Ba
xgydF4y2Ba ,gydF4y2Ba
ygydF4y2Ba 分别位置、宽度和高度。的变量gydF4y2Ba
xgydF4y2Ba
,gydF4y2Ba
xgydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
xgydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
表明预测的边界框、锚箱和地面实况框,分别,他们的意思是一样的变量gydF4y2Ba
ygydF4y2Ba ,gydF4y2Ba
wgydF4y2Ba
,gydF4y2Ba
hgydF4y2Ba
。gydF4y2Ba
为了培养有效的分类器使用RCNN越快,选择pretrained CNN的图像特征提取是很重要的。在这项研究中,我们使用了Inception-v3网络,具有精度高、小尺寸模型,计算时间短,推导出特征映射中使用的输入图像的RPN和乘员分类过程(gydF4y2Ba
22gydF4y2Ba ]。此外,转移学习了使用pretrained Inception-v3网络ImageNet数据库中的超过100万张照片。Inception-v3网络GoogLeNet的一个改良版本(gydF4y2Ba
23gydF4y2Ba ),在2014年与2390万年被释放参数。GoogLeNet特性一个初始模块,允许密集处理矩阵的计算,同时减少网络中节点之间的连接配置。此外,Inception-v3提高内核用于卷积操作结构通过引入一个新的《盗梦空间》模块使用5 x 5卷积操作两次3 x 3卷积操作,取代了3 x 3卷积操作1 x 3和3 x 1卷积操作减少计算复杂度。此外,卷积操作和池过程并行进行,然后在连接,改善表征瓶颈,这是一个现象的信息大大减少当维度降低过度的神经网络。此外,根据(gydF4y2Ba
24gydF4y2Ba ),Inception-v3取得了超过78.1%的准确性ImageNet数据集。应用Inception-v3 RCNN结构越快,我们删除了最后三层,从Inception-v3网络进行图像分类,并添加一个特征提取层。之后,形成RCNN越快,添加了一个新的分类层和RPN符合居住者标签定义在这个研究。模型的总体结构,检测居住者从单边图像如图gydF4y2Ba
4gydF4y2Ba 。gydF4y2Ba
图4gydF4y2Ba
快RCNN一边形象的描述。gydF4y2Ba
4所示。结果与讨论gydF4y2Ba
从1246年图像集,1000年随机采样图像集用于模型训练,和246年图像集被用于检测精度测试分析车辆乘员检测框架的性能。模型训练进行了使用一个随机的动量与动量梯度下降法解算器0.9,0.001学习速率是固定在整个训练过程。以前,一个分4步的方法被用来训练RCNN越快;本研究的训练模型使用一个端到端的执行方法,提高了培训效率。gydF4y2Ba
此外,评估的效率标识方法在这项研究中,我们比较模型,使用人工标记方法,使用相同的数据集和相同的网络结构。人类的标签标记的方法是一个技术每个人出现在一个图像作为一个个体对象。这种方法一般用于车辆乘员探测区域和人类探测任务(gydF4y2Ba
12gydF4y2Ba - - - - - -gydF4y2Ba
17gydF4y2Ba ]。两个场景被用来比较两个标记之间的检测精度的方法。第一个场景使用相机,假设一个要求精度高的环境。第二个场景中只使用一个摄像头,假设安装环境和成本是有限的。一般来说,使用高巷执法系统,可以简单地计算精度为二进制,确定乘客在车辆的总数比三个,两个或两个以上的模式根据车道类型。如果详细的座椅乘员探测是可行的,系统使用增加。因此,在这项研究中,二进制的准确性,以及检测的准确性的居住者在前排和后排座椅,也是计算和比较。使用主人标签的模型方法在这项研究中,检测结果是来自乘客的数量在前排和后排座椅没有额外的后处理。然而,对于模型的训练比较标记方法,乘客的数量在前排和后排座椅是人类检测结果重新计算使用。区分为前排和后排座椅,b位置之间的距离的计算每个图像检测的结果。 All the methods in this study were implemented using MATLAB 2019b and trained and tested in a Dual Intel® Xeon® Silver 4114 CPU @ 2.20 GHz, 32 GB ram, and single NVIDIA GeForce RTX 2080 Ti computing environment.
这两种标记方法的模型训练时间是7小时1 K迭代。测试这些模型时,主人标签模型平均需要3.4秒每一组图像输出检测结果;然而,人工标注模型花了约7.6秒,两倍多的时间主人标记方法。车辆占用检测测试结果的一个例子为每个模型如图gydF4y2Ba
5gydF4y2Ba 。居住者标签模型显示有多少人在前排和后排座椅,而人工标注模型显示所有检测到的人民和区别前排座位后面一个虚拟b。gydF4y2Ba
图5gydF4y2Ba
两种模型车辆占用检测结果的例子。(一)主人标签的结果。人类标签(b)的结果。gydF4y2Ba
(一)gydF4y2Ba
(b)gydF4y2Ba
表gydF4y2Ba
1gydF4y2Ba 比较的结果主人两个模型的检测精度246左、右侧图像集。主人提出标签方法有相对较高的精度在所有情况下。人工标注模型也是高度准确的二进制情况下检测两个或两个以上的人,但其精度很低,当检测使用者的实际数量。有一个特别大的检出率差异后座的乘客数量;拟议的强劲标记方法检测乘客,即使部分隐藏在捕获的图像。在人类标记方法,神经网络学习一个人的头和肩膀。当很多人占据了车辆,特别是在后座,部分乘客经常阻塞,因此很难确定准确的特点。如果有几个人坐一辆车,后座通常包括一个或多个乘客的一部分。因此,很难确定准确的人类特征。居住者的检测精度提出了模型在本研究中98%的二进制计数和91%案件,这是高于该模型的精度水平(gydF4y2Ba
17gydF4y2Ba ),这被认为是一种先进的主人检测精度。gydF4y2Ba
表1gydF4y2Ba
模型使用两个图像的检测精度。gydF4y2Ba
二进制情况gydF4y2Ba
标记方法gydF4y2Ba
2 +gydF4y2Ba
3 +gydF4y2Ba
主人gydF4y2Ba
99.2%gydF4y2Ba
97.2%gydF4y2Ba
人类gydF4y2Ba
97.6%gydF4y2Ba
82.1%gydF4y2Ba
数情况下gydF4y2Ba
标记方法gydF4y2Ba
前座gydF4y2Ba
后座gydF4y2Ba
总gydF4y2Ba
主人gydF4y2Ba
99.6%gydF4y2Ba
91.1%gydF4y2Ba
90.7%gydF4y2Ba
人类gydF4y2Ba
82.9%gydF4y2Ba
66.3%gydF4y2Ba
61.8%gydF4y2Ba
混淆矩阵允许的更详细的分析检测每个模型的结果。在图gydF4y2Ba
6gydF4y2Ba 的混淆矩阵,提出两种模型的测试结果。左边的两个矩阵模型结果使用主人标记方法在这项研究中,和右侧的两个矩阵是使用人工标注模型模型结果。每个模型的前后座位检测结果显示在两个混淆矩阵。首先,前排座位结果相比,99.59%和82.93%,分别。在主人标签模型中,一个人是错误检测到两人在一个实例。然而,有4例,对照组发现两人登上而实际上一个人登上,但是38例检测到一个人登上当两人登上。驾驶座上的人可能认为是司机和车辆的一部分或隐藏的不正确检测到一个人。此外,后座的区别两个模型的检测精度为91.06%和66.26%,分别是大于前排座位检测精度差。在大多数情况下,该模型在本研究中准确地检测到使用者的数量,和错误的检测结果是维持在±1人相比,实际的数量。因此,很明显,这个模型可以为二进制强劲检测结果情况。 On the contrary, in the control model, the detection accuracy was very low when 3 people or more were on board, and there were many results that showed more than 2-person differences from the actual number of passengers. This is similar to the front seat detection result; the occupant labeling method was more effective when learning the appearance of part of the rear seat passengers. Generally, when using human labeling methods, it is difficult to detect people if some parts of them are hidden.
图6gydF4y2Ba
混淆矩阵对模型进行测试。(一)主人标签的结果。人类标签(b)的结果。gydF4y2Ba
(一)gydF4y2Ba
(b)gydF4y2Ba
而不是使用左右图像,只使用一个图像进行检测的场景在右边,和这项研究的结果发表在表gydF4y2Ba
2gydF4y2Ba 。检测居住者的使用只有一个相机图像,该模型显示更好的结果比人类的检测方法,类似于使用两个摄像机的图像。此外,当使用一个相机,而不是两个摄像头,后座的准确性降低,因为后座乘客往往隐藏在使用图像从一侧,和对面的形象不能弥补小数量的图像。然而,单机模型在这个研究显示一定程度的准确性为87%,这是类似于(gydF4y2Ba
17gydF4y2Ba ),显示最高的准确性(88%)当使用两个摄像头。特别是,在二元的情况下,模型的精度超过90%,所以单机检测模型可以有效地用于一个高执行系统。因此,根据使用的目的和环境,可以使用该占用检测算法灵活。gydF4y2Ba
表2gydF4y2Ba
模型使用一个图像的检测精度gydF4y2Ba
二进制情况gydF4y2Ba
标记方法gydF4y2Ba
2 +gydF4y2Ba
3 +gydF4y2Ba
主人gydF4y2Ba
98.8%gydF4y2Ba
93.5%gydF4y2Ba
人类gydF4y2Ba
89.4%gydF4y2Ba
74.8%gydF4y2Ba
数情况下gydF4y2Ba
标记方法gydF4y2Ba
前座gydF4y2Ba
后座gydF4y2Ba
总gydF4y2Ba
主人gydF4y2Ba
99.6%gydF4y2Ba
87.4%gydF4y2Ba
87.0%gydF4y2Ba
人类gydF4y2Ba
82.9%gydF4y2Ba
54.1%gydF4y2Ba
47.2%gydF4y2Ba
5。结论gydF4y2Ba
克服增加流量和鼓励拼车,许多政府多座客车使用通道,为汽车提供收费价格折扣有多个乘客。然而,这些系统通常确定每辆车的乘客数量通过雇佣警察或员工在收费站附近的路边或收银员。因此,这样human-resource-based入住率探测系统导致营业预算负担和降低精度。由于这些限制,一些研究试图实现自动车辆占用检测系统以多种方式,包括使用车载传感器或的图像。然而,图像采集和图像处理技术的弱点困难难以达到实现这样的检测系统。gydF4y2Ba
为了弥补短缺的先前的研究,这项研究表明一个新的标识方法,检测乘客根据居住者的数量在每一行的汽车而不是使用人类(或面)和窗口标记。这个新的标识方法在短时间内达到更快RCNN检测和高精度。此外,本研究有两个场景:(i)使用两个摄像头;(2)使用一个相机一侧由于可能的困难设置路的两边各有一个摄像头在某些领域。每个场景都有两种情况:(i)二进制:1或2和(2 +)/ 1到2或3和更多(“3 +”);(2)计算实际的乘客数量。综合,2 +案例也有类似的标记方法检测准确性的主人(99%),这项研究表明,和人类的标签(97%)方法,通常的检测方法。然而,3 +案例显示更大的两种标记方法之间的差距(15%),和计数的情况下这两种方法之间巨大的差异:居民(91%)和人(62%)。算例是乘客的实际数量和实际检测自动检测系统的准确性。一边相机场景也有类似的模式时检测结果,但一般精度低于当两个摄像头。 In order, 2+, 3+, and the counting case scenarios had bigger differences with the labeling method, the occupant label had a detection accuracy of 87%, and the human labeling method had an accuracy of 46% at the counting case.
因为更高的检测精度是取得了与实际系统,本研究对进一步研究很重要的路上增加精度比。在未来,我们会尝试各种机器学习方法和神经网络得到更高级的结果基于新的标识方法。gydF4y2Ba
数据可用性gydF4y2Ba
使用的数据来支持本研究的发现没有提供,因为上帝的政策解决方案。gydF4y2Ba
的利益冲突gydF4y2Ba
作者宣称没有利益冲突。gydF4y2Ba
确认gydF4y2Ba
这项研究是财务支持的贸易、工业和能源技术(MOTIE)和韩国发展研究所(吉)通过国际合作研发项目(项目号0002246)。gydF4y2Ba
[
]1gydF4y2Ba
张成泽gydF4y2Ba
K。gydF4y2Ba
钟gydF4y2Ba
K。gydF4y2Ba
上货速度gydF4y2Ba
d·R。gydF4y2Ba
陈gydF4y2Ba
彭译葶。gydF4y2Ba
high-occupancy-vehicle设施的安全性能gydF4y2Ba
运输记录交通研究委员会》杂志上的研究表明gydF4y2Ba
2009年gydF4y2Ba
2099年gydF4y2Ba
1gydF4y2Ba
132年gydF4y2Ba
140年gydF4y2Ba
[
]2gydF4y2Ba
马库拉gydF4y2Ba
lgydF4y2Ba
共乘车道:问题和选项强制执行gydF4y2Ba
2004年gydF4y2Ba
美国凤凰城,阿兹gydF4y2Ba
亚利桑那州交通部gydF4y2Ba
科技,众议员供料-阿兹- 04 - 552gydF4y2Ba
[
]3gydF4y2Ba
SchijnsgydF4y2Ba
年代。gydF4y2Ba
马修斯gydF4y2Ba
P。gydF4y2Ba
突破模式的自动车辆占用监测系统/热设施gydF4y2Ba
1gydF4y2Ba
诉讼模式12日系统的会议gydF4y2Ba
2005年4月gydF4y2Ba
休斯顿,德克萨斯州,美国gydF4y2Ba
[
]4gydF4y2Ba
乔达摩gydF4y2Ba
年代。gydF4y2Ba
拉克鲁瓦gydF4y2Ba
年代。gydF4y2Ba
DevygydF4y2Ba
M。gydF4y2Ba
评估乘员的立体匹配算法检测gydF4y2Ba
学报》国际研讨会上识别、分析和跟踪实时系统的面孔和手势。结合ICCV 99(猫。No.PR00378)gydF4y2Ba
1999年9月gydF4y2Ba
科孚岛,希腊gydF4y2Ba
177年gydF4y2Ba
184年gydF4y2Ba
10.1109 / RATFG.1999.799242gydF4y2Ba
2 - s2.0 - 85006997013gydF4y2Ba
[
]5gydF4y2Ba
DevygydF4y2Ba
M。gydF4y2Ba
GiraltgydF4y2Ba
一个。gydF4y2Ba
Marin-HernandezgydF4y2Ba
一个。gydF4y2Ba
乘客座位占用使用立体视觉检测和分类gydF4y2Ba
2000年IEEE智能车辆gydF4y2Ba
2000年10月gydF4y2Ba
美国密歇根州迪尔伯恩gydF4y2Ba
714年gydF4y2Ba
719年gydF4y2Ba
10.1109 / IVS.2000.898433gydF4y2Ba
[
]6gydF4y2Ba
KlomarkgydF4y2Ba
M。gydF4y2Ba
居住者使用计算机视觉检测gydF4y2Ba
2000年gydF4y2Ba
瑞典林雪平gydF4y2Ba
林雪平大学电机工程系gydF4y2Ba
m . s .论文gydF4y2Ba
[
]7gydF4y2Ba
陆gydF4y2Ba
Y。gydF4y2Ba
马斯纳gydF4y2Ba
C。gydF4y2Ba
艾森曼gydF4y2Ba
lgydF4y2Ba
萨奥尔gydF4y2Ba
年代。gydF4y2Ba
新一代的宝马儿童座椅和居住者SBE2检测系统gydF4y2Ba
国际汽车技术杂志》上gydF4y2Ba
2002年gydF4y2Ba
3gydF4y2Ba
2gydF4y2Ba
53gydF4y2Ba
56gydF4y2Ba
[
]8gydF4y2Ba
OwechkogydF4y2Ba
Y。gydF4y2Ba
SrinivasagydF4y2Ba
N。gydF4y2Ba
MedasanigydF4y2Ba
年代。gydF4y2Ba
BoscologydF4y2Ba
R。gydF4y2Ba
高性能传感器融合的主人建立检测gydF4y2Ba
2gydF4y2Ba
《2003年IEEE国际会议在智能交通系统中gydF4y2Ba
2003年10月gydF4y2Ba
中国上海gydF4y2Ba
1128年gydF4y2Ba
1133年gydF4y2Ba
10.1109 / ITSC.2003.1252661gydF4y2Ba
2 - s2.0 - 33748848105gydF4y2Ba
[
]9gydF4y2Ba
农民gydF4y2Ba
m E。gydF4y2Ba
耆那教徒的gydF4y2Ba
答:K。gydF4y2Ba
汽车安全气囊乘员分类系统抑制gydF4y2Ba
1gydF4y2Ba
2003年IEEE计算机学会学报计算机视觉与模式识别会议gydF4y2Ba
2003年6月gydF4y2Ba
麦迪逊,美国WIgydF4y2Ba
10.1109 / CVPR.2003.1211429gydF4y2Ba
[
]10gydF4y2Ba
Erlik NowruzigydF4y2Ba
F。gydF4y2Ba
埃尔艾哈迈德gydF4y2Ba
w·A。gydF4y2Ba
LaganieregydF4y2Ba
R。gydF4y2Ba
GhodsgydF4y2Ba
a . H。gydF4y2Ba
车载入住率与卷积网络检测热图像gydF4y2Ba
学报2019年IEEE CVF计算机视觉与模式识别会议/研讨会(CVPRW)gydF4y2Ba
2019年6月gydF4y2Ba
美国加利福尼亚州长滩gydF4y2Ba
10.1109 / CVPRW.2019.00124gydF4y2Ba
[
]11gydF4y2Ba
木gydF4y2Ba
j·W。gydF4y2Ba
GimmestadgydF4y2Ba
G·G。gydF4y2Ba
罗伯茨gydF4y2Ba
d . W。gydF4y2Ba
隐蔽的相机模式检查车辆内饰和执行gydF4y2Ba
诉讼的传感器和指挥、控制、通信和情报(C3I)技术国土防御和执法gydF4y2Ba
2003年9月gydF4y2Ba
美国佛罗里达州奥兰多市gydF4y2Ba
411年gydF4y2Ba
420年gydF4y2Ba
10.1117/12.498755gydF4y2Ba
2 - s2.0 - 1642556857gydF4y2Ba
[
]12gydF4y2Ba
郝gydF4y2Ba
X。gydF4y2Ba
陈gydF4y2Ba
H。gydF4y2Ba
李gydF4y2Ba
J。gydF4y2Ba
基于人脸检测的自动车辆乘员计数算法gydF4y2Ba
3gydF4y2Ba
学报》2006年第八届国际会议上信号处理gydF4y2Ba
2006年11月gydF4y2Ba
中国,北京gydF4y2Ba
10.1109 / ICOSP.2006.345797gydF4y2Ba
2 - s2.0 - 34249281314gydF4y2Ba
[
]13gydF4y2Ba
徐gydF4y2Ba
B。gydF4y2Ba
保罗gydF4y2Ba
P。gydF4y2Ba
ArtangydF4y2Ba
Y。gydF4y2Ba
PerronningydF4y2Ba
F。gydF4y2Ba
机器学习的方法来检测车辆占用gydF4y2Ba
2014年gydF4y2Ba
17学报》国际IEEE会议在智能交通系统(ITSC)gydF4y2Ba
2014年11月gydF4y2Ba
中国青岛gydF4y2Ba
1232年gydF4y2Ba
1237年gydF4y2Ba
10.1109 / ITSC.2014.6957856gydF4y2Ba
2 - s2.0 - 84937108000gydF4y2Ba
[
]14gydF4y2Ba
ArtangydF4y2Ba
Y。gydF4y2Ba
保罗gydF4y2Ba
P。gydF4y2Ba
PerroningydF4y2Ba
F。gydF4y2Ba
多节的gydF4y2Ba
一个。gydF4y2Ba
比较人脸检测和图像分类检测前座乘客在车辆gydF4y2Ba
《IEEE计算机视觉的冬季会议上应用gydF4y2Ba
2014年3月gydF4y2Ba
斯廷博特斯普林斯,美国公司gydF4y2Ba
1006年gydF4y2Ba
1012年gydF4y2Ba
10.1109 / WACV.2014.6835994gydF4y2Ba
2 - s2.0 - 84904602727gydF4y2Ba
[
]15gydF4y2Ba
ArtangydF4y2Ba
Y。gydF4y2Ba
BulangydF4y2Ba
O。gydF4y2Ba
爱gydF4y2Ba
r P。gydF4y2Ba
保罗gydF4y2Ba
P。gydF4y2Ba
乘客舱违反高/热检测车道gydF4y2Ba
IEEE智能交通系统gydF4y2Ba
2016年gydF4y2Ba
17gydF4y2Ba
2gydF4y2Ba
395年gydF4y2Ba
405年gydF4y2Ba
10.1109 / tits.2015.2475721gydF4y2Ba
2 - s2.0 - 84943158709gydF4y2Ba
[
]16gydF4y2Ba
BalcigydF4y2Ba
B。gydF4y2Ba
AlkangydF4y2Ba
B。gydF4y2Ba
ElihosgydF4y2Ba
一个。gydF4y2Ba
ArtangydF4y2Ba
Y。gydF4y2Ba
前座的孩子占用检测使用道路监控摄像头图像gydF4y2Ba
学报2018年25日IEEE国际会议上图像处理(ICIP)gydF4y2Ba
2018年10月gydF4y2Ba
希腊雅典gydF4y2Ba
1927年gydF4y2Ba
1931年gydF4y2Ba
10.1109 / ICIP.2018.8451582gydF4y2Ba
2 - s2.0 - 85062897161gydF4y2Ba
[
]17gydF4y2Ba
库马尔gydF4y2Ba
一个。gydF4y2Ba
古普塔gydF4y2Ba
一个。gydF4y2Ba
SantragydF4y2Ba
B。gydF4y2Ba
VPDS:一个基于ai自动车辆占用和违反检测系统gydF4y2Ba
人工智能学报AAAI会议gydF4y2Ba
2019年gydF4y2Ba
33gydF4y2Ba
9498年gydF4y2Ba
9503年gydF4y2Ba
10.1609 / aaai.v33i01.33019498gydF4y2Ba
[
]18gydF4y2Ba
LimgydF4y2Ba
J。gydF4y2Ba
金gydF4y2Ba
年代。gydF4y2Ba
康gydF4y2Ba
年代。gydF4y2Ba
金gydF4y2Ba
C。gydF4y2Ba
发展占用检测运动车辆使用计算机视觉技术gydF4y2Ba
美韩会议程序科学、技术和创业精神gydF4y2Ba
2019年8月gydF4y2Ba
美国芝加哥gydF4y2Ba
[
]19gydF4y2Ba
SachangydF4y2Ba
一个。gydF4y2Ba
0到英雄:指南使用深度学习对象检测:R-CNN更快gydF4y2Ba
2020年gydF4y2Ba
https://cv-tricks.com/object-detection/faster-r-cnn-yolo-ssdgydF4y2Ba
[
]20.gydF4y2Ba
任gydF4y2Ba
年代。gydF4y2Ba
他gydF4y2Ba
K。gydF4y2Ba
GirshickgydF4y2Ba
R。gydF4y2Ba
太阳gydF4y2Ba
J。gydF4y2Ba
更快的R-CNN:对实时检测与地区建议网络gydF4y2Ba
IEEE模式分析与机器智能gydF4y2Ba
2015年gydF4y2Ba
39gydF4y2Ba
6gydF4y2Ba
少量的酒gydF4y2Ba
1137年gydF4y2Ba
1149年gydF4y2Ba
10.1109 / TPAMI.2016.2577031gydF4y2Ba
2 - s2.0 - 85019258369gydF4y2Ba
[
]21gydF4y2Ba
GirshickgydF4y2Ba
R。gydF4y2Ba
多纳休gydF4y2Ba
J。gydF4y2Ba
达雷尔gydF4y2Ba
T。gydF4y2Ba
马利克gydF4y2Ba
J。gydF4y2Ba
丰富的特性准确的对象层次结构和语义分割检测gydF4y2Ba
学报2014年IEEE计算机视觉与模式识别会议gydF4y2Ba
2014年6月gydF4y2Ba
美国哥伦布,哦gydF4y2Ba
580年gydF4y2Ba
587年gydF4y2Ba
10.1109 / CVPR.2014.81gydF4y2Ba
2 - s2.0 - 84911400494gydF4y2Ba
[
]22gydF4y2Ba
CanzianigydF4y2Ba
一个。gydF4y2Ba
PaszkegydF4y2Ba
一个。gydF4y2Ba
CulurciellogydF4y2Ba
E。gydF4y2Ba
深的分析为实际应用神经网络模型gydF4y2Ba
2017年gydF4y2Ba
http://arxiv.org/abs/1605.07678gydF4y2Ba
[
]23gydF4y2Ba
SzegedygydF4y2Ba
C。gydF4y2Ba
刘gydF4y2Ba
W。gydF4y2Ba
贾gydF4y2Ba
Y。gydF4y2Ba
与旋转会更深gydF4y2Ba
学报2015年IEEE计算机视觉与模式识别会议(CVPR)gydF4y2Ba
2015年6月gydF4y2Ba
波士顿,美国gydF4y2Ba
770年gydF4y2Ba
778年gydF4y2Ba
10.1109 / CVPR.2015.7298594gydF4y2Ba
2 - s2.0 - 84937522268gydF4y2Ba
[
]24gydF4y2Ba
SzegedygydF4y2Ba
C。gydF4y2Ba
VanhouckegydF4y2Ba
V。gydF4y2Ba
约飞gydF4y2Ba
年代。gydF4y2Ba
ShlensgydF4y2Ba
J。gydF4y2Ba
重新考虑初始架构计算机视觉gydF4y2Ba
学报2016年IEEE计算机视觉与模式识别会议(CVPR)gydF4y2Ba
2016年6月gydF4y2Ba
美国内华达州拉斯维加斯gydF4y2Ba
2818年gydF4y2Ba
2826年gydF4y2Ba
10.1109 / CVPR.2016.308gydF4y2Ba
2 - s2.0 - 84986296808gydF4y2Ba