关于人工智能:最全自动驾驶数据集分享系列七-驾驶行为数据集

4次阅读

共计 3715 个字符,预计需要花费 10 分钟才能阅读完成。

目前对于主动驾驶数据集你想晓得的,应该都在这里了,这是「整数智能」主动驾驶数据集八大系列分享之系列七:

「本期划重点」

  • 首次提出由驾驶视频、激光雷达和相应的驾驶行为组成的数据集:DBNet
  • 第一个带正文的 DAVIS 行车记录凋谢数据集:DDD17
  • 第一组天然驾驶数据集:Brain4Cars

「八大系列概览」

主动驾驶数据集分享是整数智能推出的一个全新分享系列,在这个系列中,咱们将介绍目前为止各大科研机构和企业推出的所有公开主动驾驶数据集。数据集次要分为八个系列:

  • 系列一:指标检测数据集🔗
  • 系列二:语义宰割数据集🔗
  • 系列三:车道线检测数据集🔗
  • 系列四:光流数据集🔗
  • 系列五:Stereo Dataset🔗
  • 系列六:定位与地图数据集🔗
  • 系列七:驾驶行为数据集
  • 系列八:仿真数据集

    本文是 < 系列七:驾驶行为数据集 >,上面共包含 10 个数据集:

01 「DBNet」

  • 公布方:上海交通大学
  • 下载地址:http://www.dbehavior.net
  • 论文地址:http://www.dbehavior.net/data…
  • 公布工夫:2018 年
  • 简介:该网络提供了由 Velodyne 激光扫描的大规模高质量点云、仪表盘摄像头记录的视频和规范司机行为
  • 特色

    • 大规模:该数据集由超过 10k 帧的实在街景组成,数据总量超过 1TB
    • 多样性:记录实在交通中间断而多变的场景,如海边路线、学校区域甚至是山路,其中蕴含了大量的十字路口、行人和交通标志
    • 高质量:数据集中的点云、视频和驾驶员行为均通过高分辨率传感器获取,可能较好地还原实在驾驶工况

第一行是灰色特色图,第二行是对应的应用喷射黑白地图的黑白特色图

02「DDD17」

  • 公布方:苏黎世联邦理工学院
  • 下载地址:sensors.ini.uzh.ch/databases
  • 论文地址:https://xueshu.baidu.com/user…
  • 公布工夫:2017 年
  • 简介:DDD17 是第一个带正文的 DAVIS 行车记录凋谢数据集。DDD17 有一个 346×260 像素的 DAVIS 传感器,能够记录公路和城市在白天、早晨、夜晚、干湿天气条件下的行驶状况,以及从车载诊断界面获取的车辆速度、GPS 地位、驾驶员转向、油门和刹车信息
  • 特色

    • 应用流动像素视觉传感器(DAVIS)收集数据
    • DAVIS 行车记录带有正文

    顶部面板显示 DAVIS 框架(左:笼罩了一些驾驶数据集,右:事件),底部面板显示了进度条,以及不同车辆数据的可视化(顶部是前灯状态,两头是转向角度,底部是速度)

03「Brain4Cars」

  • 公布方:康奈尔大学
  • 下载地址:
    http://www.brain4cars.com
  • 论文地址:
    https://xueshu.baidu.com/user…
  • 公布工夫:2016 年
  • 简介:该数据集包含 1180 英里的天然高速公路和城市驾驶,并表明能够在机动车实时产生前 3.5 秒预测这些机动车,精确度和召回率别离为 90.5% 和 87.4%
  • 特色

    • 提出了一种提前几秒钟预测驾驶动作的办法
    • 第一组天然驾驶的数据集,包含车内的视频、GPS 和速度信息

    数据集在司机和景观方面是多样化的

04「Dr(eye)ve」

  • 公布方:摩德纳大学
  • 下载地址:
    http://imagelab.ing.unimore.i…
  • 论文地址:
    https://xueshu.baidu.com/user…
  • 公布工夫:2016 年
  • 简介:该数据集由 50 多万帧组成,蕴含司机的注视和他们的工夫整合,提供了特定工作的显著性地图。天文参考地位、驾驶速度和路线实现了这组公布的数据。
  • 特色

    • 该数据集是公开的,提供了数小时的驾驶视频,能够用来了解注意力景象
    • 该数据集依赖于工作和环境。依据注意力的心理学钻研,数据是在实在的驾驶体验中收集的,因而尽可能地实在
    • 应用高端注意力辨认仪器,联合摄像头数据和 GPS 信息

    从左到右,从上到下:车载视图、驾驶员视角、注视地图叠加和天文参考路线

05「Elektra(DrivFace)」

  • 公布方:巴塞罗那自治大学
  • 下载地址:
    http://adas.cvc.uab.es/elektr…
  • 官网地址:
    http://adas.cvc.uab.es/elektra/
  • 公布工夫:2016 年
  • 简介:该数据库蕴含在实在场景中驾驶时的主题图像序列。它由 606 个样本组成,每个样本大小为 640×480 像素,在不同的日期从 4 名司机(2 名女性和 2 名男性)那里取得,并具备眼睛和胡须等多种面部特色
  • 特色

    • ground truth 蕴含人脸边界框和人脸关键点的正文
    • 给出了一组标签,将每个图像调配到 3 个可能的凝视方向类别。第一类是“右视”类,蕴含 -45°和 -30°之间的角度。第二个是“侧面”类,蕴含 -15°和 15°之间的角度。最初一个是“左视”类,蕴含 30°到 45°之间的角度

06「DIPLECS Surrey」

  • 公布方:萨里大学
  • 下载地址:
    https://cvssp.org/data/diplecs/
  • 公布工夫:2015 年
  • 简介:该数据集是通过将高清摄像头搁置在萨里农村四周行驶的汽车中记录,蕴含大概 30 分钟的驾驶工夫。视频分辨率为 1920×1080,应用 H.264 编解码编码
  • 特色

    • 通过跟踪方向盘上的标记来预计转向
    • 汽车的速度是从汽车的时速表 OCR 预计的

07「HDD」

  • 公布方:美国本田研究所
  • 下载地址:
    https://usa.honda-ri.com/hdd
  • 论文地址:
    https://usa.honda-ri.com/docu…
  • 公布工夫:2018 年
  • 简介:该数据集明确的指标是学习人类如何执行口头并与交通参与者互动。作者在旧金山湾区收集了 104 个小时的人类实在驾驶记录,应用的是一辆带仪器的车辆。录音由 137 个 session 组成,每个 session 代表一个司机执行的导航工作
  • 特色

    • 104 小时的人类实在驾驶记录
    • 高分辨率相机:1920 x 1200 像素,帧率 30Hz
    • 数据收集范畴包含旧金山湾区市区、市区和高速公路

    交通场景中不同司机行为的例子,黄色的轨迹示意仪器车辆的 GPS 地位

08「JAAD」

  • 公布方:美国本田研究所
  • 下载地址:https://data.nvision2.eecs.yo…
  • 论文地址:https://openaccess.thecvf.com…
  • 公布工夫:2017 年
  • 简介:JAAD 是用于钻研主动驾驶背景下的联结注意力的数据集。重点是行人和驾驶员在交叉路口的行为以及影响它们的因素。为此,JAAD 数据集提供了一个有丰盛正文的 346 个短视频片段(5-10 秒长)的汇合,这些片段是从超过 240 小时的驾驶录像中提取的。这些在北美和东欧几个中央拍摄的视频代表了不同天气条件下日常城市驾驶的典型场景。该数据集为所有行人提供了带有遮挡标签的边界框,使这个数据集实用于行人检测。行为正文阐明了与司机互动或须要司机留神的行人的行为,每段视频都有几个标签(天气、地点等)和固定列表中带有工夫戳的行为标签(例如,进行、行走、寻找等)。此外,还为每个行人提供了人口属性列表(如年龄、性别、静止方向等),以及每一帧的可见交通场景元素列表(如停车标记、交通信号等)
  • 特色

    • 数据集中有超过 300 个视频片段,持续时间从 5 秒到 15 秒不等
    • 数据收集在北美(60 个片段)和欧洲(286 个片段)
    • 应用三种不同的高分辨率单眼相机收集,视频帧率为 30fps

    数据集中提供的正文示例: 所有行人的边界框,行为标签,行人过马路或打算过马路的性别和年龄,上下文标签 (天气,一天的工夫,街道构造)09「UAH-DriveSet」公布方:阿尔卡拉大学(UAH)下载地址:http://www.robesafe.uah.es/pe… 论文地址:http://www.robesafe.uah.es/pe… 公布工夫:2016 年简介:UAH-DriveSet 是咱们的驾驶监控利用 DriveSafe 由不同环境中的各种测试人员捕捉的公共数据汇合。该数据集试图通过提供大量变量来促成驾驶剖析畛域的停顿,这些变量在独立驾驶测试期间由智能手机的所有传感器和性能捕捉和解决。该应用程序在 6 位不同的驾驶员和车辆上运行,在两种类型的路线(高速公路和主要路线)上执行 3 种不同的行为(失常、昏昏欲睡和攻击性),产生超过 500 分钟的天然驾驶及其相干的原始数据和其余语义信息,以及旅行的视频记录特色由 6 名不同的司机和车辆运行在两种类型的路线上执行 3 种不同的行为(失常、瞌睡和攻击性)产生了 500 分钟的天然驾驶及其相干的原始数据和通过解决的语义信息,同时还有行程的视频记录

    在主要路线行驶的记录

10「DADA」

  • 公布方:西安交通大学,长安大学
  • 下载地址:https://github.com/JWFangit/L…
  • 论文地址:https://arxiv.org/abs/1912.12…
  • 公布工夫:2019 年
  • 简介:作者制作了该数据集用于钻研驾驶员注意力预测。作者搜寻了简直所有的公共数据集和支流视频网站,取得了 300 万帧左右的视频,通过荡涤工作后取得了 2000 个分辨率为 1584 x 660 的视频中(等于 6.1 小时,30fps),视频不做任何修剪工作使注意力的收集更加天然
  • 特色

    • 依据事变的参与者将视频划分为 54 类
    • 场景波及高速公路,城市道路,农村路线,隧道等

    指标检测和注意力预测后果

正文完
 0