Ecosyste.ms: Awesome
An open API service indexing awesome lists of open source software.
awesome-autonomous-vehicle
无人驾驶的资源列表中文版
https://github.com/DeepTecher/awesome-autonomous-vehicle
Last synced: 4 days ago
JSON representation
-
基础
-
人工智能|Artificial Intelligence
- Web: Open Source Deep Learning Curriculum - `深度学习课程`旨在成为每个有兴趣认真学习该领域的人的起点。
- GitHub: Deep Learning Papers Reading Roadmap - `深度学习论文阅读路线图`从大纲到细节构建,从最新到最先进,从通用到特定领域,重点关注从深度学习开始的SOTA技术。 由Flood Sung维护。
- GitHub: Awesome Machine Learning - `机器学习`框架、库和软件的`精选列表`。 由Joseph Misiti.Joseph Misiti维护
-
机器人学|Robotics
- GitHub: Awesome Robotics - 由kiloreux维护的机器人技术的各种书籍,课程和其他资源的列表。
-
计算机视觉|Computer Vision
- Awesome Computer Vision - 计算机视觉资源精选清单
- Awesome Deep Vision - 计算机视觉深度学习资源的精选清单
-
-
课程
-
计算机视觉|Computer Vision
- [优达学城 - 教学自动驾驶团队使用的技能和技巧。 可以在[这里](https://medium.com/self-driving-cars/term-1-in-depth-on-udacitys-self-driving-car-curriculum-ffcf46af0c08#.bfgw9uxd9)找到课程大纲 .
- [多伦多大学 - 自动驾驶视觉感知研究生课程。 本课程简要介绍了定位,自我运动估计,自由空间估计,视觉识别(分类,检测,分割)等主题。
- [INRIA - 介绍了对移动机器人和自动驾驶汽车进行编程所需的关键概念。 该课程提供了算法工具,并针对其上周的主题(行为建模和学习),它还将提供Python中的实际示例和编程练习。
- [格拉斯哥大学 - 介绍自动驾驶仪指导和协调背后的概念,使学生能够设计和实施规划、优化和反应的车辆的指导策略。
- [David Silver - 优达学城 - 来自Udacity的David Silver回顾了他在软件工程背景下从事自动驾驶汽车工作的课程。
- [斯坦福 - 包含一个简单的自动驾驶项目以及模拟器。
- [MIT - 通过构建自动驾驶汽车的应用主题介绍深度学习的实践。
- [MIT - 关于研究生水平的自动化科学课程。 这是一个实践性的,以项目为中心的课程,侧重于自动驾驶车辆和高级自动化。 问题:**为Duckietown(小鸭城)设计自动机器人出租车系统。**
- [优达学城 - 教学自动驾驶团队使用的技能和技巧。 可以在[这里](https://medium.com/self-driving-cars/term-1-in-depth-on-udacitys-self-driving-car-curriculum-ffcf46af0c08#.bfgw9uxd9)找到课程大纲 .
-
-
研究实验室
-
高校
- Center for Automotive Research at Stanford - 目前的研究领域侧重于以人为中心的流动性主题,例如了解人们如何与日益自动化的车辆互动,车辆自动化从政策到伦理到法律的社会影响,传感,决策和控制方面的技术进步。
- SAIL-TOYOTA Center for AI Research at Stanford - 该中心的主题是**以人为本的人工智能,用于未来的智能车辆及其他。**
- ASL:Autonomous System lab - 设计和控制的方法,特别强调大型机器人网络和自主航空航天器。 该实验室结合了控制理论、机器人技术、优化和运筹学方面的专业知识,为在不确定、快速变化和潜在对抗环境中运行的网络化自治系统开发理论基础。
- SISL:Stanford Intelligent System Laboratory - 斯坦福人工智能实验室 主要关注于稳健决策系统的先进算法和分析方法。在无人驾驶的最新研究在[这里](http://web.stanford.edu/group/sisl/cgi-bin/wordpress/research/),
- CMU The Robotic Institute - - 从事计算机视觉,自主导航,虚拟现实,智能操纵,空间机器人和相关领域的工作。
- The Carnegie Mellon University Navigation Laboratory - CMU Navlab小组主要研究自动驾驶和辅助驾驶控制的车辆。
- CSAIL:Computer Science and Artificial Intelligence Laboratory - MIT 计算机科学和人工智能实验室开创了计算领域的研究。
- Toyota-CSAIL Research Center at MIT - 旨在进一步发展自动驾驶汽车技术,目标是减少交通伤亡,甚至可能开发无法发生事故的车辆。
- LIS:Learning and Intelligent System - 研究汇集了来自运动和任务规划,机器学习,强化学习和计算机视觉的想法,以综合能够在各种问题领域中智能地运行的机器人系统。
- Robust Robotics Group - 在决策理论规划,统计推断和人工智能方面的算法优化。 特别关注具有不确定模型的领域中的规划和控制问题,使用优化,统计估计和机器学习来从经验中学习良好的计划和策略。
- Interactive Robotics Group - 设计机器智能来增强人的能力
- LIDS:Laboratory for Information & Decision Systems - 研究中心,致力于推进分析信息和决策科学的研究和教育,特别是:系统和控制通信、网络推理和统计数据处理。
- ACL:Aerospace Control Lab - 不确定性下的决策; 路径规划,活动和任务分配; 估计和导航; 传感器网络设计; 鲁棒控制,自适应控制和模型预测控制。
- Center for Information & System Engineering
- BU ROBOTICS LAB
- Berkeley DeepDrive - 研究汽车应用的计算机视觉和机器学习方面的最新技术。
- MSC:Mechanical Systems Control Laboratory - 无人驾驶相关上,专注于提出新颖的方法和建立相应的设施,以解决全堆栈自动驾驶中最具挑战性的实际问题。 我们将传统控制,规划和状态估计方法(最优/鲁棒控制,优化,图搜索,贝叶斯过滤等)与最先进的机器学习方法(强化学习,深度神经网络,概率图形模型, 等)结合。
- MPC Lab Research - 过去十年,MPC lab一直专注于先进的汽车安全系统,开发一种新的科学网络物理系统科学,其目标是获得一个可证明安全的以人为中心的自治权。
- BAIR:Berkeley AI Research Lab - 致力于研究 计算机视觉、机器学习、NLP、规划和机器人学。
- InterACT - 人机交互、机器人 控制、规划、评估、学习以及认知科学
- AUTOLAB - 机器人和自动化方面
- Princeton Autonomous Vehicle Engineering - 普林斯顿大学以本科生为主导的研究小组,致力于通过竞争挑战,自我引导研究和社区外展推动和推动机器人领域。
- Princeton Vision & Robotics - 自动驾驶和街景。
- University of Maryland Autonomous Vehicle Laboratory - 在生物启发设计和机器人领域进行研究和开发。
- MSL: Mobility Systems Laboratory - 拥有广泛的研究活动,涵盖领域包括动力系统的控制,建模,估算,优化和诊断,特别是发动机,动力总成,后处理,混合动力,灵活燃料,替代/可再生能源,能量存储,(电动)地面车辆,自动驾驶汽车,智能交通,智能和可持续的移动性,以人为中心的自动化,网络物理和机电一体化系统
- Michigan Robotics - 密歇根机器人研究所,研究方向有:人工智能、无人驾驶/网联车、机器人深度学习、人机交互、腿部运动和外骨骼、远程操作、运动规划、感知和计算机视觉等。
- MCity Driverless Shuttle research - LiDAR、GPS、摄像头、WiFi的电动11座巴士解决方案
- UMTRI:University of Michigan Transportation Research Institute - 安全和可持续的交通,可持续移动系统,运输数据融合和分析以及重型货物的高效运输的前沿
- Robotics at Cornell - 感知,控制,学习,规划和人机交互。 各种机器人:如空中机器人,家庭和办公室助理机器人,自动驾驶汽车,人形机器人,进化机器人,腿式机器人,蛇形机器人等。
- ASL:Autonomous System Lab - 注于算法和硬件实现,支持自动/半自动机器人系统的一般领域中的各种应用。研究的主题包括感知、估计、控制、高层决策和人机交互。
- Cornell Research-Autonomous Driving
- LISA:Laboratory for Intelligent & Safe Automobiles - LISA旨在探索创新方法,使未来的汽车更安全,更“智能”。 我们的研究考虑了与驾驶员,乘员,车辆动力学和车辆环境以及交通基础设施相关的参数的传感,分析,建模和预测问题。团队拥有广泛的理论和实验研究议程。 我们的实验室中有几个独特而强大的试验台,包括车辆,实时机器视觉系统,多模式接口和驾驶模拟器。
- GRASP:general robotics, automation, sensing & perception laboratory - 通用机器人、自动化、感知和控制实验室。侧重无人机和四肢机器人。
- Honda Research Institute - USA - 从事多个感官模块的开发和集成以及这些组件的协调,同时完成稳定运动规划,决策制定,避障和控制(测试)等任务。
- Raquel Urtasun带领 Uber ATG - 由Uber ATG首席科学家兼Uber ATG 多伦多负责人带领的Raquel Urtasun,研究领域包括:自动驾驶汽车,计算机视觉,机器学习,遥感和机器人。
- Dynamic Systems Lab - 机器人控制和学习算法;多机器人协作系统
- WatCAR:The Waterloo Centre for Automotive Research - 致力于汽车和运输系统的合作研究,通过促进汽车行业和滑铁卢大学教授研究人员之间的关系。
- CogDrive: Cognitive Autonomous Driving Lab - 主要研究方向包括驾驶员行为与认知,人车协同,认知自动驾驶等。
- University of Waterloo WAVE Laboratory - 研究领域包括Multirotor无人机,自动驾驶和多摄像机并行跟踪和绘图。
- Mechatronic Vehicle Systems Lab - 机电一体化车辆系统实验室的任务是应对这些挑战以及与各种控制系统相关的其他挑战,例如牵引力控制,车辆稳定性控制和受控悬架将有助于开发能够生产下一代电动车辆系统的技术。满足对车辆动态性能,主动安全性和环境可持续性的高要求。
- Oxford Robotics Institute – Autonomous Systems - 研究基于陆地的移动自动化的各个方面。
- Autonomous Lab - Freie Universität Berlin - 计算机视觉,认知导航,空间汽车环境捕获。
- RITS:Robotics and Intelligent Transportation Systems - 致力于智能交通系统的机器人技术。 我们特别寻求将数学工具和技术相结合,以设计用于自主和可持续移动的先进智能机器人系统。
- IRIS - Institute of Robotics and Intelligent Systems - 由八个独立的实验室组成,实验室从生物医学纳米设备到康复系统和自主飞行器等领域进行研究。
- ASL:Autonomous Systems Lab - 机电设计和控制系统,可以自主适应不同的情况,并应对我们不确定和动态的日常环境。 我们对新型机器人概念着迷,这些概念最适合在地面,空中和水中作用。 感知,抽象,绘图和路径规划的新方法和工具。
- Robotics and Perception Group - 隶属于ETH的神经信息学研究所,侧重感知:使用车载摄像头进行自行导航。主要是无人机,当然也包括一些micro地面机器人。
- VisLab(目前已和安霸合并) - 机器视觉,模式识别,低级图像处理,机器学习,人工智能,机器人和真实等许多学科进行研究。实验室的主要重点是将基础和高级研究应用于智能交通系统和智能车辆。
- Intelligent Robot Lab - 智慧家庭节能与健康照护、智慧型机器人、电脑视觉用于驾驶辅助、人机互动与虚拟实境、演化式计算与应用
- HESL:Hardware & Embedded Systems Lab - 隶属NTU计算机科学和工程学院,无人驾驶相关的研究领域为:嵌入式视觉(无人驾驶场景理解、视频监控)
- 天石机器人研究所 - 无人驾驶相关的是:工业的自动拖拉机研究
- SISL:Stanford Intelligent System Laboratory - 斯坦福人工智能实验室 主要关注于稳健决策系统的先进算法和分析方法。在无人驾驶的最新研究在[这里](http://web.stanford.edu/group/sisl/cgi-bin/wordpress/research/),
- Cornell Research-Autonomous Driving
- Cornell Research-Autonomous Driving
-
-
数据集
-
高校
- nuScenes - 安波福于2019年3月公开了其数据集,并在[GitHub](https://github.com/nutonomy/nuscenes-devkit)公开教程。数据集拥有从波士顿和新加坡收集的1000个“场景”的信息,包含每个城市环境中都有的最复杂的一些驾驶场景。该数据集由140万张图像、39万次激光雷达扫描和140万个3D人工注释边界框组成,是迄今为止公布的最大的多模态3D AV数据集。
- H3D - HRI-US - 本田研究所于2019年3月发布其无人驾驶方向数据集,相关介绍于[arXiv:1903.01568](https://arxiv.org/abs/1903.01568)介绍。本数据集使用3D LiDAR扫描仪收集的大型全环绕3D多目标检测和跟踪数据集。 其包含160个拥挤且高度互动的交通场景,在27,721帧中共有100万个标记实例。凭借独特的数据集大小,丰富的注释和复杂的场景,H3D聚集在一起,以激发对全环绕3D多目标检测和跟踪的研究。
- KITTI Vision Benchmark Suite - 数据集为使用各种传感器模式,例如高分辨率彩色和灰度立体相机,Velodyne 3D激光扫描仪和高精度GPS/IMU惯性导航系统,在10-100 Hz下进行6小时拍摄的交通场景。
- Cityscape Dataset - 专注于对城市街景的语义理解。 大型数据集,包含从50个不同城市的街景中记录的各种立体视频序列,高质量的像素级注释为5000帧,另外还有一组较大的20000个弱注释帧。 因此,数据集比先前的类似尝试大一个数量级。 可以使用带注释的类的详细信息和注释示例。
- Mapillary Vistas Dataset - 数据集是一个新颖的大规模街道级图像数据集,包含25,000个高分辨率图像,注释为66个对象类别,另有37个类别的特定于实例的标签。通过使用多边形来描绘单个对象,以精细和细粒度的样式执行注释。
- CamVid - 剑桥驾驶标签视频数据库(CamVid)是第一个具有对象类语义标签的视频集合,其中包含元数据。 数据库提供基础事实标签,将每个像素与32个语义类之一相关联。 该数据库解决了对实验数据的需求,以定量评估新兴算法。 虽然大多数视频都使用固定位置的闭路电视风格相机拍摄,但我们的数据是从驾驶汽车的角度拍摄的。 驾驶场景增加了观察对象类的数量和异质性。
- Caltech数据集 - 加州理工学院行人数据集包括大约10小时的640x480 30Hz视频,这些视频来自在城市环境中通过常规交通的车辆。 大约250,000个帧(137个近似分钟的长段)共有350,000个边界框和2300个独特的行人被注释。 注释包括边界框和详细遮挡标签之间的时间对应。 更多信息可以在我们的PAMI 2012和CVPR 2009基准测试文件中找到。
- Comma.ai - 7.25小时的高速公路驾驶。 包含10个可变大小的视频片段,以20 Hz的频率录制,相机安装在Acura ILX 2016的挡风玻璃上。与视频平行,还记录了一些测量值,如汽车的速度、加速度、转向角、GPS坐标,陀螺仪角度。 这些测量结果转换为均匀的100 Hz时基。
- Oxford's Robotic Car - 超过100次重复对英国牛津的路线进行一年多采集拍摄。 该数据集捕获了许多不同的天气,交通和行人组合,以及建筑和道路工程等长期变化。
- 伯克利BDD100K数据 - 超过100K的视频和各种注释组成,包括图像级别标记,对象边界框,可行驶区域,车道标记和全帧实例分割,该数据集具有地理,环境和天气多样性
- Udacity - 为[Udacity Challenges](https://www.udacity.com/self-driving-car)发布的Udacity数据集。 包含ROSBAG训练数据。 (大约80 GB)。
- University of Michigan North Campus Long-Term Vision and LIDAR Dataset - 包括全方位图像,3D激光雷达,平面激光雷达,GPS和本体感应传感器,用于使用Segway机器人收集的测距。
- University of Michigan Ford Campus Vision and Lidar Data Set - 基于改进的福特F-250皮卡车的自动地面车辆测试台收集的数据集。 该车配备了专业(Applanix POS LV)和消费者(Xsens MTI-G)惯性测量单元(IMU),Velodyne 3D激光雷达扫描仪,两个推扫式前视Riegl激光雷达和Point Grey Ladybug3全方位摄像头 系统。
- DIPLECS Autonomous Driving Datasets (2015) - 通过在Surrey乡村周围驾驶的汽车中放置高清摄像头来记录数据集。 该数据集包含大约30分钟的驾驶时间。 视频为1920x1080,采用H.264编解码器编码。 通过跟踪方向盘上的标记来估计转向。 汽车的速度是从汽车的速度表OCR估算的(但不保证方法的准确性)。
- Velodyne SLAM Dataset from Karlsruhe Institute of Technology - 在德国卡尔斯鲁厄市使用Velodyne HDL64E-S2扫描仪记录的两个具有挑战性的数据集。
- SYNTHetic collection of Imagery and Annotations (SYNTHIA) - 包括从虚拟城市渲染的照片般逼真的帧集合,并为13个类别提供精确的像素级语义注释:misc,天空,建筑,道路,人行道,围栏,植被,杆,汽车,标志,行人, 骑自行车的人,车道标记。
- CSSAD Dataset - 包括若干真实世界的立体数据集,用于在自动驾驶车辆的感知和导航领域中开发和测试算法。 然而,它们都没有记录在发展中国家,因此它们缺乏在街道和道路上可以找到的特殊特征,如丰富的坑洼,减速器和特殊的行人流。 该立体数据集是从移动的车辆记录的,并且包含高分辨率立体图像,其补充有从IMU,GPS数据和来自汽车计算机的数据获得的定向和加速度数据。
- Daimler Urban Segmetation Dataset - 包括城市交通中记录的视频序列。 该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。 500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。 提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。
- Self Racing Cars - XSens/Fairchild Dataset - 文件包括来自Fairchild FIS1100 6自由度(DoF)IMU,Fairchild FMT-1030 AHRS,Xsens MTi-3 AHRS和Xsens MTi-G-710 GNSS / INS的测量结果。 事件中的文件都可以在MT Manager软件中读取,该软件可作为MT软件套件的一部分提供,可在此处获得。
- MIT AGE Lab - 由AgeLab收集的1,000多小时多传感器驾驶数据集的一小部分样本。
- LaRA - 巴黎的交通信号灯数据集
- 博世小交通灯 - 用于深度学习的小型交通灯的数据集。
- LISA: Laboratory for Intelligent & Safe Automobiles, UC San Diego Datasets - 交通标志,车辆检测,交通灯,轨迹模式。
- Multisensory Omni-directional Long-term Place Recognition (MOLP) dataset for autonomous driving - 它是在美国科罗拉多州的一年内使用全向立体相机录制的。[论文](https://arxiv.org/abs/1704.05215)
- DeepTesla - 主要包括tesla在两种不同驾驶模式(human driving和autopilot)下的前置相机录制的视频和车辆的转向控制信号。数据可以从这里下载:[百度云](https://pan.baidu.com/s/1c2J2IFA#list/path=%2F)。可以参考此[GitHub](https://github.com/CJHMPower/deep-tesla)
- Daimler Urban Segmetation Dataset - 包括城市交通中记录的视频序列。 该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。 500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。 提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。
- Daimler Urban Segmetation Dataset - 包括城市交通中记录的视频序列。 该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。 500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。 提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。
- Daimler Urban Segmetation Dataset - 包括城市交通中记录的视频序列。 该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。 500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。 提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。
- Daimler Urban Segmetation Dataset - 包括城市交通中记录的视频序列。 该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。 500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。 提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。
- Daimler Urban Segmetation Dataset - 包括城市交通中记录的视频序列。 该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。 500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。 提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。
- Daimler Urban Segmetation Dataset - 包括城市交通中记录的视频序列。 该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。 500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。 提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。
- Daimler Urban Segmetation Dataset - 包括城市交通中记录的视频序列。 该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。 500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。 提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。
- KUL Belgium Traffic Sign Dataset - 具有10000多个交通标志注释的大型数据集,数千个物理上不同的交通标志。 用8个高分辨率摄像头录制的4个视频序列安装在一辆面包车上,总计超过3个小时,带有交通标志注释,摄像机校准和姿势。 大约16000张背景图片。 这些材料通过GeoAutomation在比利时,佛兰德斯地区的城市环境中捕获。
- University of Michigan Ford Campus Vision and Lidar Data Set - 基于改进的福特F-250皮卡车的自动地面车辆测试台收集的数据集。 该车配备了专业(Applanix POS LV)和消费者(Xsens MTI-G)惯性测量单元(IMU),Velodyne 3D激光雷达扫描仪,两个推扫式前视Riegl激光雷达和Point Grey Ladybug3全方位摄像头 系统。
- Daimler Urban Segmetation Dataset - 包括城市交通中记录的视频序列。 该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。 500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。 提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。
-
-
SOTA代码
-
物体检测|Object Detection
- Stereo R-CNN based 3D Object Detection for Autonomous Driving
- tusimple/simpledet - `SOTA on consumer grade hardware at large scale`
- SimpleDet: A Simple and Versatile Distributed Framework for Object Detection and Instance Recognition
- PointPillars: Fast Encoders for Object Detection from Point Clouds
- PointRCNN: 3D Object Proposal Generation and Detection from Point Cloud
- Road Damage Detection And Classification In Smartphone Captured Images Using Mask R-CNN
- Complex-YOLO: Real-time 3D Object Detection on Point Clouds
- Joint 3D Proposal Generation and Object Detection from View Aggregation
- Frustum PointNets for 3D Object Detection from RGB-D Data
- DeepScale
- SqueezeDet: Unified, Small, Low Power Fully Convolutional Neural Networks for Real-Time Object Detection for Autonomous Driving
- VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection
- DeepScale
-
分割|Segmentation
- LEDNet: A Lightweight Encoder-Decoder Network for Real-Time Semantic Segmentation
- In Defense of Pre-trained ImageNet Architectures for Real-time Semantic Segmentation of Road-driving Images
- A Curriculum Domain Adaptation Approach to the Semantic Segmentation of Urban Scenes
- BiSeNet: Bilateral Segmentation Network for Real-time Semantic Segmentation
- RTSeg: Real-time Semantic Segmentation Comparative Study
- FZI研究中心
- MultiNet: Real-time Joint Semantic Reasoning for Autonomous Driving
- The Lovász-Softmax loss: A tractable surrogate for the optimization of the intersection-over-union measure in neural networks
- SqueezeSeg: Convolutional Neural Nets with Recurrent CRF for Real-Time Road-Object Segmentation from 3D LiDAR Point Cloud
- tensorflow/models - `SOTA in (Semantic Segmentation & Real-Time Semantic Segmentation)`,[more detail](https://paperswithcode.com/paper/pyramid-scene-parsing-network),`CVPR 2017`
- Pyramid Scene Parsing Network
-
传感器融合|Sensor Fusion
-
决策系统|Decision Making
-
运动规划|Motion Planer
-
-
软件
-
仿真平台
- 英伟达 Drive Constellation - 采用逼真的模拟技术,以更安全、更易扩展、
- 英伟达 Drive Constellation - 采用逼真的模拟技术,以更安全、更易扩展、
-
软件
- Autoware|开源 - 用于城市自动驾驶的集成开源软件。
-
可视化工具
- 优步ATG AVS|开源 - 其主要包括两个repo: [xviz](https://github.com/uber/xviz)处理数据
- streetscape.gl
-
其他
- Stanford Driving Software - 斯坦福自动驾驶汽车的较早时候软件基础设施。
- The OSCC Project - 用于自动驾驶汽车开发的线控控制套件。
- The OSCC Project - 用于自动驾驶汽车开发的线控控制套件。
-
-
公司
-
媒体
-
法规
Programming Languages
Sub Categories
Keywords