AI algorithms for autonomous lawnmowers

Funding: Die Senatorin für Wirtschaft, Arbeit und Europa der freien Hansestadt Bremen

Website: - 

Project period: 2021-2022

Cooperation partner: TOPA³S, Alpha Robotics

In this multi-disciplinary project, a lawn mower robot is enhanced. Its task it is to autonomously navigate and mow very large areas of grass. For this purpose, AI algorithms of autonomous driving and space travel are transferred and implemented onto the robot. In particular our work group designs a high-precision localization by means of a multi-sensor fusion. In this regard, measurements of a RTK-GNSS receiver, an IMU, and other sensors are probabillistically fused in a Kalman filter. The project partners also implement a trajectory planner, which avoids obstacles and no-go zones, as well as a engine control algorithm for the robot.

PRORETA 5 – urbAn drIving

Fördermittelgeber: Continental AG

Webseite: Proreta5 

Laufzeit: 2019-2022

Kooperationspartner: Continental AG, TU Darmstad, TU Iaşi

proreta logo

PRORETA ist eine interdisziplinäre Forschungskooperation zwischen Universitäten und Continental AG. Das Ziel dieser Kooperation ist die Entwicklung von Fahrerassistenzsystemen (ADAS) und Funktionen für autonomes Fahren (AD), um Verkehrunfälle zu verhindern.
Der Name PRORETA wurde in Anlehnung an das gleichnamige Mitglied der römischen Kriegsflotte gewählt. Der Proreta stand am Bug des Schiffes (Prora) und warnte vor Untiefen und anderen Gefahren.
Das Ziel des Forschungsprojekts PRORETA 5 ist die Untersuchung von Methoden der künstlichen Intelligenz für das autonome Fahren. Fokus dabei sind Situationsverständnis und Bewegungsplanung für autonomes Fahren im Stadtverkehr. Zu diesem Zweck kooperiert Continental mit dem Institut für Fahrzeugtechnik (FZD) und dem Fachgebiet Regelungsmethoden und Robotik (rmr) der technischen Universität Darmstadt, dem Institut für kognitive Neuroinformatik (CNI) der Universität Bremen und der Faculty of Automatic Control and Computer Engineering (FACCE) der TU Iaşi. 

  

Publikationen:

Filter publications:
2022
[8] On the Use of Distribution-based Metrics for the Evaluation of Drivers' Fixation Maps Against Spatial Baselines (, ), In 2022 Symposium on Eye Tracking Research and Applications, ACM, . [bibtex] [abstract] [doi]
2021
[7] State Estimation of Articulated Vehicles Using Deformed Superellipses (, ), In 24th International Conference on Information Fusion (FUSION), IEEE, . [bibtex] [abstract]
[6] Uncertainties in Galilean Spacetime (), In 24th International Conference on Information Fusion (FUSION), IEEE, . [bibtex] [abstract]
[5] A Comparison of Bottom-Up Models for Spatial Saliency Predictions in Autonomous Driving (, ), In Sensors, volume 21, . [bibtex] [abstract] [pdf] [doi]
[4] On the Probabilistic Coupling Between Rotation and Translation in State Estimation (, ), In 2021 Fifth IEEE International Conference on Robotic Computing (IRC), . [bibtex] [abstract] [pdf] [doi]
2020
[3] Kalman Filter with Moving Reference for Jump-Free, Multi-Sensor Odometry with Application in Autonomous Driving (, , , , ), In 23rd International Conference on Information Fusion (FUSION), IEEE, . [bibtex] [abstract] [pdf] [doi]
[2] Extended Object Tracking on the Affine Group Aff(2) (, , ), In 23rd International Conference on Information Fusion (FUSION), IEEE, . [bibtex] [abstract] [pdf] [doi]
[1] Evaluation of Measurement Space Representations of Deep Multi-Modal Object Detection for Extended Object Tracking in Autonomous Driving (, , ), In IEEE 3rd Connected and Automated Vehicles Symposium (CAVS), . [bibtex] [abstract] [pdf] [doi]

Odometry in urban environments

Funding: Federal Ministry for Economic Affairs and Energy

Website: @CITY 

Project period: 2019-2021

Cooperation partner: Continental AG

 

atcity logo

A crucial part of autonomous driving is the precise determination of the vehicle’s odometry. In contrast to the absolute localization via GNSS-methods, the odometry only calculates the vehicle’s relative motion with respect to the starting point. The position and orientation as well as the velocity are used in several algorithms of autonomous driving. In this project, different methods are investigated to achieve a high-frequency and jump-free odometry via a multi-sensor-fusion. A special focus is on the usage of the inertial measurement unit (IMU) and the image stream of a camera.

 

car with wheels odometry

The final odometry algorithm uses the IMU and the camera in a so called loosely coupled fashion. In addition measurements of the steering wheel and vehicle speed are integrated by means of certain motion models. All the sensor information is fused in an Unscented Kalman Filter (UKF) to output a final odometry result. 

 

 

 

 

 

Publikationen:

Filter publications:
2022
[3] Visual-Inertial Odometry aided by Speed and Steering Angle Measurements (, , ), In 25th International Conference on Information Fusion (FUSION), IEEE, . [bibtex] [abstract] [pdf] [doi]
2021
[2] Visual-Multi-Sensor Odometry with Application in Autonomous Driving (, , ), In 93rd IEEE Vehicular Technology Conference (VTC2021-Spring), IEEE, . [bibtex] [abstract] [pdf] [doi]
2020
[1] Kalman Filter with Moving Reference for Jump-Free, Multi-Sensor Odometry with Application in Autonomous Driving (, , , , ), In 23rd International Conference on Information Fusion (FUSION), IEEE, . [bibtex] [abstract] [pdf] [doi]

logo ease 2019

People master everyday tasks with ease. They manipulate objects in their environment and can deal with incomplete information (e.g. instructions) and unfamiliar circumstances (e.g. a new object or tool). The EASE Collaborative Research Center examines how robotic agents can master manipulation tasks at the competence level of humans.

The subproject H1 examines how humans flexibly adapt their sensorimotor behavior to the variety of conditions and contexts being imposed by everyday scenarios. This adaptation extends over several levels, reaching from task conditions, over object and tool properties, to on-the-fly adjustments of sensorimotor parameters. Causal relations are essential for these adaptive properties.

Read more ...

Shuttle Bus aus dem Safety Control Center ProjektZiel des Vorhabens ist es, einen autonomen Shuttlebus-Betrieb zu installieren. Dabei soll das Fahrzeug auf einer festgelegten Route Passagiere an verschiedenen Haltestellen völlig autonom aufnehmen und absetzen können. Der Fahrbetrieb wird jederzeit von einem Safety Control Center überwacht und ausgewertet. Im Falle eines unvorhergesehenen Ereignisses können mittels des Safety Control Centers Steuersignale an das Fahrzeug gesendet werden, um die Situation aufzulösen.

Read more ...

opa3l logo very tiny Das Projekt OPA³L - "Optimal Assistierte, hoch Automatisierte, Autonome und kooperative Fahrzeugnavigation und Lokalisation" verfolgt das Ziel, autonome Shuttle-Fahrten in bekannten Umgebungen im suburbanen Raum anzubieten. Im Projekt wird hierzu ein mit zusätzlichen Sensoren ausgerüstetes Forschungsfahrzeug genutzt. Radsensoren, GNSS, sowie ein Inertialsensor dienen zu Bestimmung des Fahrzeugzustands; LiDAR, Kamera und Radar zur Wahrnehmung der Umgebung. Der Fokus der Arbeitsgruppe Kognitive Neuroinformatik liegt auf der Fusion der vorhandenen Sensordaten, um eine robuste Schätzung des Fahrzeugzustandes sowieso der Umgebung zu erhalten, zudem auf der Routenplanung um auch bei mehreren Passagieren mit unterschiedlichen Start- und Endpunkten eine effiziente Beförderung zu gewährleisten.

Read more ...

We have 86 guests and no members online

Cognitive Neuroinformatics © 2023