AI algorithms for autonomous lawnmowers
Funding: Die Senatorin für Wirtschaft, Arbeit und Europa der freien Hansestadt Bremen
Website: -
Project period: 2021-2022
Cooperation partner: TOPA³S, Alpha Robotics
In this multi-disciplinary project, a lawn mower robot is enhanced. Its task it is to autonomously navigate and mow very large areas of grass. For this purpose, AI algorithms of autonomous driving and space travel are transferred and implemented onto the robot. In particular our work group designs a high-precision localization by means of a multi-sensor fusion. In this regard, measurements of a RTK-GNSS receiver, an IMU, and other sensors are probabillistically fused in a Kalman filter. The project partners also implement a trajectory planner, which avoids obstacles and no-go zones, as well as a engine control algorithm for the robot.
PRORETA 5 – urbAn drIving
Fördermittelgeber: Continental AG
Webseite: Proreta5
Laufzeit: 2019-2022
Kooperationspartner: Continental AG, TU Darmstad, TU Iaşi
PRORETA ist eine interdisziplinäre Forschungskooperation zwischen Universitäten und Continental AG. Das Ziel dieser Kooperation ist die Entwicklung von Fahrerassistenzsystemen (ADAS) und Funktionen für autonomes Fahren (AD), um Verkehrunfälle zu verhindern.
Der Name PRORETA wurde in Anlehnung an das gleichnamige Mitglied der römischen Kriegsflotte gewählt. Der Proreta stand am Bug des Schiffes (Prora) und warnte vor Untiefen und anderen Gefahren.
Das Ziel des Forschungsprojekts PRORETA 5 ist die Untersuchung von Methoden der künstlichen Intelligenz für das autonome Fahren. Fokus dabei sind Situationsverständnis und Bewegungsplanung für autonomes Fahren im Stadtverkehr. Zu diesem Zweck kooperiert Continental mit dem Institut für Fahrzeugtechnik (FZD) und dem Fachgebiet Regelungsmethoden und Robotik (rmr) der technischen Universität Darmstadt, dem Institut für kognitive Neuroinformatik (CNI) der Universität Bremen und der Faculty of Automatic Control and Computer Engineering (FACCE) der TU Iaşi.
Publikationen:
Odometry in urban environments
Funding: Federal Ministry for Economic Affairs and Energy
Website: @CITY
Project period: 2019-2021
Cooperation partner: Continental AG
A crucial part of autonomous driving is the precise determination of the vehicle’s odometry. In contrast to the absolute localization via GNSS-methods, the odometry only calculates the vehicle’s relative motion with respect to the starting point. The position and orientation as well as the velocity are used in several algorithms of autonomous driving. In this project, different methods are investigated to achieve a high-frequency and jump-free odometry via a multi-sensor-fusion. A special focus is on the usage of the inertial measurement unit (IMU) and the image stream of a camera.
The final odometry algorithm uses the IMU and the camera in a so called loosely coupled fashion. In addition measurements of the steering wheel and vehicle speed are integrated by means of certain motion models. All the sensor information is fused in an Unscented Kalman Filter (UKF) to output a final odometry result.
Publikationen:
Filter publications: | |
---|---|
2022 | |
[3] | Visual-Inertial Odometry aided by Speed and Steering Angle Measurements ( ), In 25th International Conference on Information Fusion (FUSION), IEEE, 2022. |
2021 | |
[2] | Visual-Multi-Sensor Odometry with Application in Autonomous Driving ( ), In 93rd IEEE Vehicular Technology Conference (VTC2021-Spring), IEEE, 2021. |
2020 | |
[1] | Kalman Filter with Moving Reference for Jump-Free, Multi-Sensor Odometry with Application in Autonomous Driving ( ), In 23rd International Conference on Information Fusion (FUSION), IEEE, 2020. |
People master everyday tasks with ease. They manipulate objects in their environment and can deal with incomplete information (e.g. instructions) and unfamiliar circumstances (e.g. a new object or tool). The EASE Collaborative Research Center examines how robotic agents can master manipulation tasks at the competence level of humans.
The subproject H1 examines how humans flexibly adapt their sensorimotor behavior to the variety of conditions and contexts being imposed by everyday scenarios. This adaptation extends over several levels, reaching from task conditions, over object and tool properties, to on-the-fly adjustments of sensorimotor parameters. Causal relations are essential for these adaptive properties.
Ziel des Vorhabens ist es, einen autonomen Shuttlebus-Betrieb zu installieren. Dabei soll das Fahrzeug auf einer festgelegten Route Passagiere an verschiedenen Haltestellen völlig autonom aufnehmen und absetzen können. Der Fahrbetrieb wird jederzeit von einem Safety Control Center überwacht und ausgewertet. Im Falle eines unvorhergesehenen Ereignisses können mittels des Safety Control Centers Steuersignale an das Fahrzeug gesendet werden, um die Situation aufzulösen.
Das Projekt OPA³L - "Optimal Assistierte, hoch Automatisierte, Autonome und kooperative Fahrzeugnavigation und Lokalisation" verfolgt das Ziel, autonome Shuttle-Fahrten in bekannten Umgebungen im suburbanen Raum anzubieten. Im Projekt wird hierzu ein mit zusätzlichen Sensoren ausgerüstetes Forschungsfahrzeug genutzt. Radsensoren, GNSS, sowie ein Inertialsensor dienen zu Bestimmung des Fahrzeugzustands; LiDAR, Kamera und Radar zur Wahrnehmung der Umgebung. Der Fokus der Arbeitsgruppe Kognitive Neuroinformatik liegt auf der Fusion der vorhandenen Sensordaten, um eine robuste Schätzung des Fahrzeugzustandes sowieso der Umgebung zu erhalten, zudem auf der Routenplanung um auch bei mehreren Passagieren mit unterschiedlichen Start- und Endpunkten eine effiziente Beförderung zu gewährleisten.
We have 86 guests and no members online