KI – Kaum Intelligent

Zwei Freunde mit Hintergrund KI-Forschung möchten mit Mythen und Legenden zur künstlichen Intelligenz aufräumen. Dazu beleuchten Johannes und Gesina im Gespräch allgemeine und spezielle Fragen zum Thema KI.

https://kaum-intelligent.de

subscribe
share






episode 8: Warum fahren Autos noch nicht autonom?


  • Gesina Schwalbe
    • Email
    • Website
    • GitHub
    • ORCiD
    • ResearchGate
    • Twitter
    • Linkedin
  • Johannes Rabold
    • Twitter
    • Website
    • Email
    • GitHub
    • ResearchGate
    • ORCiD

Wir wollen klären, was zum autonomen Fahren benötigt wird und warum es so schwer ist. Dafür verschaffen wir uns einen Überblick, welche Fähigkeiten ein autonomes Auto mitbringen muss, und was jeweils Probleme machen kann.

Nochmal Kurz für Beepo
  • Autonomes Fahren = (weitgehend) selbstständige Fortbewegung eines Fahrzeugs
  • Autonomes Fahren ist ein weites Feld mit (sehr) vielen Anwendungen; hier geht es exemplarisch um autonomes Fahren (bzw. hoch- oder vollautomatisiertes Fahren) von Autos.
  • Auf dem Weg zur vollen Autonomie wird oft zwischen mehreren Stufen der Automatisierung unterschieden (Assistenzsysteme, stets bereiter Notfallfahrer und angekündigte Fahrerübergabe)
  • Für autonome Autos werden viele Fähigkeiten benötigt:
    • Umgebungswahrnehmung (wo ist was?)
    • Verständnis der Umgebung (wer macht was?)
    • Trajektorienplanung = lokale Wegplanung (wo fahre ich als nächstes lang? wie muss ich lenken?)
    • Navigation / Routenplanung = globale Wegplanung (was ist die beste Route?)
    • und einige andere Sachen wie Fahrzeugüberwachung, Innenraumüberwachung, etc.
  • Wie schwer es ist, Autonomie beim Fahren zu ermöglichen, hängt stark von der Komplexität der Umgebung und Sicherheitsfaktoren wie Geschwindigkeit, Verfügbarkeit eines Notfallfahrers, Insassenüberwachung (z.B. sind Kinder angeschnallt?) ab.
Was ist autonomes Fahren?
  • Autonomes Fahren = (weitgehend) selbstständige Fortbewegung eines Fahrzeugs
  • Unterschiedliche Level von Automatisierung, d.h. Automatisierungsgrade nach SAE J3016:
    • Unter Level 2: keine Autonomie
    • Level 2: Standardassistenzsysteme, z.B. Spurhalteassistent; Fahrer muss Hände am Lenkrad behalten
    • Level 3: autonom mit Notfallfahrer: Fahrer muss nur im Notfall und nach Anfrage übernehmen
    • Level 4: Autonomes Fahren in Teilbereichen (z.B. Autobahn); ein Fahrer muss nur auf Anfrage und mit Übergangszeit übernehmen
    • Level 5: Vollautomatisierung, kein menschlicher Fahrer mehr
  • Achtung: Tesla ist nicht vollautonom!! Erste Beta-Tests der vollautonomen Fahrfunktionen (Level >=4) gibt es erst seit 2022 in den USA, Europa ist in Aussicht
  • Autonome Fortbewegung ist ein weites Feld; Beispiele von Anwendungsbereichen:
    • Autos: Individualverkehr, Busse
    • Bahnverkehr
    • Flugverkehr (Autopilot)
    • Schifffahrt
    • Drohnen
    • Fertigung, Logistik (z.B. in Lagerhallen), etwa im Hive
    • Heimautomatisierung (z.B. Staubsaugerroboter)
    • In Gebiete Vordringen, in die Menschen (noch) nicht kommen und Roboter nicht gut dort fernsteuern können, z.B. andere Planeten (der Marsrover Perseverance und seine Begleitdrohne Ingenuity sind weitestgehend autonom) oder Katastrophengebiete
    • Militärische Fahrzeuge
Was muss ein autonomes Fahrzeug alles können?

Überblick: Wahrnehmen (sensorisch aufnehmen, erkennen), Verstehen, Planen (lokale Trajektorie, Navigieren), Agieren.

  • Wahrnehmung:
    • Zum Vergleich bei Menschen: Augen (Objekterkennung, Distanzschätzung, Bewegungsmelder), Ohren & Haptik (Untergrund, Gefahrensituationen, Kommunikation)
    • Typische Sensoren für Fahrzeuge:
      • Kamera(s)
        • Unzuverlaessig bei schlechten Sichtverhaeltnissen (Regen, Nebel, blendendes Licht, …)
        • Geht schlecht bei Dunkelheit
      • Lidar (Light imaging, detection and ranging) = Laserscanning mit fast sichtbarem Licht
        • Misst Entfernung
        • Auch nicht bei schlechten Sichtverhaeltnissen (Nebel, etc.)!
        • TEUER
      • Radar = Laserscanning mit Radarwellen, vgl. Einparksensoren
        • Ghost Objects
      • Ultraschall
        • Nur sehr nahe Objekte (wenige Meter)
      • Informationen aus Connected Mobility
    • Erkennen von Objekten, Bildbereichen, etc.: Schwierige Aufgabe
      • schwer zu spezifizieren)
      • Sehr variable Eingaben
      • Verdeckung, Objektpermanenz etc.
      • -> Inzwischen werden DNNs verwendet, die aber selbst gerne Fehler machen (vgl. Folge dazu)!
  • „Erkennen“:
    • Befahrbare Bereiche? Verkehrsschilder?
    • Wer macht was als naechstes? -> teils komplexe Verhaltenspsychologie! z.B.
      • Ball & Kind!
      • Eng auffahren
      • Winken
    • Gefahrensituation (Kollisionsgefahr, Glaette, …)?
    • Unsicherheit aus den Wahrnehmungsinformationen!
  • Lokales Planen (Trajektorienplanung):
    • Muss ich bremsen / ausweichen?
    • Wie viel darf ich das Lenkrad einschlagen ohne aus der Kurve zu fliegen?
    • Kommunikation: Wie komme ich auf die andere Spur? Wie bringe ich andere dazu, mich reinzulassen?
    • Verkehrsregeln wie Vorfahrt etc.?
    • Regelbrueche um z.B. Hindernisse zu umfahren oder dem Einsatzfahrzeug Platz zu machen?
    • Wie komme ich aus einer Sackgasse heraus?
  • Globales Planen (Navigation):
    • Wo bin ich gerade? Wie komme ich am besten wo hin?
  • Sonstiges:
    • Fahrzeugueberwachung: Brennt mein Auto?
    • Fahrgastueberwachung: Sind alle Kinder angeschnallt?
    • Fahrerueberwachung: Ist der Notfallfahrer übernahmebereit? (Alkoholisierung? Eingeschlafen?)
    • Sicherheit: Diebstahlschutz, Einbruchschutz
    • Erste-Hilfe bei Notfällen im Fahrgastraum oder an Unfallstellen
    • Verhalten im (grossen) Katastrophenfall, z.B. Erdbeben, Erdrutsch, …
Was macht autonomes Fahren schwierig?
  • Rechenleistung!
  • Einfluss auf Schwierigkeit haben:
    • Die Unberechenbarkeit der Umgebung, in der sich autonom bewegt werden soll (z.B. andere Verkehrsteilnehmer, Untergrund, befahrbahre Flächen)
      • Diversität (abgesperrte Logistikhalle vs. Wohnzimmer vs. Straße)
      • Einflüsse auf Wahrnehmung (z.B. Nebel, Regen, Dreck)
      • Hindernisse / Gefahrenstellen (z.B. Baustellen, Unfallstellen, Glatteis)
    • Welche Sensoren angewendet werden können
    • Wer kann mit dem Fahrzeug in Kontakt kommen? Eingewiesenes Personal vs. Endverbraucher vs. beliebiger Passant
    • Security, z.B. Diebstahlschutz, Entkommen aus Gefahrensituation wie Überfall
  • Möglichkeiten, es sich leichter zu machen:
    • Menschliche Backups der Funktionen (z.B. Backup-Fahrer, Fernsteuerung, etc.); Einschränkungen z.B.: Kinder dürfen nicht alleine fahren und das Auto kommt nicht alleine in die Tiefgarage
    • Eingeschränkte Umgebung, z.B. Bus / Bahn fährt immer dieselbe Strecke
    • Connected Mobility = nicht mehr jedes Auto muss alles sehen
    • Platooning = Autos können sehr nah hintereinander fahren, weil jedes Auto genau weiß, wann der Vordermann bremst
  • Fehlende rechtliche Grundlagen und standardisierte Schnittstellen
Links und sonstige schöne Quellen
  • Video von Tom Scott zum Hive, einer vollautomatisierten Logistikhalle (Englisch): https://youtu.be/ssZ\_8cqfBlE
  • Auf der offiziellen Supportseite von Tesla zur Autopilot-Funktionalität wird gemahnt, dass der Fahrer noch die Hände am Lenkrad lassen muss (=Level 2 autonomes Fahren): „“Autopilot“, „Verbesserte Autopilot-Funktionalität“ und „Volles Potenzial für autonomes Fahren“ sind für einen aufmerksamen Fahrer gedacht, der die Hände am Lenkrad behält und jederzeit übernehmen kann. Auch wenn diese Merkmale im Laufe der Zeit immer leistungsfähiger werden, machen die gegenwärtig verfügbaren Merkmale das Fahrzeug nicht autonom.“
    Also bitte: Vertraut der Technologie nicht blind, lasst die Hände wirklich am Steuer und bleibt jederzeit für einen Eingriff bereit!!
  • Mehr zum aktuellen Stand von Teslas Fortschritt beim vollautonomen Fahren: https://teslamag.de/news/autonomie-software-abo-tesla-fsd-funktionen-199-dollar-monat-39168
  • Beispiel eines Prototypen für autonomen öffentlichen Nahverkehr: https://www.continental.com/en/products-and-innovation/innovation/automated-driving/cube/
  • Ein schöner Vergleich von menschlichen Augen (insb. mit wie vielfältigen Lichtverhältnissen sie klar kommen) mit Kameras: https://www.fotoworkshop-stuttgart.de/das-menschliche-auge-und-die-fotografie/
  • Gute Übersicht über Problem von Lidar: https://www.designnews.com/electronics-test/four-challenges-lidar-road-autonomous-vehicles
  • Homepage von Waymo (Subunternehmen von Google für die Entwichlung autonomer Taxis): https://waymo.com
    Hier findet ihr Bilder, wie lustig die Autos mit dem Lidar-Knubbel auf dem Dach aussehen
  • Links zum Standard UL4600 (Standard for Safety for the Evaluation of Autonomous Products): https://users.ece.cmu.edu/~koopman/ul4600/index.html
  • Ein Beispiel für eine Firma, die Teledriving entwickelt (=Autos fahren nicht autonom, sondern per Fernsteuerung): Vay
  • Vortrag „How to (not) build autonomous robots“ auf dem 36c3 (36th Chaos Communication Congress) darüber, welche Probleme ein Startup hatte, autonome Lieferroboter zu bauen und wie sie letztenendes auf Fernsteuerung umgestiegen sind (und welche Probleme es hier gab): https://media.ccc.de/v/36c3-10601-how_not_to_build_autonomous_robots


fyyd: Podcast Search Engine
share








 June 19, 2022  1h37m