• Technologie unbemannter Systeme und zugehörige Ausrüstung
  • video

Technologie unbemannter Systeme und zugehörige Ausrüstung

Technologie (KI-Steuerungsalgorithmen, Navigationsmodule) und Ausrüstung (Batterien, Kommunikationsverbindungen) für unbemannte Systeme (Drohnen, autonome Schiffe, Roboter), die deren stabilen, ferngesteuerten Betrieb gewährleisten.

    Der autonome Fahrcontroller ist eine intelligente Rechenplattform für unbemannte Systeme, die speziell für das automatische Fahren vernetzter und intelligenter Fahrzeuge entwickelt wurde. Dank seiner heterogenen, verteilten Hardwarearchitektur und robusten Funktionalität ermöglicht der asynchrone Fahrcontroller als zentrale Hardwarekomponente hochgradig autonomes Fahren und bietet die notwendigen technischen Voraussetzungen für einen sicheren und stabilen Betrieb unter komplexen Straßenbedingungen. Daher verfügt er über ein erhebliches Anwendungspotenzial und eine hervorragende Branchenanpassungsfähigkeit im Bereich der Hardware für autonomes Fahren.


    Die zentrale heterogene Hardwarearchitekturkonfiguration

    Die Architektur bildet die Grundlage für die Leistungsfähigkeit und Funktionalität der Plattform und bietet präzise Lösungen für die Rechenleistung und Sicherheit, die für autonomes Fahren erforderlich sind. Sie vereint zwei NVIDIA Orin-Recheneinheiten und einen ASIL-D-konformen NXP TC397-Prozessor in Automobilqualität, die wie folgt zusammenarbeiten:

    • NVIDIA Orin Recheneinheiten: Sie sind die wichtigsten Hochleistungsrechenkerne, die eine starke Rechenleistung für die Verarbeitung großer Datenmengen und die Ausführung komplexer Algorithmen bereitstellen;

    • NXP TC397 Prozessor: Mit der ASIL-D-Zertifizierung nach Automobilstandard (dem höchsten funktionalen Sicherheitsniveau für Automobilelektronik) gewährleistet er die sichere Ausführung kritischer Steuerungsfunktionen und bietet somit ein ausgewogenes Verhältnis zwischen hoher Rechenleistung und hoher Sicherheit.


    Die KI-Rechenleistung der Plattform beträgt beeindruckende 508 TOPS. Dadurch bewältigt sie rechenintensive Aufgaben wie die Echtzeit-Verarbeitung von Multisensor-Daten und die komplexe Umgebungserkennung problemlos. Sie bietet somit eine solide Rechengrundlage für hochgradig autonomes Fahren, ohne dass sich das Fahrzeug um Entscheidungsverzögerungen und Wahrnehmungsabweichungen sorgen muss. Dies erhöht die Reaktionsfähigkeit des Fahrzeugs in komplexen Verkehrssituationen und verbessert sein Management entsprechend.


    Die Plattform nutzt ein modulares Montageverfahren und ist daher hochflexibel und skalierbar. Durch die Kombination von Modulen lässt sie sich in verschiedene Hardwareplattformen mit vielfältigen Funktionalitäten und Leistungsmerkmalen umwandeln und ist somit nicht mehr auf die festen Funktionen herkömmlicher Hardwareplattformen beschränkt.


    Dieses Produkt ist so konzipiert, dass es 95 % der Szenarien abdeckt, in denen eine autonome Fahrsteuerung implementiert werden kann:

    • Szenarien im Stadtverkehr: Stauverfolgung, Kreuzungspassage;

    • Szenarien auf Autobahnen: Fahren mit konstanter Geschwindigkeit, automatischer Spurwechsel;

    • Komplexe Parkszenarien: Aufgaben für autonomes Fahren bei niedriger Geschwindigkeit.


    Durch den Einsatz von Hardwaremodulen zur Erfüllung der differenzierten Anforderungen verbessert das Unternehmen die Branchenanpassungsfähigkeit und den Anwendungsbereich des Produkts erheblich und senkt gleichzeitig die Kosten und die Entwicklungszeit für die Hardware.


    Die Plattform verfügt über umfassende Rechenkapazitäten, darunter Multisensorfusion, Pfadplanung, Trajektorienvorhersage und Fahrentscheidungsfindung:

    1. Multisensorfusion-Wahrnehmung: Sie nutzt Daten von Lidar, Kameras und anderen Geräten und beseitigt die toten Winkel und Fehler durch Algorithmen, um eine möglichst genaue und vollständige Umgebungswahrnehmung zu erreichen;

    2. Pfadplanung: Ermittelt die sichersten und effizientesten Routen auf Basis der aus der Umgebung gewonnenen Daten und der Navigationsinformationen;

    3. Trajektorienvorhersage: Prognostiziert die zukünftigen Bewegungstrajektorien der Verkehrsteilnehmer (z. B. Fußgänger, andere Fahrzeuge), um potenzielle Risiken zu vermeiden;

    4. Fahrentscheidungsfindung: Ermittelt die am besten geeignete Fahrentscheidung durch die Kombination der Ergebnisse aus Wahrnehmungs-, Planungs- und Vorhersagemodulen.


    Gleichzeitig ist im Controller ein zeitsensitives Netzwerk-Subsystem (TSN) integriert, das Prozessoren und Sensormodulen selbstständig Zeitsynchronisationsinformationen bereitstellen kann. Dadurch wird das Problem der Zeitsynchronisation zwischen mehreren Geräten gelöst, eine exakte Zeitsynchronisation von Wahrnehmungs-, Rechen- und Steuerungssystemen gewährleistet, Datenfehlausrichtungen und Befehlsverzögerungen vermieden und somit die Systemstabilität und -zuverlässigkeit deutlich erhöht.


    Die Plattform ist ein Musterbeispiel an Schnittstellenkompatibilität, da sie eine Vielzahl von Schnittstellen wie 5G, Ethernet, 10-Kanal-CAN und RS232/485 unterstützt:

    • 5G-Schnittstelle: Gewährleistet eine schnelle drahtlose Kommunikation mit geringer Latenz und ermöglicht so den Datenaustausch in Echtzeit zwischen Fahrzeug und Cloud, Fahrzeug untereinander und Fahrzeug und Straße. Dies erleichtert die Zusammenarbeit zwischen Fahrzeug und Straße sowie das cloudbasierte autonome Fahren.

    • Ethernet-Schnittstelle: Dient als Lösung für die Anforderungen an die Datenübertragung mit hoher Bandbreite innerhalb der Plattform, z. B. können Sensordaten in hoher Auflösung gleichzeitig von mehreren Quellen übertragen werden;

    • 10-Kanal-CAN-Schnittstelle: Kann eine Verbindung zu CAN-Bus-Geräten im Fahrzeug herstellen, mit deren Hilfe die Echtzeit-Erfassung von Fahrzeugstatusinformationen und die präzise Ausgabe von Steuerbefehlen erreicht werden können;

    • RS232/485-Schnittstelle: Gewährleistet die Kompatibilität mit älteren Geräten, erhöht die Plattformharmonie und Skalierbarkeit und passt sich den unterschiedlichen Hardware-Ökosystemen der Fahrzeuge an.


    FAQ – Häufig gestellte Fragen

    1. Wann und wo findet die Expo statt?

    Die Expo findet vom 13. bis 15. Mai 2026 in Halle C des Xiamen International Conference and Exhibition Center (XICEC) in Xiamen, China, statt.

    2. Wie groß ist die Ausstellung?

    Die Veranstaltung erstreckt sich über 40.000 m² und präsentiert mehr als 350 Unternehmen. Es werden über 30.000 Fachbesucher aus aller Welt erwartet.

    3. Welche Programmaktivitäten umfasst das Programm?

    Es wird über 80 Fachforen und Veranstaltungen geben, die sich mit Themen wie intelligenter Mobilität, Transportkommunikation, Sicherheit und nachhaltiger Entwicklung befassen werden.

    4. Auf wie viele Länder und Regionen bezieht es sich?

    Teilnehmer aus über 80 Ländern und Regionen werden erwartet; es handelt sich also um ein globales Treffen für Innovationen in der intelligenten Transportbranche.

    5. Gibt es Möglichkeiten zur Zusammenarbeit?

    Ja. Die Veranstaltung mit über 1.000 internationalen Partnern bietet vielfältige Möglichkeiten für Geschäftskooperation, Technologieaustausch und Investitionen.

    6. An wen kann ich mich wenden, um weitere Informationen zu erhalten?

    Für weitere Informationen wenden Sie sich bitte über den Bereich „Kontakt“ auf der offiziellen Website an das Organisationskomitee.

      Erhalten Sie weitere Ausstellungsinformationen. Bitte geben Sie Ihre E-Mail-Informationen an

      Kontaktiere uns