Nachfolgend finden Sie detaillierte Informationen zu unserer Lösung für die Fahrzeit- und Verkehrsflussanalyse in Bezug auf Datenerzeugung, Konfiguration und verschiedenen Analysemöglichkeiten.
Neben der Verkehrsfrequenz an bestimmten Standorten interessieren Sie sich auch für Statistiken darüber, wie lange Fahrzeuge von einem Ort zum anderen brauchen und wie der Verkehr in Ihrer Stadt und Gemeinde fließt? Diese Daten können Sie problemlos mit unserer Sensorik lösen. Überzeugen Sie sich selbst:
Welche Daten können generiert werden?
Für diesen Anwendungsfall liefert Ihnen unsere Software die entsprechenden Erkenntnisse zum Straßenverkehr, zunächst die Zählung von Fahrzeugen einschließlich ihrer Klassifizierung.
Darüber hinaus haben Sie dank unserer einfachen Konfiguration verschiedene Möglichkeiten, Ihre Analyse zu erweitern: Neben der Geschwindigkeitsschätzung, kann durch das Kombinieren mehrerer Sensoren an verschiedenen Standorten ebenfalls die Fahrzeit (Journey Time) sowie die statistische Verteilung des Verkehrsflusses (Traffic Flow Distribution) erfasst werden.
Für die Verkehrsfrequenz erfolgt die Klassifizierung nach unseren Standard-Swarm-Klassen, Journey Time sowie Traffic Flow Distribution erfolgen lediglich in den Fahrzeugklassen (car, bus und truck).
Was muss für eine erfolgreiche Analyse beachtet werden?
In der untenstehenden Tabelle finden Sie detaillierte Informationen zu den Anforderungen, Einstellungen sowie Positionierung der Kamera.
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet.
250 PPM (Fahrzeug)
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den Objektivrechner von Axis oder einen generischen Objektivrechner.
Videoauflösung
1920 x 1080 Pixel
Videoprotokoll/Codec
RTSP/H264
USB 3.0/UYVY, YUY2, YVYU
Brennweite
min. 3,612 mm; motorisch verstellbare Brennweite
Kameramontage - Abstand zum Objektzentrum
5-20 m
Bitte beachten Sie, dass der Zoom je nach Abstand angepasst werden muss. Weitere Details finden Sie in der Installationsanleitung.
Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden. Weitere Informationen dazu finden Sie ebenfalls in der Installationsanleitung.
The configuration of the solution can be managed centrally in SWARM Control Center. Below, you can see how the standard is configured for optimal results.
Die Konfiguration kann zentral im Swarm Control Center durchgeführt werden. Nachfolgend sehen Sie, wie standardmäßig für optimale Ergebnisse konfiguriert werden muss.
Bevor Sie mit Ihrer Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre Kamera- und Datenkonfiguration bereits vorgenommen haben.
Wählen Sie unter Global Settings den Modus Journeytime
Enable or disable raw tracks
Disabled
Was genau sollte konfiguriert werden?
Um die beste Genauigkeit zu erzielen, empfehlen wir dringend, eine Focus Area auf den maximal zwei Fahrspuren zu konfigurieren, die für den Anwendungsfall abgedeckt werden sollten.
Stellen Sie sicher, dass die Focus Areas so platziert werden, dass sie vor dem Auslösen eines Events genügend Raum abdecken, damit das Modell die Objekte ähnlich lange "sehen" kann, wie wenn der Focus Area nicht vorhanden wäre.
Das Modell ignoriert alle Objekte außerhalb der Focus Area, so dass keine Erkennung, keine Klassifizierung, kein Tracking und keine ANPR-Lesung durchgeführt wird. Stellen Sie sich die Areas als umgekehrte Privatzonen vor - das Modell "sieht" nur Objekte innerhalb eines Bereichs, der Rest des Bildes ist schwarz.
Um sowohl die Zähldaten als auch die Fahrzeitdaten zu erhalten, muss eine Counting Line als Event-Trigger konfiguriert werden.
Wie sollten die Event-Trigger platziert werden?
Um die beste Genauigkeit der Zählung einschließlich der Fahrzeitinformationen zu erhalten, sollte die Counting Line an einem Punkt platziert werden, an dem das Fahrzeug und das Kennzeichen in ca. 10 m Entfernung zu sehen sind. Achten Sie außerdem darauf, die CL an einer Stelle zu konfigurieren, an der die Spurenkalibrierung noch stabile Spuren zeigt.
Sie können die Richtung IN/OUT frei wählen, um die Daten entsprechend nach Bedarf abzurufen, bzw. zu sammeln. Zudem haben Sie die Möglichkeit, eine eigene Bezeichnung für die IN- und OUT-Richtung zu vergeben:
Datenvisualierung
Sie können Ihre Daten über Data Analytics in verschiedenen Widgets visualisieren.
Szenario
Im Abschnitt Verkehrsszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Hier sehen Sie ein Beispiel für ein Journey-Time-Widget. Die Journey Time kann als Durchschnitt, Median oder bis zu zwei verschiedene Perzentile angezeigt werden.
Nachfolgend ein weiteres Beispiel, das die Verteilung visualisiert. Es gibt einen Schieberegler, um durch die verschiedenen Zeiträume der gewählten Aggregationsebene zu gehen. Oben können die Zahlen ganz leicht zwischen absoluten und relativen Werten gewechselt werden.
Ihre Daten abrufen
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die API verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Spezifikationen für die Umgebung
Objektgeschwindigkeit
< 80 km/h
Tag/Nacht/Beleuchtung
Tagsüber/Gut beleuchtet/Nachtsicht
Innen-/Außenanwendung
Außen
Informationen zur Genauigkeit
Wenn wir hier von Genauigkeit sprechen, meinen wir den Erfassungsgrad eines einzelnen Sensors, der den Prozentsatz der korrekt erkannten Kennzeichen im Verhältnis zur Gesamtzahl der während einer Ground-Truth-Zählung erfassten Fahrzeuge darstellt.
Der aktuelle Erfassungsgrad für diesen Anwendungsfall beträgt 60%, unter Berücksichtigung unterschiedlicher Tages-/Nachtzeiten, Wetterbedingungen und Verkehrssituationen. Bei der Berechnung der Fahrzeit zwischen zwei Sensoren werden etwa 36% der Fahrten als Grundlage verwendet, was durch die Multiplikation des Erfassungsgrades beider Sensoren berechnet wird.
Diese Genauigkeit ist absolut ausreichend, um Daten zu generieren, die valide Rückschlüsse auf Verkehrsmuster und Fahrzeiten zulassen.