In diesem Abschnitt erläutern wir, wie die Erkennung und der Abgleich der Journey Times aus technischer Sicht funktionieren.
Um Fahrten von Fahrzeugen zu erkennen, muss dasselbe Fahrzeug an mehreren vordefinierten Orten erkannt werden. Das bedeutet, dass es einen speziellen Identifikator geben muss, um zu erfassen, ob es sich wirklich um dasselbe Fahrzeug handelt und nicht verschiedene.
Bei Fahrzeugen ist der eindeutige Identifikator natürlich das Nummernschild. Daher wird dieses für den Abgleich von Fahrzeugen an verschiedenen Standorten verwendet. Da Nummernschilder als personenbezogene Daten gelten, wird eine Salt-Hashing-Funktion angewendet, um die personenbezogenen Daten zu pseudo-anonymisieren.
Auf Grundlage unseres Standardanwendungsfalls für die Verkehrszählung wird das Objekt (Fahrzeug) zunächst erkannt und klassifiziert. Wenn das Journey-Time-Feature aktiviert ist, führt der Algorithmus eine Kennzeichenerkennung sowie -lesung für jedes detektierte Fahrzeug durch. Der Raw String des Kennzeichens, also die unbearbeitete Zeichenabfolge, wird dann mit einem sogenannten Hashing-Mechanismus pseudonymisiert, und der pseudonymisierte Zufallstext wird im Rahmen eines Events, welches durch das Überfahren einer Counting Line getriggert wird, über das verschlüsselte Netzwerk gesendet.
Im folgenden Abschnitt werden die einzelnen Schritte näher beschrieben.
In jedem Videoframe werden Fahrzeuge erkannt und als Pkw, Lkw oder Bus klassifziert. Außerdem wird das Fahrzeug über die einzelnen Frames hinweg getrackt.
Für jedes klassifizierte Fahrzeug wird nun das Nummernschild erkannt und dem Objekt entsprechend zugeordnet.
Nun wird für jedes erkannte Kennzeichen eine optische Zeichenerkennung (OCR) angewendet, um das Nummernschild zu lesen. Der Output ist ein Text, der die Raw Strings, also die Rohzeichenfolge, des Kennzeichens enthält.
Um die Nummernschilder erfolgreich zu pseudonymisieren, erzeugt ein sogenannter Salt Shaker zufällige Salts im Backend (Cloud) und verteilt diese an die Edge-Geräte. Ein Salt ist ein Zufallswert, der als Eingabe für das Hashing von Daten verwendet wird, z.B. von Passwörtern oder in unserem Fall eben von Nummernschildern. Dieser Zufallswert wird nicht im Backend gespeichert. Lediglich im Edge-Gerät, also etwa in der Perception Box, werden die Salts kurzzeitig zwischengespeichert.
Um die Sicherheit vor potentiellen Angriffen zu gewährleisten und zu erhöhen, hat ein Salt ein Gültigkeitsfenster von zwölf Stunden. Nach Ablauf dieser wird ein neues, zufällig generierter Salt verwendet. Die folgende Grafik zeigt ein Beispiel für die Hashing-Funktion, die für die Kennzeichen verwendet wird:
Die vier Salts werden vom Salt Shaker erzeugt und an jedes Edge-Gerät verteilt. Um immer alle Fahrten zu erfassen, wird jedes Kennzeichen mit zwei Salts gehasht. Grund dafür ist die Annahme, dass eine Fahrt potentiell länger dauern kann als die Gültigkeitsdauer eines Salts. Weitere Informationen dazu folgen im nächsten Abschnitt.
Wenn das Fahrzeug eine Counting Line überfährt, wird ein entsprechend Event mit den Hashes der erkannten Nummernschilder über MQTT an die Cloud (Microsoft Azure) gesendet und in einer strukturierten Datenbank gespeichert.
In der Cloud wird die Datenbank regelmäßig auf mögliche Übereinstimmungen innerhalb des Hashes überprüft. Wie bereits erläutert, werden pro erkanntem Fahrzeug zwei Hashes erstellt. Wenn einer der beiden bei zwei verschiedenen Erkennungen identisch ist, wird er als eine Fahrt mit den entsprechenden Fahrtzeitinformationen, der Fahrzeugklasse, den Namen des Edge-Geräts und den GPS-Koordinaten des Edge-Geräts gespeichert.
Falls derselbe Hash an mehreren Orten gefunden wird, wird eine sogenannte Multi-Hop-Fahrt basierend auf der Sortierung der Zeitstempel gespeichert (z.B. Fahrt von Ort A nach B nach C).
Nach zwölf Stunden, also der Gültigkeitsdauer des zur Pseudonymisierung des Kennzeichens verwendeten Salts, wird das pseudonymisierte Kennzeichen gelöscht. Durch diesen Vorgang werden die pseudonymisierten Daten entsprechend anonymisiert. Zusammengefasst bedeutet dies, dass nach zwölf Stunden nach der Erkennung des Fahrzeugs und des Kennzeichen sämtliche Daten anonymisiert sind.
Weitere, umfangreiche Anwendungsfälle für Verkehrsszenarien. In diesem Abschnitt finden Sie die folgenden Artikel:
Eine Hilfestellung für das Setup für Journey Time
Journey Time ist hier als Fahrtzeit definiert, die zwischen der Sichtung desselben Fahrzeugs über zwei oder mehrere Kamerastreams vergeht. Die Identifizierung der Fahrzeuge basiert auf den Kennzeichen. Bitte beachten Sie zu diesem Thema unsere ausführliche Anleitung zur automatischen Kennzeichenerkennung (ANPR) für eine allgemeine Übersicht.
Dieser Anleitung konzentriert sich auf spezifische Details, die bei der Erfassung von Fahrtzeiten und der Analyse des Verkehrsflusses auf öffentlichen Straßen zu beachten sind. Dabei liegt der Fokus auf der Platzierung der Kameras, den Kameraeinstellungen selbst sowie auf der Konfiguration der Event-Trigger.
Bitte beachten Sie an dieser Stelle, dass die Kameraeinstellungen entsprechend dem Installationsort angepasst werden müssen, da die Lichtverhältnisse variieren können.
Eine möglichst perfekte Platzierung der Kamera ist entscheidend, um ein klares Bild und damit lesbare Kennzeichen zu erhalten. Während einige Parameter wie etwa der Abstand von der Kamera zum Kennzeichen nach der Installation noch feinjustiert werden können, können die Montagehöhe und der Winkel zwischen Kamera und Fahrtrichtung der Fahrzeuge nur durch eine physische und meist kostspielige Neuanordnung angepasst werden. Die Kameraposition muss so gewählt werden, dass vorbeifahrende Fahrzeuge vollständig sichtbar sind und in mehreren Frames des Kamerastreams erfasst werden können, wobei die Nummernschilder groß genug sein müssen, damit das ANPR-System jedes einzelne Zeichen erkennen kann.
Wir empfehlen Montagehöhen zwischen drei und acht Metern. Daher liegt der geeignete minimale Erfassungsabstand zwischen fünf und 14 Metern. Neben der vertikalen Winkelbeschränkung sollten die Kennzeichen mit mindestens 250 Pixel Per Meter (PPM) sichtbar sein. Diese Einschränkung bestimmt gleichzeitig die erforderliche minimale Brennweite (Zoom), auf die die Kamera eingestellt werden muss.
Montagehöhe (m) | Minimaler Abstand (m) | Maximaler Abstand (m) | Bereich der Brennweite (mm) |
---|---|---|---|
Die Untergrenze von drei Metern wird durch eher praktische Gründe und nicht durch technische Einschränkungen bestimmt. Kameras, die niedriger als drei Meter montiert sind, sind häufig anfällig für Vandalismus. Außerdem können Scheinwerfer von vorbeifahrenden Fahrzeugen zu Reflexionen führen. Die Obergrenze von acht Metern ergibt sich aus dem resultierenden minimalen Erfassungsabstand von mindestens 14 Metern für die erforderliche Auflösung von 1920 x 1080 Pixel. Kennzeichen müssen mit 250 Pixel Per Meter (PPM) sichtbar sein.
Da die Swarm Perception Box und die Kameras hauptsächlich an bereits bestehender Infrastruktur wie beispielsweise Ampelmasten montiert werden, gibt es zwei Möglichkeiten, die Kameras zu montieren: eine seitliche Montage oder eine Überkopfmontage.
Bei der Positionierung der Kamera über den Fahrzeugen können mit einem Sensor gleich zwei Fahrspuren abgedeckt werden.
Beachten Sie Montagehöhe (1) und Erfassungsabstand (2), die den vertikalen Winkel (3) zwischen der Kamera und der Fahrtrichtung des Fahrzeugs bestimmen. Der Abstand zwischen der Spurmitte (4) und der Kamera bestimmt hingegen den horizontalen Winkel (5) zwischen der Kamera und der Fahrtrichtung des Fahrzeugs.
Bei der seitlichen Montage der Kamera an der Straße können zwei Fahrspuren abgedeckt werden, vorausgesetzt der horizontale Winkel zwischen der Kamera und der Fahrtrichtung der Fahrzeuge überschreitet nicht 20°.
Positionieren Sie die Kamera demnach so nah wie möglich am Straßenrand, um einen zu großen horizontalen Winkel zu vermeiden. Größere Winkel können die Genauigkeit insofern beeinträchtigen, als dass Teile des Kennzeichens unleserlich werden. Siehe nachfolgende Illustration: Während die Fahrtrichtungen (1) und (2) für beide Fahrzeuge gleich sind, ist der eine horizontale Winkel (3) deutlich größer als der andere (4).
Während es tagsüber bei guten Lichtverhältnissen relativ simpel ist, scharfe Bilder zu erhalten, ist es bei schwacher Beleuchtung und Dunkelheit wesentlich schwieriger, eine gute Erkennung der Kennzeichen von fahrenden Fahrzeugen zu erreichen. Der folgende Abschnitt dieser Anleitung gibt daher einen Überblick über die Feinjustierung Ihrer Kamera, um auch unter solch schwierigen Bedingungen die bestmöglichen Ergebnisse zu erzielen.
Die Einstellung der folgenden Parameter hängt stark von der jeweiligen Montageposition der Kamera und ihrer Umgebung ab. Eine Lichtquelle wie eine Straßenlaterne oder ein Fahrzeug, das auf einer anderen Fahrspur vorbeifährt, kann es zu einem unerwünschten Lichteinfall kommen, der das Bild entsprechend negativ beeinflusst. Aus diesem Grund bietet dieser Leitfaden zwar einen allgemeinen Überblick über relevante Einstellungen und deren Auswirkungen auf die Bildqualität, kann aber nicht sämtliche Szenarien und externe Faktoren berücksichtigen.
Wir empfehlen, den automatischen Tag-/Nacht-Umschaltmodus der Kamera zu verwenden. Wie sie auf den nachfolgenden Beispielbildern sehen können, ist es absolut entscheidend, dass die Kamera zuverlässig in den Nachtmodus wechselt.
3
5
19
4-12
4
7
18
5.4-12
5
9
18
6.6-12
6
10
18
10-12
7
12
18
11-12
8
14
17
12
Nachfolgend finden Sie detaillierte Informationen zu unserer Lösung für die Fahrzeit- und Verkehrsflussanalyse in Bezug auf Datenerzeugung, Konfiguration und verschiedenen Analysemöglichkeiten.
Neben der Verkehrsfrequenz an bestimmten Standorten interessieren Sie sich auch für Statistiken darüber, wie lange Fahrzeuge von einem Ort zum anderen brauchen und wie der Verkehr in Ihrer Stadt und Gemeinde fließt? Diese Daten können Sie problemlos mit unserer Sensorik lösen. Überzeugen Sie sich selbst:
Für diesen Anwendungsfall liefert Ihnen unsere Software die entsprechenden Erkenntnisse zum Straßenverkehr, zunächst die Zählung von Fahrzeugen einschließlich ihrer Klassifizierung.
Darüber hinaus haben Sie dank unserer einfachen Konfiguration verschiedene Möglichkeiten, Ihre Analyse zu erweitern: Neben der Geschwindigkeitsschätzung, kann durch das Kombinieren mehrerer Sensoren an verschiedenen Standorten ebenfalls die Fahrzeit (Journey Time) sowie die statistische Verteilung des Verkehrsflusses (Traffic Flow Distribution) erfasst werden.
Für die Verkehrsfrequenz erfolgt die Klassifizierung nach unseren Standard-Swarm-Klassen, Journey Time sowie Traffic Flow Distribution erfolgen lediglich in den Fahrzeugklassen (car, bus und truck).
The configuration of the solution can be managed centrally in SWARM Control Center. Below, you can see how the standard is configured for optimal results.
Die Konfiguration kann zentral im Swarm Control Center durchgeführt werden. Nachfolgend sehen Sie, wie standardmäßig für optimale Ergebnisse konfiguriert werden muss.
Bevor Sie mit Ihrer Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre Kamera- und Datenkonfiguration bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|---|
Um die beste Genauigkeit zu erzielen, empfehlen wir dringend, eine Focus Area auf den maximal zwei Fahrspuren zu konfigurieren, die für den Anwendungsfall abgedeckt werden sollten.
Stellen Sie sicher, dass die Focus Areas so platziert werden, dass sie vor dem Auslösen eines Events genügend Raum abdecken, damit das Modell die Objekte ähnlich lange "sehen" kann, wie wenn der Focus Area nicht vorhanden wäre.
Das Modell ignoriert alle Objekte außerhalb der Focus Area, so dass keine Erkennung, keine Klassifizierung, kein Tracking und keine ANPR-Lesung durchgeführt wird. Stellen Sie sich die Areas als umgekehrte Privatzonen vor - das Modell "sieht" nur Objekte innerhalb eines Bereichs, der Rest des Bildes ist schwarz.
Um sowohl die Zähldaten als auch die Fahrzeitdaten zu erhalten, muss eine Counting Line als Event-Trigger konfiguriert werden.
Um die beste Genauigkeit der Zählung einschließlich der Fahrzeitinformationen zu erhalten, sollte die Counting Line an einem Punkt platziert werden, an dem das Fahrzeug und das Kennzeichen in ca. 10 m Entfernung zu sehen sind. Achten Sie außerdem darauf, die CL an einer Stelle zu konfigurieren, an der die Spurenkalibrierung noch stabile Spuren zeigt.
Sie können die Richtung IN/OUT frei wählen, um die Daten entsprechend nach Bedarf abzurufen, bzw. zu sammeln. Zudem haben Sie die Möglichkeit, eine eigene Bezeichnung für die IN- und OUT-Richtung zu vergeben:
Sie können Ihre Daten über Data Analytics in verschiedenen Widgets visualisieren.
Im Abschnitt Verkehrsszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Hier sehen Sie ein Beispiel für ein Journey-Time-Widget. Die Journey Time kann als Durchschnitt, Median oder bis zu zwei verschiedene Perzentile angezeigt werden.
Nachfolgend ein weiteres Beispiel, das die Verteilung visualisiert. Es gibt einen Schieberegler, um durch die verschiedenen Zeiträume der gewählten Aggregationsebene zu gehen. Oben können die Zahlen ganz leicht zwischen absoluten und relativen Werten gewechselt werden.
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die API verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Wenn wir hier von Genauigkeit sprechen, meinen wir den Erfassungsgrad eines einzelnen Sensors, der den Prozentsatz der korrekt erkannten Kennzeichen im Verhältnis zur Gesamtzahl der während einer Ground-Truth-Zählung erfassten Fahrzeuge darstellt.
Der aktuelle Erfassungsgrad für diesen Anwendungsfall beträgt 60%, unter Berücksichtigung unterschiedlicher Tages-/Nachtzeiten, Wetterbedingungen und Verkehrssituationen. Bei der Berechnung der Fahrzeit zwischen zwei Sensoren werden etwa 36% der Fahrten als Grundlage verwendet, was durch die Multiplikation des Erfassungsgrades beider Sensoren berechnet wird.
Diese Genauigkeit ist absolut ausreichend, um Daten zu generieren, die valide Rückschlüsse auf Verkehrsmuster und Fahrzeiten zulassen.
Hier finden Sie Informationen zu Datengenerierung, Kameraeinstellungen und Analyseoption, sodass Sie mithilfe unserer Lösung Details über Warteschlangen und Verkehrsstaus erhalten.
Neben der Verkehrsfrequenz an bestimmten Orten fragen Sie sich, wie lange eine Warteschlange von Fahrzeugen ist, wenn ein Verkehrsstau besteht? Mithilfe unserer Software erhalten Sie entsprechende Einblicke dazu: In Kombination mit der Geschwindigkeit des erkannten Fahrzeugs können Informationen zu möglichen Verkehrsstaus ausgespielt werden.
Für diesen Anwendungsfall liefert Ihnen unsere Software die wichtigsten Erkenntnisse über den Straßenverkehr. Zum einen können Fahrzeugzählungen einschließlich der Fahrzeugklassifizierung vorgenommen werden. Darüber hinaus bietet unsere Technologie durch entsprechende Konfigurationsoptionen die Schätzung der Geschwindigkeit oder auch Informationen über mögliche Verkehrsüberlastungen.
Bei der Analyse der Verkehrsfrequenz können Daten zu sämtlichen Fahrzeugklassen generiert werden. Je nach Kamerakonfiguration können Fahrzeuge bei einer Entfernung von bis zu 70 Metern detektiert werden.
In der untenstehenden Tabelle finden Sie detaillierte Informationen zu den Anforderungen, Einstellungen sowie Positionierung der Kamera.
Einstellung | Empfohlen |
---|
*Je größer der Abstand der Objekte zur Kamera und je höher die Brennweite, desto größer fällt die Dead Zone aus. Um die erforderlichen PPM für die Erkennung von Objekten zu erreichen, beachten Sie bitte die nachfolgenden Abbildung und Tabelle.
Um die Zähldaten einschließlich der Geschwindigkeiten sowie die Belegungen der Regions of Interest zu erhalten, müssen sowohl eine Counting Line als auch mehrere Regions of Interest als Event-Trigger konfiguriert werden. Je nach Anwendungsfall und Objektabstand empfehlen wir eine Kombination mehrerer Trigger.
Um genaue Informationen darüber zu erhalten, wie schnell Fahrzeuge fahren und wie viele Objekte sich in einem definierten Bereich befinden, müssen Counting Lines mit Speed Estimation und generischen Regions of Interest über das Swarm Control Center konfiguriert werden.
Sie können die Fahrtrichtung, bzw. In/Out nach Belieben wählen, um die Daten so je nach Bedarf abzurufen. Zudem können Sie dieser Richtung einen benutzerdefinierten Namen zuweisen.
Im Abschnitt Verkehrsszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Dieses Feature ermöglicht es Ihnen, mit Hardwaregeräten wie Verkehrssteuerung über Relais (potentialfreie Kontakte) zu kommunizieren. Folgende Anwendungsfälle können so abgedeckt werden:
"Smart Prio System": Priorisierung bestimmter Verkehrsklassen und Gewährleistung eines flüssigen Verkehrsverhaltens in Echtzeit (z.B. Fußgänger:innen, Radfahrende, E-Scooter, Schwerverkehr)
Vereinfachung der Infrastrukturwartung: Ersetzen Sie mehrere Induktionsschleifen durch eine einzige Swarm Perception Box. Die Installation erfordert keinerlei Grabungsarbeiten und reduziert den Wartungsaufwand deutlich.
Anforderungen:
Unterstützte Eventtypen: Region of Interest (ROI) in Kombination mit Regeln
Alles was Sie brauchen, um loszulegen: Definieren Sie eine Region of Interest, definieren Sie eine entsprechende Regel und wählen Sie den Relaisausgang, der ausgelöst werden soll. Aktivieren Sie zunächst IO-device, geben Sie den verwendeten Quido-Gerätetyp und den Endpunkt (IP oder Hostnamen) an.
Definieren Sie mindestens eine Region of Interest samt definierter Regel. Solange die Regel gültig ist, wird der zugehörige Quido-Relaisausang aktiviert (Kontakt geschlossen). Es können eine oder mehrere Regeln für dieselbe RoI erstellt werden.
Entfernung zum Objekt | Brennweite | Dead Zone |
---|
Hersteller | Modell |
---|
Die Konfiguration kann zentral im durchgeführt werden. Nachfolgend sehen Sie, wie die optimale Konfiguration eingestellt werden sollte:
Bevor Sie mit der Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|
Sie können Ihre Daten über in verschiedenen Widgets visualisieren.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Einstellung | Empfohlen |
---|
Hersteller | Modell | Notiz |
---|
Die Konfiguration kann zentral im durchgeführt werden. Nachfolgend sehen Sie, wie die standardmäßige Verkehrszählung für optimale Ergebnisse konfiguriert werden muss.
Bevor Sie mit Ihrer Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|
unterstütze Hardware: , ,
Sie können Ihre Daten über in verschiedenen Widgets visualisieren.
Objektgeschwindigkeit
< 80 km/h
Tag/Nacht/Beleuchtung
Tagsüber/Gut beleuchtet/Nachtsicht
Innen-/Außenanwendung
Außen
Supported Products
VPX, P401, P101/OP101
Frames Per Second
25
30 m | 2,8 mm | 2,8 mm |
50 m | 5 mm | 5 m |
70 m | 7 mm | > 8 m |
Objektgeschwindigkeit | < 130 km/h |
Tag/Nacht/Beleuchtung | Tagsüber/Gut beleuchtet/Nachtsicht |
Innen-/Außenanwendung | Außen |
Erwartete Genauigkeit (Zählung und Klassifizierung, wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind) | Zählung >95% (Fahrzeuge, Fahrräder) Klassifizierung der main classes: >95% Klassifizierung der sub classes: >85% |
Unterstütze Produkte | VPX, P401, P101/OP101, P100/OP100 |
Frames Per Second (fps) | 25 |
Objektgeschwindigkeit | < 40 km/h |
Tag/Nacht/Beleuchtung | Tagsüber/Gut beleuchtet/Nachtsicht |
Innen-/Außenanwendung | Außenanwendung |
Erwartete Genauigkeit (Detektion + Klassifizierung, wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind) | Detektion > 95% Klassifizierung der main classes: > 95% Klassifizierung der sub classes: > 85% |
Unterstütze Produkte | VPX, P401, P101 |
Frames Per Second (fps) | 12 |
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet.
250 PPM (Fahrzeug)
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den Objektivrechner von Axis oder einen generischen Objektivrechner.
Videoauflösung
1920 x 1080 Pixel
Videoprotokoll/Codec
RTSP/H264
USB 3.0/UYVY, YUY2, YVYU
Brennweite
min. 3,612 mm; motorisch verstellbare Brennweite
Kameramontage - Abstand zum Objektzentrum
5-20 m Bitte beachten Sie, dass der Zoom je nach Abstand angepasst werden muss. Weitere Details finden Sie in der Installationsanleitung.
Kameramontage - Befestigungshöhe
3-8 m Bitte befolgen Sie die Installationsanweisungen im Detail.
Kameramontage - vertikaler Winkel zum Objekt
<40°
Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden. Weitere Informationen dazu finden Sie ebenfalls in der Installationsanleitung.
0° - 20°
Dahua
HikVision
Modell
Konfigurationsoption
Counting Line
Journey Time
Wählen Sie unter Global Settings den Modus Journeytime
Enable or disable raw tracks
Disabled
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet. | > 60 PPM |
Videoauflösung | 1280 × 720 Pixel |
Videoprotokoll/Codec | RTSP/H264 |
Brennweite | mindestens 2,8 mm Variofokal-Objektiv* |
Kameramontage - Abstand zum Objektzentrum | 5–70 m* |
Kameramontage - Befestigungshöhe | 3–8 m |
Kameramontage - vertikaler Winkel zum Objekt | <50° Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden. |
0° - 90° |
HikVision |
Model |
Konfigurationsoption(en) | Counting Line und Region of Interest |
ANPR | Deaktiviert |
Enable or disable raw tracks | Deaktiviert |
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet. | >30 PPM (Objektklassen car, truck) >60 PPM (Objektklassen person, bicycle, motorbike) |
Videoauflösung | 1280 × 720 Pixel |
Videoprotokoll/Codec | RTSP/H264 |
Brennweite | 2.8 mm - 12 mm |
Kameramontage - Abstand zum Objektzentrum | Objektklassen car, truck: 5-30 m (2.8 mm Brennweite) 35-100 m (12 mm Brennweite) Objektklassen person, bicycle, scooter: 3-12 m (2.8 mm Brennweite) 25-50 m (12 mm Brennweite) |
Kameramontage - Befestigungshöhe | Bis zu 10 m Hinweis: Eine höhere Montage kann dabei helfen, die Verdeckung durch große Objekte zu minimieren. |
Kameramontage - vertikaler Winkel zum Objekt | <50° Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden. |
0°-45° Hinweis: Ein Winkel von ca. 15° liefert besser Ergebnisse bei der Klassifizierung, da mehr Objektdetails sichtbar sind (z.B. Räder, Achsen, etc.) |
Wide Dynamic Range | Kann aktiviert werden. |
HikVision | Bullet Camera | 2,8 mm - 12 mm variable Brennweite |
Modell |
Konfigurationsoption | Region of Interest mit Rule |
ANPR | Deaktiviert |
Enable or disable raw tracks | Deaktiviert |
Kameramontage - horizontaler Winkel zum Objekt
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den oder einen .
Kameramontage - horizontaler Winkel zum Objekt
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den oder einen .
Kameramontage - horizontaler Winkel zum Objekt