Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Quick Start Guide
Die Swarm Perception Box ist eine verwaltete Black Box, d.h. Sie müssen sich nicht um Hardware, OS, Treiber, Sicherheitspatches oder sonstiges kümmern. Sie können auch nicht direkt auf das System zugreifen.
Um alles entsprechend einzurichten, folgen Sie den folgenden Schritten:
Die ersten Schritte:
Montieren Sie die (O)P101/P401 am gewünschten Ort.
Stellen Sie sicher, dass Ihre (O)P101/P401 im Swarm Control Center online ist.
Nachdem die Swarm Perception Box erfolgreich mit dem Swarm Control Center verbunden wurde, müssen Kamera und das jeweilige Szenario entsprechend konfiguriert werden.
Für die bereits konfigurierten Szenarien können Sie die Daten entweder über MQTT sammeln oder Dashboards in unserem Data Analytics erstellen. Diese Dashboards bieten sofort einsatzbereite Visualisierungen sowie REST-APIs, um weitere Erkenntnisse zu gewinnen.
Release-Datum: 13. Dezember 2023
Zusätzlich zum Rohtext des Kennzeichens und der Landeskennzahl unterstützen wir jetzt auch den Ortscode des Kennzeichens. Einige Nummernschilder enthalten eine Ortskennzahl, die mit einem geografischen Gebiet verbunden ist, z. B. "W" für Wien (Österreich) oder "M" für München (Deutschland). Die folgenden 13 Länder werden unterstützt:
Bulgarien
Deutschland
Griechenland
Irland
Kroatien
Norwegen
Österreich
Polen
Rumänien
Schweiz
Slowakei
Slowenien
Tschechische Republik
Bei den unterstützten Ländern erkennen wir Leerzeichen zwischen den Buchstaben und analysieren den Rohtext des Kennzeichens nach einem vordefinierten Format. Bei Ländern, die nicht unterstützt werden (z. B. Italien), enthält das generierte Event entsprechend keinen Ortscode.
Alle Anwendungsfälle, die auf ANPR basieren, werden automatisch unterstützt. Eine zusätzliche Konfiguration ist also nicht erforderlich.
Die Data Analytics Widgets Journey Distributions und License Plates ermöglichen die Segmentierung nach License Plate Area:
Verbesserte Klassifizierungsgenauigkeit für die Klassen person und bicycle (Traffic & Parking Standard/Accuracy+)
Fix für Data Analytics, einige Abfragen führten zu inkonsistenten Daten
Fix für Rule Engine für die Belegung einer Region of Interest
Behobene P100/OP100-Verlangsamung, die mit 2023.3 eingeführt wurde
Reduzierte Downtime während Geräte-Updates
Fix für falsche Pixelierung bei Counting Lines während der Debug-Videoausgabe
Fix für falsch dargestellte Benachrichtigung für nicht genügend SPS-Lizenzen
Geräte-Updategröße (2023.3 -> 2023.3 Update 1):
P101/OP101 & NVIDIA Jetson Geräte: 370MB
P100/OP100: 350MB
Das Geräte-Update wird am 31.01.24 automatisch durchgeführt, sollte es bis dahin nicht geschehen sein.
Dieses Update erhält keine kritischen Änderungen für API und Events, lediglich Erweiterungen. Diese umfassen:
Control Center API und Data Analytics API
Das Eventformat
Release-Datum: 15.11.2023
Die Adaptive Traffic Control ermöglicht es Ihnen, mit Hardwaregeräten wie Verkehrssteuerungen über potenzialfreie Kontakte zu kommunizieren. Anwendungsfälle und Vorteile:
"Smart Prio System": Priorisierung bestimmter Verkehrsklassen und Gewährleistung eines flüssigen Verkehrsverhaltens in Echtzeit (z.B. Fußgänger:innen, Radfahrende, E-Scooter, Schwerverkehr)
Vereinfachung der Infrastrukturwartung: Ersetzen Sie mehrere Induktionsschleifen durch eine einzige Swarm Perception Box. Die Installation erfordert keinerlei Grabungsarbeiten und reduziert den Wartungsaufwand deutlich.
Schauen Sie sich hier die Konfigurationsschritte an.
Durch die Metriken zum Gerätezustand können Sie Nachweise für eine zuverlässige und kontinuierliche Datenerfassung erbringen und mögliche Probleme selbst diagnostizieren (z.B. hinsichtlich einer stabilen Netzwerkverbindung, der Stromversorgung, usw.). Die folgenden Metriken werden unterstützt:
Gerätebetriebszeit, Status, Neustarts, verfügbarer Speicherplatz
Gerätetemperatur (unterstützt für P101/OP101/Jetson Nano)
LTE-Modem-Traffic, Signalstärke und Reconnects (unterstützt für OP100/OP101)
Kamerastatus und Verarbeitungsgeschwindigkeit der Kamera (FPS)
erstellte und ausstehende Events
Wir haben das Modell Parking (Single-/Multispace) durch das Modell Traffic & Parking (Accuracy+) ersetzt. Dieses ist auf Genauigkeit getrimmt, während die Verarbeitungsgeschwindigkeit (gemessen in FPS) reduziert ist. Ideal für Anwendungsfälle mit weniger dynamischen Objekten wie Adaptive Traffic Control und Parking Insights (Single- und Multispace).
Wir haben die Klassifizierungsgenauigkeit für beide Varianten des Modells, also Standard sowie Accuracy+, verbessert - insbesondere für die Klassen articulated truck, truck with trailer und car with trailer.
Wir haben den Output angepasst, dieser lautet bei Events nun person (zuvor war es head). Betroffen von dieser Änderung sind die Geräte P101/OP101/VPX. Nicht betroffen sind die Geräte P100/OP100. Wir haben die Genauigkeit durch eine höhere Auflösung der Verarbeitung verbessert.
Wir haben die Genauigkeit aufgrund der höheren Auflösung verbessert.
Das Modell ist bereits veraltet und wird in Zukunft nicht mehr aktualisiert werden. Es wird selbstverständlich so lange funktionieren, wie es Geräte gibt, die es verwenden. Bitte ziehen Sie dennoch in Erwägung, auf das Modell Traffic & Parking umzusteigen.
Organisieren Sie Ihre Geräte und erzeugen Sie Events mit vordefinierten Metadaten. Sie können bis zu fünf Schlüssel- und Wertepaare für ein Gerät definieren. Die Schlüssel und Werte können frei definiert werden, wir unterstützen die automatische Vervollständigung von Schlüsseln, um lästige Tippfehler zu vermeiden. Nach der Definition von Metadaten können Sie die Liste der Geräte nach Metadatenwerten filtern, und die generierten Events enthalten die vordefinierten Metadaten für die weitere Verarbeitung durch Ihre Anwendung. Details finden Sie im Event-Schema.
Bei der Track Calibration werden die letzten 100 Object Tracks auf einem aktuellen Kamerabild überlagert. So können Sie Event-Trigger (z. B. Counting Lines) für optimale Ergebnisse positionieren. Wir erweitern die Funktionalität mit dieser Version um eine Historie über die letzten 24 Stunden. Wenn Sie den Verlauf der Track Calibration in der Konfiguration aktivieren, können Sie auf die Spurenkalibrierung für jede Stunde der letzten 24 Stunden zugreifen.
Die Bilder der Track Calibration werden auf dem Edge-Gerät gespeichert und sind nur über das Control Center zugänglich. Stellen Sie bitte sicher, dass das Anzeigen, Speichern und Verarbeiten dieser Bilder für bis zu 24 Stunden mit den geltenden Datenschutzbestimmungen vereinbar ist.
Ab sofort, bzw. mit dieser Version, entscheiden Sie, wann Ihre Geräte ein Update erhalten. Wir empfehlen natürlich eine möglichst baldige Aktualisierung, damit Sie die neuesten Funktionen (z.B. Adaptive Traffic Control, Track Calibration History) entsprechend nutzen und von Qualitätsverbesserungen (z.B. Modell-Updates), Fehlerbehebungen und Sicherheitsupdates profitieren können. Sollte die Aktualisierung bis zum 13. Dezember 2023 nicht durchgeführt worden sein, werden wir updaten.
Größe des Updates (2023.2 -> 2023.3):
P101/OP101 & NVIDIA Jetson-Geräte: 460MB
P100/OP100: 470MB
Control Center:
User Management: Einladen von Benutzer:innen und Verwalten der Berechtigungen für bestehende Benutzer:innen
Die MQTT-Client-ID kann für benutzerdefinierte MQTT-Broker festgelegt werden
Data Analytics
Beschleunigung des Widgets für Origin-Destination
Fix: Visualisierung für Akkorddiagramm (OD) sowie Liniendiagramme
Fix: unter bestimmten Bedingungen löste eine Region of Interest in Kombination mit einer Rule keine Events aus.
Es gibt keine grundlegenden API-/Eventanpassungen, lediglich Ergänzungen. Diese umfassen:
Die API des Control Centers sowie die API für Data Analytics
Das Event-Format
Swarm Analytics: Technische Dokumentation
Diese Dokumentation ist veraltet!
Aktuelle Dokumentation
Verwenden Sie diese Dokumentation, um mehr über die Technologie von Swarm Analytics zu erfahren und sie anzuwenden.
Ein kleiner Hinweis zu Beginn: Unsere Hauptdokumentation wurde ursprünglich in englischer Sprache erstellt. Die hier bereitgestellte deutsche Version dient lediglich als Übersetzung und soll die Nutzung der Informationen in deutscher Sprache erleichtern. Im Falle von Abweichungen oder Inkonsistenzen zwischen der englischen und deutschen Version hat die englische Version Vorrang.
Diese Dokumentation ist eine technische Richtlinie für Sie als Partner und Kunden sowie generell alle, die daran interessiert sind, unsere Software in einer neuen oder bestehenden datenanalytischen IoT-Umgebung zu integrieren.
Und die technische Architektur dahinter:
Unsere Swarm Perception Plattform besteht aus den folgenden zwei Hauptkomponenten:
Swarm Control Center (SCC): Sie Ihre Perception Boxen und analysieren Sie Ihre Daten mit Data Analytics. Für beide Bereiche stellen wir bereit.
Swarm Perception Agent: Unsere Software, die auf unseren Produkten (P101/OP101/VPX) läuft. Das Video von einer RTSP-/USB-Kamera wird mithilfe von Deep Learning verarbeitet. Ereignisse werden generiert und über MQTT an oder einen gesendet. Die Verarbeitung von Einzel- oder Mehrkameradaten wird unterstützt. Die Engine wird ausschließlich über das SCC konfiguriert.
Data Analytics API (High Level)
Events werden an eine von Swarm Analytics verwaltete Azure Cloud-Umgebung gesendet und dort gespeichert.
Events werden von Swarm Analytics verarbeitet und gespeichert.
Die API ermöglicht eine einfache Integration mit Drittanbietersystemen.
MQTT (Low Level)
Erfordert den Betrieb eines MQTT-Servers.
Erfordert die Speicherung/Verarbeitung von Rohdaten für Events
Ermöglicht die Verarbeitung via Edge für zeitkritische und/oder Offline-Anwendungsfälle
Die Architektur basiert auf den folgenden Prinzipien:
Zentralisierte Datenanalyse, Gerätekonfiguration und Update-Verwaltung
Hosting via Microsoft Azure Cloud, verwaltet von Swarm Analytics
Dezentrale Verarbeitung von Kameradaten (Edge)
Generierte Data (Events) und Verwaltungsdaten sind entkoppelt
Support für heterogene Netzwerkinfrastruktur
Skalierung von einer bis tausenden Swarm Perception Agents
Stellen Sie dabei sicher, dass die erfüllt sind.
Bitte führen Sie die erforderliche im Abschnitt "Kameraverbindung" in Ihrem Swarm Control Center durch.
Bitte wählen Sie die erforderliche MQTT-Verbindung in Ihrem Swarm Control Center aus. Sie haben die Wahl zwischen der Verbindung via und der .
Stellen Sie sicher, dass die erfüllt sind. Um den Status einer Kamera im Swarm Control Center zu überprüfen, lesen Sie bitte die Dokumentation zur .
Wenn Sie alle oben genannten Schritte befolgt haben und die P101 nicht im Swarm Control Center online ist oder wenn Sie eine statische IP-Konfiguration für die Ethernet-Schnittstelle festlegen möchten, kontaktieren Sie uns bitte über unser .
Sobald Schritt 6 abgeschlossen ist, kehren Sie zum zurück, um mit der fortzufahren.
Systemanforderungen für unser Softwareangebot.
Für den VPX-Agent müssen die nachfolgenden Hardware- sowie Softwareanforderungen erfüllt werden.
Hardware
Unterstützte NVIDIA Jetson-Geräte
Orin Nano 4GB/8GB, Orin NX 8GB/16GB, Orin AGX 32GB/64GB
Speicher: es müssen mindestens 4 GB verfügbar sein
Speicherplatz: es müssen mindestens 6 GB frei sein
Software
JetPack 4.6 oder Jetpack 5.1.1
Hardware
CPU: X86-64bit
Speicher: es müssen mindestens 4 GB verfügbar sein
Speicherplatz: es müssen mindestens 15 GB frei sein
NVIDIA Workstation GPUs
RTX-Serie (z.B. RTX A2000)
Quadro-RTX-Serie (z.B. Quadro RTX 4000)
Software
Ubuntu 20.04 LTS
NVIDIA Driver Version 470 (oder neuer)
Docker 19.0.1+
IotEdge 1.4
Die Virtual Perception Box (VPX) ist ein rein softwarebasiertes Produkt, das als Docker-Container bereitgestellt wird. Das bedeutet folgendes:
Sie sind alleinig verantwortlich für die Einrichtung und Wartung der Hardware sowie Software (Betriebssystem, Treiber, Netzwerk, Systemanwendungen, usw.)
Checkliste für Geräte mit VPX (von Swarm Analytics empfohlen)
Integrieren von Remote-Management (z.B. VPN/SSH)
Integrieren von Update-Management (z.B. Ansible) zur Aktualisierung von Systempaketen wie IoTEdge, Jetpack, Docker
Gerätekontrolle
Ständiges Überprüfen der Sicherheit (Firewall, angewendete Sicherheitspatches, starke Passwörter/Zertifikate)
Wie Sie unsere Software auf Ihrer eigenen NVIDIA-Hardware installieren.
Übertragen Sie JetPack 4.6.0 (L4T 32.6.1) auf Ihr Jetson-Gerät. Folgen Sie der von NVIDIA bereitgestellten Dokumentation. Abhängig von Ihrer Hardware haben Sie die Möglichkeit, eine SD-Karte oder den internen Speicher zu verwenden.
Achten Sie darauf, dass Sie die exakt diese JetPack-Version nutzen. Verwenden Sie bitte keine neueren, bzw. älteren Versionen.
Einige Jetson-Geräte verfügen nicht über ausreichend Festplattenplatz für den VPX-Agenten. Sie können das nachfolgende Script ausführen (auf eigenes Risiko), das nicht benötigte Anwendungen entfernt.
Mit unserem Installationsskript ist die Installation des VPX-Agenten denkbar einfach. Vergewissern Sie sich vorab, dass Sie die Seriennummer(n) bereits von uns erhalten haben.
Nachdem das Installationsskript abgeschlossen ist, zieht die IoT-Edge-Runtime vier Docker-Container wie nachfolgend beschrieben.
Der Gerätetyp muss im Swarm Control Center eingestellt werden. Derzeit kann das ausschließlich von unserem Support durchgeführt werden, erstellen Sie daher bitte ein Supportticket.
Stellen Sie sicher, dass der Container curiosity-arm64-tensorrt
verwendet wird.
Das Herunterladen von curiosity kann eine Weile dauern.
Danach sehen Sie im Swarm Control Center ein Unnamed Device mit der entsprechenden Registrierungs-ID:
Nutzen Sie JetsonStats um Ihr Jetson-Gerät zu überprüfen sowie zu steuern.
Nächste Schritte: Konfigurieren Sie Ihren Use-Case.
Dieser Vorgang ist von NVIDIA dokumentiert.
Stellen Sie sicher, dass die folgenden Software-Pakete und Versionen installiert sind:
Quick Start Guide
Hier finden Sie das Produktdatenblatt.
Erweiterter Support
Stellen Sie sicher, dass die Netzwerkanforderungen erfüllt sind. Um den Status einer Kamera im Swarm Control Center zu überprüfen, lesen Sie bitte die Dokumentation zur Kamera- und Gerätekontrolle.
Wenn Sie alle oben genannten Schritte befolgt haben und die P401 nicht im Swarm Control Center online ist oder wenn Sie eine statische IP-Konfiguration für die Ethernet-Schnittstelle festlegen möchten, kontaktieren Sie uns bitte über unser Support Center.
Sobald Schritt 6 abgeschlossen ist, kehren Sie zum Beginn des Guides zurück, um mit der Gerätekonfiguration fortzufahren.
Quick Start Guide
Nachdem Sie die OP101AC erhalten haben, empfehlen wir, die folgenden Schritte vor der Montage zu befolgen.
Hier finden Sie das Produktdatenblatt.
Achten Sie darauf, eine SIM-Karte mit ausreichendem Datenvolumen zu verwenden. Für den normalen Gebrauch werden ungefähr 1 GB pro Monat und Gerät benötigt.
Wenn Sie die die oben genannten Schritte befolgt haben und die OP101AC dennoch nicht online im Swarm Control Center zu sehen ist, werfen Sie bitte einen Blick auf unsere Tipps zur Fehlerbehebung.
Erweiterter Support
Bitte schauen Sie sich unsere Benchmarks an, um die Anzahl der unterstützten Kameras zu überprüfen.
Sobald Ihre OP101AC montiert und online ist, kehren Sie zum Beginn des Guides zurück, um mit der Gerätekonfiguration fortzufahren.
Überprüfen Sie zunächst unsere .
Nachdem Sie die Installationsschritte durchgeführt haben, sollten Sie einen ähnlichen Output erhalten:
(lediglich das Paket aziot-edge wird benötigt).
Überspringen Sie die Installation der Container-Engine (die haben Sie bereits durchgeführt).
Sie erhalten eine Zip-Datei von uns, die Konfigurationsdateien enthält. Ersetzen Sie $ID mit der Geräte-ID, die Sie von uns bekommen haben.
An dieser Stelle empfehlen wir, die IoTEdge-Protokolle auf Fehler zu überprüfen.
Im Swarm Control Center sehen Sie Ihr Gerät nun als Unnamed Device mit der entsprechenden ID:
Nun zieht die IoTEdge-Runtime die Docker-Images. Sobald dies abgeschlossen ist, kann das Gerät im Control Center konfiguriert werden.
Nächste Schritte: Konfigurieren Sie Ihren Anwendungsfall.
Wie man erfolgreich Verkehrszählungen auf dezidierten städtischen Straßen sowie Autobahnen durchführt, einschließlich Geschwindigkeitsschätzungen der Fahrzeuge gemäß unserer (Unter-)Klassen.
Sie möchten die Durchschnittsgeschwindigkeit Ihres Straßenverkehrs in bestimmten Bereichen wissen? Unsere Software ist die Lösung, um die Anzahl der Fahrzeuge zu erfassen, aufgeschlüsselt in Geschwindigkeitssegmente (10 km/h) oder um die Durchschnittsgeschwindigkeit der gezählten Fahrzeuge über einen aggregierten Zeitraum zu ermitteln.
Für diesen Anwendungsfall stellt Ihnen unsere Software sämtliche Informationen für die Verkehrszählung samt Geschwindigkeitsschätzung zur Verfügung.
Die Konfiguration kann zentral im durchgeführt werden. Nachfolgend sehen Sie, wie eine standardmäßige Verkehrszählung in Kombination mit Geschwindigkeitsschätzungen konfiguriert werden sollte, um optimale Ergebnisse zu erzielen.
Bevor Sie mit Ihrer Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|
Wenn Sie die Geschwindigkeitsschätzung aktiviert haben, wird die Counting Line in zwei Linien mit einer Entfernungskalibrierung umgewandelt. Um ein gutes Ergebnis für die Geschwindigkeitsschätzung zu erzielen, ist es entscheidend, dass die Kalibrierungsstrecke zwischen den beiden Linien möglichst genau ist. Die Entfernung kann in den Trigger-Einstellungen (Line distance (meter)) in der linken Seitenleiste angepasst werden.
Sie können die Richtung (In/Out) nach Bedarf auswählen, um die gewünschten Daten entsprechend abzurufen. Darüber hinaus haben Sie die Möglichkeit, In sowie Out benutzerdefinierte Bezeichnungen zu geben.
Im Abschnitt Verkehrsszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Hier sehen Sie ein Beispiel für ein Verkehrszählungs-Widget, das in 10 km/h-Gruppen aufgeteilt ist. Sie haben verschiedene Optionen, um die Daten für einen bestimmten Zeitraum auszuwählen.
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Quick Start Guide
Nachdem Sie die OP101AC erhalten haben, empfehlen wir, die folgenden Schritte vor der Montage zu befolgen.
Hier finden Sie das .
Achten Sie darauf, eine SIM-Karte mit ausreichendem Datenvolumen zu verwenden. Für den normalen Gebrauch werden ungefähr 1 GB pro Monat und Gerät benötigt.
Erweiterter Support
Anwendungsfälle für verschiedene Parkplatzszenarien
Mit unserer Swarm Perception Platform können Sie dank der nachstehend abgedeckten Anwendungsfälle für jede Parkumgebung eine Lösung finden.
Für die Version 2023.1 und alle nachfolgenden wird benötigt. Für neue Geräte übernimmt unser Installer den Installationsprozess. Bestehende VPX-Geräte müssen selbst upgegradet werden. P10X- sowie OP10X-Geräte werden von uns im Zuge der Version 2023.1. upgegradet.
Bitte lesen Sie zunächst die Anweisungen in der , da diese Schritte erforderlich sind. Hinweis: Das Package defender-iot-micro-agent-edge wird nicht benötigt.
Installation unserer Software auf Ihrer eigenen NVIDIA Jetson Orin Hardware
Jetpack 5.1 benötigt mindestens 32GB oder mehr an Speicherplatz. Um mehr Speicherplatz für zusätzliche Software freizugeben, verwenden Sie entweder ein größeres Speichermedium oder folgen Sie .
Übertragen Sie JetPack 5.1 auf Ihr Jetson-Gerät. Folgen Sie dabei der . Abhängig von Ihrer Hardware können Sie eine SD-Karte oder den internen Speicher verwenden.
Mit unserem Installationsskript ist die Installation des VPX-Agenten denkbar einfach. Vergewissern Sie sich vorab, dass Sie die Seriennummer(n) bereits von uns erhalten haben.
Nachdem das Installationsskript abgeschlossen ist, zieht die IoT-Edge-Runtime vier Docker-Container wie nachfolgend beschrieben.
Der Gerätetyp muss im Swarm Control Center eingestellt werden. Derzeit kann das ausschließlich von unserem Support durchgeführt werden, erstellen Sie daher bitte ein .
Stellen Sie sicher, dass der Container curiosity-arm64-jetpack5
verwendet wird.
Das Herunterladen von curiosity kann eine Weile dauern.
Danach sehen Sie im Swarm Control Center ein Unnamed Device mit der entsprechenden Registrierungs-ID:
Anwendungsfälle für Verkehrsszenarien
Es gibt folgende Hauptanwendungsfälle unserer Technologie, um die Verkehrssituation in der Stadt, auf städtischen Straßen und auf Autobahnen besser zu verstehen:
Sie können Ihre Daten über in verschiedenen Widgets visualisieren.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Wenn Sie die die oben genannten Schritte befolgt haben und die OP101AC dennoch nicht online im Swarm Control Center zu sehen ist, werfen Sie bitte einen Blick auf unsere .
Bitte schauen Sie sich unsere an, um die Anzahl der unterstützten Kameras zu überprüfen.
Sobald Ihre OP101DC montiert und online ist, kehren Sie zum , um mit der fortzufahren.
Objektgeschwindigkeit | < 130 km/h |
Tag/Nacht/Beleuchtung | Tagsüber/Gut beleuchtet/Nachtsicht |
Innen-/Außenanwendung | Außen |
Unterstütze Produkte | VPX, P401, P101/OP101, P100/OP100 |
Frames Per Second (fps) | 25 |
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet. | >30 PPM für Objektklassen car, truck >60 PPM für Objektklassen person, bicycle, motorbike |
Videoauflösung | 1280 x 720 Pixel |
Videoprotokoll/Codec | RTSP/H264 |
Brennweite | 2.8 mm - 12 mm |
Kameramontage - Abstand zum Objektzentrum | Objektklassen car, truck 5-30 m (2,8 mm Brennweite) 35-100 m (12 mm Brennweite) Objektklassen person, bicycle, scooter 3-12 m (2,8 mm Brennweite) 25-50 m (12 mm Brennweite) |
Kameramontage - Befestigungshöhe | Bis zu 10 m Hinweis: Eine höhere Montage kann dabei helfen, die Verdeckung durch große Objekte zu minimieren. |
Kameramontage - vertikaler Winkel zum Objekt | <50° Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden. |
0° - 90° Hinweis: Ein Winkel von ca. 15° liefert besser Ergebnisse bei der Klassifizierung, da mehr Objektdetails sichtbar sind (z.B. Räder, Achsen, etc.) |
Wide Dynamic Range | Kann aktiviert werden. |
HikVision | Bullet Camera | 2,8 mm feste Brennweite |
HikVision | Bullet Camera | 2,8 mm - 12 mm variable Brennweite |
Model |
Konfigurationsoption | Counting Line (optional speed) |
ANPR | Deaktiviert |
Enable or disable raw tracks | Deaktiviert |
Enable or disable speed estimation | Aktiviert |
Wie es gelingt, Informationen über Verkehrskreuzungen und Kreisverkehre sowie über Fahrzeugbewegungen vom Ausgangspunkt (Origin) bis zum Ziel (Destination) zu erhalten.
Sie möchten den Verkehrsfluss an Verkehrskreuzungen und Kreisverkehren kennen? Die Swarm Perception Platform bietet die Lösung, um die Anzahl der Fahrzeuge zu erfassen, die von einer Ursprungszone (origin) zu einer Zielzone (destination) fahren, aufgeschlüsselt nach Fahrzeugtypen (Klassen).
Für diesen Anwendungsfall stellt Ihnen unsere Software alle erforderlichen Daten für Origin-Destination-Analysen zur Verfügung - die Anzahl der Fahrzeuge von einer Zone zur anderen, einschließlich Klassifizierung nach BAST/TLS-Standards, kann erfasst werden.
Die Konfiguration kann zentral im Swarm Control Center durchgeführt werden. Nachfolgend sehen Sie, wie die Origin-Destination-Analyse für optimale Ergebnisse konfiguriert werden muss.
Bevor Sie mit Ihrer Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre Kamera- und Datenkonfiguration bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|---|
Für Origin-Destination-Analysen müssen mindestens zwei Zonen konfiguriert werden. Die Zonen können nach Bedarf im Videoframe platziert werden. Beachten Sie dabei allerdings, dass die erste Zone, die das Fahrzeug passiert, als Ursprungszone (Origin) und die letzte Zone als Zielzone (Destination) betrachtet wird.
Wenn ein Fahrzeug Zone A, dann Zone B und anschließend Zone C passiert, wird das OD-Ereignis als Origin: A und Destination: C betrachtet.
Außerdem ist es wichtig, dass die Zonen so groß wie möglich konfiguriert werden, um genügend Platz sowie Zeit für eine erfolgreiche Objekterkennung zu bieten.
Sie können Ihre Daten über Data Analytics in verschiedenen Widgets visualisieren.
Im Abschnitt Verkehrsszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Sie haben verschiedene Möglichkeiten, die gewünschten Daten im bevorzugten Ausgabeformat (z.B. Balkendiagramm, Tabelle, usw.) auszuwählen. Für die Origin-Destination-Analyse bieten wir ein spezielles Diagramm an - das Chord-Diagramm -, um den Fluss mit den Zählen zu visualisieren.
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die API verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Wie man erfolgreich Verkehrszählungen auf dezidierten städtischen Straßen sowie Autobahnen durchführt, einschließlich der Klassifizierung von Fahrzeugen gemäß unserer (Unter-)Klassen.
Sie möchten die Verkehrssituation einer städtischen Straße oder Autobahn erfahren? Unsere Software ist die Lösung, um die Anzahl sämtlicher Fahrzeuge zu erfassen, aufgeschlüsselt nach Fahrzeugtypen (Klassen) und Richtungen.
Für diesen Anwendungsfall stellt Ihnen unsere Software sämtliche Informationen für die Verkehrszählung zur Verfügung. Die Zählungen der Fahrzeuge einschließlich ihrer Klassifizierung können erfasst werden. Die Zählungen sind auf zwei Richtungen aufgeteilt (In/Out). Darüber hinaus können mehrere Zählungen in einer Kamera durchgeführt werden, z.B. die separate Zählung jeder Fahrspur. Zusätzlich besteht die Möglichkeit, eine zweite Counting Line hinzuzufügen, den Abstand dazwischen zu kalibrieren und die Geschwindigkeit der Fahrzeuge, die beide Linien passieren, abzuschätzen.
Diese Klassen werden von unserer Software erkannt.
Die Konfiguration kann zentral im Swarm Control Center durchgeführt werden. Nachfolgend sehen Sie, wie die standardmäßige Verkehrszählung für optimale Ergebnisse konfiguriert werden muss.
Bevor Sie mit Ihrer Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre Kamera- und Datenkonfiguration bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|---|
Um die beste Genauigkeit bei der Zählung einschließlich der Klassifizierung zu erhalten, sollte die Counting Line (CL) etwa in der Mitte des Videoframes platziert werden, damit Fahrzeuge aus beiden Richtungen ausreichend lange erfasst und somit klassifiziert werden können.
Sie können die Richtung (In/Out) nach Bedarf auswählen, um die gewünschten Daten entsprechend abzurufen. Darüber hinaus haben Sie die Möglichkeit, In sowie Out benutzerdefinierte Bezeichnungen zu geben.
Sie können Ihre Daten über Data Analytics in verschiedenen Widgets visualisieren.
Im Abschnitt Verkehrsszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Hier sehen Sie ein Beispiel für ein Verkehrszählungs-Widget. Sie haben verschiedene Optionen, um die Daten für einen bestimmten Zeitraum auszuwählen und das Ausgabeformat (z.B. Balkendiagramm, Tabelle, etc.) Ihrer Wahl zu aktivieren.
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die API verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Wie Sie erfolgreich ein schrankenloses Parkplatzszenario einrichten, um verlässliche Daten zur Auslastung zu erhalten.
Sie haben einen Parkplatz, auf dem Sie einfach nur die Auslastung durch Zählung von Ein- und Ausfahrten erfahren möchten? Unsere Technologie bietet die perfekte Lösung, um dies auf einfache Weise zu erreichen. Überzeugen Sie sich selbst:
Für diesen Anwendungsfall stellt Ihnen unsere Software sämtliche relevante Informationen für Ihre Zählung basierend auf Ein- und Ausfahrten zur Verfügung. Sie erfasst die Anzahl der Fahrzeuge auf Ihrem Parkplatz sowie die Anzahl der Fahrzeuge, die Ihren Parkplatz befahren sowie verlassen. Das Ganze kann für benutzerdefinierte Zeiträume konfiguriert werden.
Die Fahrzeuge werden basierend auf unseren definierten Klassen erkannt. Beachten Sie bitte, dass die folgende Konfiguration für die Erkennung von Fahrzeugen und nicht für Personen sowie Fahrräder optimiert ist.
Die Konfiguration kann zentral im Swarm Control Center durchgeführt werden. Nachfolgend sehen Sie, wie die optimale Konfiguration für die Zählung der Ein- und Ausfahrten mit Kennzeichenerkennung eingestellt werden sollte:
Bevor Sie mit der Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre Kamera- und Datenkonfiguration bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|---|
Um die bestmögliche Genauigkeit für die Zählung sowie Klassifizierung zu erreichen, sollte die Counting Line etwa in der Mitte des Videoframes platziert werden, damit Fahrzeuge aus beiden Richtungen ausreichend lange erfasst und somit erkannt sowie klassifiziert werden können.
Bitte beachten Sie, dass die In/Out-Richtung der Counting Line akkurat sein muss, da sie für die Auslastung des Parkplatzes ausschlaggebend ist (In = Einfahrt zum Parkplatz, Out = Ausfahrt, bzw. Verlassen des Parkplatzes).
Sie können Ihre Daten über Data Analytics in verschiedenen Widgets visualisieren.
Im Abschnitt Parkplatzszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie für Parkplatzanalysen in Ihren Dashboards anlegen und nutzen können.
Sie können die Daten für jede mit Counting Lines konfigurierte Ein-/Ausfahrt visualisieren. Dadurch haben Sie die Möglichkeit, sich die Anzahl der Fahrzeuge mit ihren main classes sowie sub classes anzeigen zu lassen, die Ihren Parkplatz befahren haben - entweder als aggregierte Daten über mehrere Ein- und Ausfahrten oder separat pro Ein- bzw. Ausfahrt. Beim Erstellen eines Dashboards für Parkplatzszenarien bieten wir standardmäßig die Widgets Current Parking Utilization sowie Historic Parking Utilization an.
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die API verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Hilfreiche Informationen zur automatischen Kennzeichenerkennung (Automated License Plate Recognition, ANPR).
Die automatische Kennzeichenerkennung funktioniert in vier Schritten. Dabei werden Fahrzeuge und Kennzeichen erkannt, die Kennzeichen werden gelesen und Ereignisse werden ausgelöst.
1. Fahrzeugerkennung
Fahrzeuge wie Autos, Lastwagen und Busse werden erkannt und im Videostream verfolgt.
2. Kennzeichenerkennung
Für jedes erkannte Fahrzeug werden die Kennzeichen erkannt und den Fahrzeugen entsprechend zugeordnet.
3. Lesen der Kennzeichen
Für jedes erkannte Kennzeichen wird anschließend eine optische Zeichenerkennung (OCR) angewendet, um das Kennzeichen zu lesen.
4. Ereignis senden
Wenn das Fahrzeug nun eine Counting Line überquert, wird ein Ereignis mit dem Text des erkannten Kennzeichens gesendet.
Die größte Herausforderung bei ANPR-Installationen besteht darin, gut lesbare Kennzeichen zu erfassen. Dafür ist ein scharfes und gut beleuchtetes Bild ohne Verdeckungen oder unscharfe Objekte erforderlich, um korrekte Ergebnisse zu erzielen. Der folgende Leitfaden soll zeigen, wie Sie unsere Technologie für ANPR optimal einrichten und die häufigsten Probleme vermeiden können.
Unser System ist für zwei typische Installationen ausgelegt, die wir hier nachfolgend beschreiben:
Für dieses Setup wird die Kamera in einer Höhe von ca. zwei Metern montiert, möglichst nah an der Seite der Fahrspur, um einen hohen horizontalen Winkel zu vermeiden. Sofern möglich, sollte sichergestellt sein, dass Fahrzeuge in der Spur bleiben, um genaue Ergebnisse für die Kennzeichenerkennung zu erzielen.
Wenn die Kamera über den Fahrzeugen positioniert wird (z.B. an der Ein-/Ausfahrt einer Garage), können maximal zwei Fahrspuren abgedeckt werden.
Damit das System ordnungsgemäß funktioniert, sollten Fahrzeuge gerade durch das Bild fahren, sodass die Kennzeichen in der gesamten Szene sichtbar ist. Die Kamera sollte in einer Höhe von drei Metern angebracht sein und Fahrzeuge direkt von vorne oder hinten gegenüberstehen, um einen hohen horizontalen Winkel zum Kennzeichen zu vermeiden.
Die Kameraeinrichtung kann manchmal knifflig sein und erfordert oftmals etwas Experimentieren mit der Kameraposition sowie den Parameters, um optimale Ergebnisse zu erzielen. Die folgenden Abschnitte beschreiben häufige Probleme mit Kameras und wie man diese vermeiden kann.
Kennzeichen müssen mit 250 Pixel-per-Meter (PPM) sichtbar sein. Bei europäischen Standardkennzeichen bedeutet dies eine Mindesthöhe von 30 Pixel und eine Mindestbreite von 100 Pixel für die Auflösung, um gute Erkennungsergebnisse zu erzielen.
Für Kameraeinstellungen mit Objektabständen innerhalb der Spezifikation ist eine FullHD-Auflösung (1080p) ausreichend. In einigen Fällen kann es auch hilfreich sein, eine höhere Auflösung (4MP oder 2K) zu wählen, um ein schärferes Bild zu erhalten.
Wir empfehlen, während der Einrichtung die Größe der Kennzeichenausschnitte manuell zu überprüfen.
Kennzeichen müssen aus einem direkten Betrachtungswinkel zu sehen sein. Kleine Winkel (<20° horizontal, <30° vertikal) und eine Neigung von <5° können problemlos verarbeitet werden, während größere Winkel überhaupt nicht funktionieren. Bei größeren Betrachtungswinkeln neigt das System eher dazu, Zeichen zu verwechseln oder Zeichen am Rand nicht zu erkennen.
Für Kamerapositionen von der Seite wird empfohlen, maximal eine Fahrspur zu analysieren, während bei Kameraperspektiven von oben auch zwei Fahrspuren betrachtet werden können.
Die Beleuchtung der jeweiligen Szenen hat zwei wesentliche Auswirkungen.
Mit guter Beleuchtung kann eine niedrige Verschlusszeit gewählt werde und die Bilder werden weniger verwischt, das gilt insbesondere für schnell fahrende Fahrzeuge.
Eine gute Beleuchtung reduziert den ISO-Wert der Kamera, in der Folge erscheinen die Bilder weniger körnig und dafür schärfer.
Einige Kameras bieten zusätzliche Beleuchtungsmöglichkeiten, die nützlich sein können. Wenn das Kameralicht nicht ausreicht, ist eine externe Beleuchtung der Szene erforderlich.
Die digitale Rauschunterdrückung (DNR) sollte auf einen geringen Wert eingestellt sein, um Körnigkeit zu reduzieren.
Eine niedrige Verschlusszeit ist wichtig für sich bewegende Objekte, um ein scharfes Bild zu erhalten und gleichzeitig Unschärfe durch Bewegung zu vermeiden. Während im Allgemeinen schneller meist besser ist, hängt die gewählte Verschlusszeit von der Beleuchtung in der Szene ab.
Abhängig von der Fahrzeuggeschwindigkeit ist eine Verschlusszeit von 1/250 das absolute Minimum für dich bewegende Objekte unter 15 km/h. Für schnellere Fahrzeuge bis zu 40 km/h ist eine Verschlusszeit von 1/500 eine gute Wahl. Für schnellere Objekte empfehlen wir entsprechend eine noch niedrigere Verschlusszeit, die allerdings nur bei sehr guter Beleuchtung funktioniert.
Für Installationen mit unserer P101 supporten wir ANPR bis zu einer Geschwindigkeit von maximal 15 km/h.
Für die Übertragung des Kamerabildes wird eine Codierung verwendet. Unterschiedliche Codierungen können Daten sparen und die Bildqualität reduzieren. Wie wir wissen, ist für die Anwendung von ANPR allerdings eine hohe Bildqualität erforderlich. Wählen Sie deswegen den H.264-Codec und eine hohe Bitrate von >6000kbps für FullHD-Inhalte (1080p), sowie eine Bitrate von >8000kbps für 4MP-Videomaterial mit 25 fps aus.
Zusätzliche Funktionen wie BLC und WDR empfehlen wir nicht, da die Nachbearbeitung Details reduzieren kann. Wenn diese Funktionen dennoch erforderlich sind, sollte der Einfluss auf die Videoqualität überprüft werden.
Eine konstante Bitrate (CBR) führt normalerweise zu einer besseren Qualität als eine variable Bitrate (VBR).
Bei der Kameraeinrichtung empfehlen wir, einige kurze Testvideos mit verschiedenen Beleuchtungsbedingungen (morgens, mittags, abends, nachts) aufzunehmen, um zu überprüfen, ob Kennzeichen unter allen Bedingungen deutlich sichtbar sind.
Eine Hilfestellung: Wenn Kennzeichen für das menschliche Auge nicht erkennbar sind, kann das ANPR-Feature die Kennzeichen auch nicht erkennen. Stellen Sie demnach sicher, dass Sie gute und klare Kameraaufnahmen für beste Ergebnisse erhalten.
Eine geeignete Position des Event-Triggers (Counting Line) ist entscheidend für gute ANPR-Ergebnisse. Wenn die Linie zu weit hinten positioniert ist, hat das Modell nicht ausreichend Zeit, das Nummernschild zu erkennen und zu identifizieren, bevor ein Event gesendet wird. Wenn sich die Counting Line an einer Position befindet, an der das Kennzeichen nur aus einem suboptimalen Winkel sichtbar ist, werden die Ergebnisse entsprechend ungenau ausfallen.
Um die optimale Position der Counting Line identifizieren zu können, ist ein kurzes Debug-Video der Szene mit drei bis fünf Fahrzeugen sehr hilfreich. Bei der Analyse dieses Videos sollte das Fahrzeug durch den optimalen Ausschnitt mit der bestmöglichen Sicht auf das Kennzeichen verfolgt werden (siehe Beispiel 6). Sobald die Sicht auf das Kennzeichen schlechter wird (Beispiel 7), sollte die Counting Line direkt hinter der Mitte des Fahrzeugs positioniert werden.
Auf diese Weise ist garantiert, dass das System die besten Videoausschnitte nutzen kann, um das Nummernschild zu erkennen sowie zu identifizieren und das Event so noch vor der Verschlechterung der Sicht zu senden.
Unser ANPR-Feature wurde gründlich und unter zahlreichen Bedingungen getestet. In unserer Testumgebung verfügen wir über ca. fünf verschiedene Szenen und die Genauigkeiten werden auf der Grundlage von mehr als 800 Fahrzeugen mit europäischen Kennzeichen berechnet. Mit der Gesamtgenauigkeit meinen wir den Prozentsatz korrekt identifizierter Fahrzeuge und Kennzeichen im Vergleich zu allen Fahrzeugen mit lesbaren Kennzeichen.
Unter den angegebenen Bedingungen erreicht unsere Technologie >95% Gesamtgenauigkeit in Umgebungen mit langsam fahrenden Fahrzeugen sowie >90% Gesamtgenauigkeit bei schnell fahrenden Fahrzeugen.
Für eine Analyse von potentiellen Fehlern, beachten Sie bitte die nachfolgend beschriebenen Limitationen.
Eine der grundlegenden Limitationen, die nicht gelöst werden kann, ist die grundsätzliche Lesbarkeit von Nummernschildern. Das heißt, Nummernschilder, die beispielsweise durch Hindernisse verdeckt oder von Dreck, Staub oder Schnee bedeckt sind. Gleiches gilt auch für falsch montierte Kennzeichen. Umweltbedingungen wie Starkregen oder dichter Schneefall können ebenfalls eine Limitation darstellen und so zu ungenauen Ergebnissen führen.
Es gibt einige grundsätzliche Einschränkungen, bei denen das System einfach keine guten Ergebnisse liefern kann. Diese versuchen wir nachfolgend zu erläutern, bzw. zu erklären, wie diese Einschränkungen vermieden werden können.
1. Beleuchtung
Derzeit unterstützt unser System nur gut ausgeleuchtete Szenen, insbesondere tagsüber, oder wenn Nachtszenen sehr gut ausgeleuchtet und Nummernschilder klar erkennbar sind.
2. Einzeilige Kennzeichen
Zweizeilige Kennzeichen, wie sie oft bei Motorrädern zu sehen sind, werden nicht unterstützt und können demnach nicht erkannt werden.
3. Europäische Kennzeichen
Unsere Technologie ist für Standard-EU-Kennzeichen ausgelegt. Es kann durchaus sein, dass unser Modell auch Nummernschilder aus Ländern außerhalb der EU erkennt, allerdings garantieren wir dies nicht.
Innerhalb der ANPR-Technologie kann es zu den folgenden vier Fehlertypen kommen:
Kein Fahrzeug wird erkennt (<1% Fehlerquote)
Kein Kennzeichen wird erkannt (<0,1% Fehlerquote)
Es wird ein Event gesendet, ohne dass ein Fahrzeug die Kamera passiert (<0,1% Fehlerquote)
Kennzeichen wird falsch erkannt (<5-10% Fehlerquote, abhängig vom Szenario)
Das OCR-System identifiziert Zeichen für Zeichen. In den meisten Fehlerfällen handelt es sich um einzelnes Zeichen, dass falsch gelesen oder übersehen wurde. In einigen Ländern sehen sich verschiedene Nummernschildzeichen zum Verwechseln ähnlich - oder sind sogar identisch - und dadurch kann es entsprechend zu Verwechslungen kommen, so etwa:
B
und 8
D
and 0
0
and O
I
and 1
5
and S
Die beste Option, um diese Verwechslungen zu vermeiden, besteht darin, eine klare Frontansicht auf die Nummernschilder bei der Konfiguration zu erhalten. Für Systeme, die einfahrende sowie ausfahrende Kennzeichen abgleichen müssen, könnte es von Vorteil sein, sie mit einer unscharfen Suche abzugleichen, die Verwechslungen und doppelte Zeichen berücksichtigt. Beispiel: Das System könnte dann immer noch Kennzeichen wie S123A0
undSI23AO
abgleichen, auch wenn das zweite Event am selben oder folgenden Tag stattfindet.
Wurden alle Empfehlungen für das Setup umgesetzt und die Kamerakonfiguration ist dennoch nicht zufriedenstellend, gibt es noch externe Verbesserungsmöglichkeiten, die vorgenommen werden können. Die besten Ergebnisse werden erzielt, wenn sie kombiniert werden:
Wenn möglich, sollten die Fahrzeuge im Bereich der ANPR-Szene langsamer fahren, sodass mehr Zeit zum Erkennen und Identifizieren der Kennzeichen bleibt.
Reduzieren Sie den Abstand zwischen Fahrzeug und Kamera, z.B. durch einspuriges Einfahren auf den Parkplatz.
Verwenden Sie bei Möglichkeit den Kamerazoom, um auf den Bereich mit der besten Sicht auf die Kennzeichen zu fokussieren. Dies kann ebenfalls bei einer geringen Videoauflösung helfen.
Sollte die Leistung unseres Systems ein Problem darstellen (etwa durch eine zu geringe Bildrate), kann es helfen, bei der Kamerakonfiguration unnötige Bildbereiche zu maskieren, bzw. auszublenden. Dadurch wird der Fokus des Systems auf den Bereich gelegt, der relevant für ANPR ist.
Dieses Feature ermöglicht es Ihnen, mit Hardwaregeräten wie Verkehrssteuerung über Relais (potentialfreie Kontakte) zu kommunizieren. Folgende Anwendungsfälle können so abgedeckt werden:
"Smart Prio System": Priorisierung bestimmter Verkehrsklassen und Gewährleistung eines flüssigen Verkehrsverhaltens in Echtzeit (z.B. Fußgänger:innen, Radfahrende, E-Scooter, Schwerverkehr)
Vereinfachung der Infrastrukturwartung: Ersetzen Sie mehrere Induktionsschleifen durch eine einzige Swarm Perception Box. Die Installation erfordert keinerlei Grabungsarbeiten und reduziert den Wartungsaufwand deutlich.
Die Konfiguration kann zentral im Swarm Control Center durchgeführt werden. Nachfolgend sehen Sie, wie die standardmäßige Verkehrszählung für optimale Ergebnisse konfiguriert werden muss.
Bevor Sie mit Ihrer Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre Kamera- und Datenkonfiguration bereits vorgenommen haben.
Anforderungen:
unterstütze Hardware: Quido 4/4, Quido 8/8, Quido 2/16
Unterstützte Eventtypen: Region of Interest (ROI) in Kombination mit Regeln
Alles was Sie brauchen, um loszulegen: Definieren Sie eine Region of Interest, definieren Sie eine entsprechende Regel und wählen Sie den Relaisausgang, der ausgelöst werden soll. Aktivieren Sie zunächst IO-device, geben Sie den verwendeten Quido-Gerätetyp und den Endpunkt (IP oder Hostnamen) an.
Definieren Sie mindestens eine Region of Interest samt definierter Regel. Solange die Regel gültig ist, wird der zugehörige Quido-Relaisausang aktiviert (Kontakt geschlossen). Es können eine oder mehrere Regeln für dieselbe RoI erstellt werden.
Sie können Ihre Daten über Data Analytics in verschiedenen Widgets visualisieren.
Im Abschnitt Verkehrsszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Weitere, umfangreiche Anwendungsfälle für Verkehrsszenarien. In diesem Abschnitt finden Sie die folgenden Artikel:
Wie Sie erfolgreich ein schrankenloses Parkplatzszenario kombiniert mit ANPR einrichten.
Wenn Sie über einen Parkplatz verfügen, für den Sie Auslastung sowie Parkdauer Ihrer Kundinnen und Kunden analysieren möchten, können Sie unsere Lösung wie folgt verwenden:
Für diesen Anwendungsfall stellt Ihnen unsere Software sämtliche relevante Informationen für Ihre Zählung basierend auf Ein- und Ausfahrten zur Verfügung. Sie erfasst die Anzahl der Fahrzeuge auf Ihrem Parkplatz sowie die Anzahl der Fahrzeuge, die Ihren Parkplatz befahren sowie verlassen. Das Ganze kann für benutzerdefinierte Zeiträume konfiguriert werden.
Die Fahrzeuge werden basierend auf unseren definierten Klassen erkannt. Beachten Sie bitte, dass die folgende Konfiguration für die Erkennung von Fahrzeugen und nicht für Personen sowie Fahrräder optimiert ist.
Dank der Kennzeichenerkennung (ANPR) werden die Parkzeiten Ihrer Kundinnen und Kunden genau analysiert. Zusätzlich zu den Kennzeichendaten steht auch das Herkunftsland des Kennzeichens als Metainformation zur Verfügung. Die Ländercodes entsprechen dem ISO 3166 Alpha 2-Standard. Die Länderklassifizierung arbeitet mit einer ausgezeichneten Genauigkeit von 99%.
Nachfolgend finden Sie einige allgemeine Einstellungen für die Installation dieses Anwendungsfalls. Da die automatische Nummernschilderkennung weitere detaillierte Informationen erfordert, finden Sie zusätzliche Informationen zur Einrichtungen im dazu eigens angelegten Abschnitt:
Die Konfiguration kann zentral im Swarm Control Center durchgeführt werden. Nachfolgend sehen Sie, wie die optimale Konfiguration für die Zählung der Ein- und Ausfahrten mit Kennzeichenerkennung eingestellt werden sollte:
Bevor Sie mit der Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre Kamera- und Datenkonfiguration bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|---|
Um die Auslastung Ihres Parkplatzes einschließlich der Parkdauer Ihrer Kund:innen zu erfassen, muss für jede Ein- und Ausfahrt eine Counting Line (CL) konfiguriert werden. Diese sollte sich etwa am Anfang des letzten Drittels des Videobilds befinden, damit das jeweilige Fahrzeug über mehrere Frames erfasst werden kann und die Kennzeichenerkennung sowie die Klassifizierung am genauesten ist.
Bitte beachten Sie, dass die In/Out-Richtung der Counting Line akkurat sein muss, da sie für die Auslastung des Parkplatzes ausschlaggebend ist (In = Einfahrt zum Parkplatz, Out = Ausfahrt, bzw. Verlassen des Parkplatzes).
Sie können Ihre Daten über Data Analytics in verschiedenen Widgets visualisieren.
Im Abschnitt Parkplatzszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie für Parkplatzanalysen in Ihren Dashboards anlegen und nutzen können.
Sie können die Daten für jede mit Counting Lines konfigurierte Ein-/Ausfahrt visualisieren. Dadurch haben Sie die Möglichkeit, sich die Anzahl der Fahrzeuge mit ihren main classes sowie sub classes anzeigen zu lassen, die Ihren Parkplatz befahren haben.
Zusätzlich dazu können Sie eine Liste ihrer Kundinnen und Kunden mit den entsprechenden Kennzeichen erstellen, die länger als die vordefinierte Parkdauer geparkt haben. Zum Nachweis können Sie auch ein Bild des ein- und ausfahrenden Fahrzeugs sehen. Bitte beachten Sie an dieser Stelle, dass Sie diese Konfiguration in Einklang mit datenschutzrechtlichen Bestimmungen konfigurieren müssen.
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die API verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Falls Sie einen benutzerdefinierten MQTT-Broker verwenden, können Sie die Rohdaten auch dort abrufen. Wir bieten für diesen Fall eine spezielle Option, um die Erfassung des Kennzeichen zum Ereignisschema hinzuzufügen. Dadurch können Sie der Erfassung innerhalb der gesendeten MQTT-Nachricht abrufen. Das Bild ist in BASE64 codiert. Um diese Option zu aktivieren, kontakten Sie bitte unseren Support.
Die Kennzeichenerkennung wird nicht auf den Swarm Perception Boxen P100 unterstützt. Für diesen Anwendungsfall wird demnach die Swarm Perception Box P401, P101 oder eine VPX-Installation mit NVIDIA-basierter Hardware benötigt.
Erfassen Sie in Echtzeit den Belegungsstatus verschiedener Parkplätze.
Sie haben einen Parkplatz, für den die den Belegungsstatus, bzw. die Auslastung analysieren möchten? Unsere Technologie bietet die perfekte Lösung dafür. Überzeugen Sie sich selbst:
Für diesen Anwendungsfall stellt Ihnen unsere Software sämtliche relevante Informationen für die Einzelplatzerkennung sowie die Mehrplatzerfassung zur Verfügung. Unsere Lösung liefert Ihnen den Belegungsstatus für jeden Ihrer konfigurierten Parkplätze.
Die Einzelplatzerkennung liefert Ihnen Informationen über die Belegung Ihres Parkplatzes sowie Informationen zur Fahrzeugklasse auf Ihrem Parkplatz. Beachten Sie an dieser Stelle allerdings, dass die nachstehende Konfiguration auf die Erkennung von Fahrzeugen optimiert und nicht für die Erkennung von Menschen sowie Fahrräder ausgelegt ist. Zudem hängt die Genauigkeit der Klassifizierung von der Kameraeinrichtung ab, so wird die Klassifizierung bei einer Ansicht von oben weniger genau ausfallen.
Eine gute Kamerapositionierung und das Verständnis des folgenden Abschnitts sind entscheidend für eine genaue Erkennung.
Die größte Herausforderung bei der Planung der Kameraeinrichtung besteht darin, mögliche Verdeckungen durch andere Fahrzeuge zu vermeiden. Wir empfehlen die Verwendung des Objektivrechners von Axis oder eines generischen Objektivrechners sowie das gründliche Testen Ihrer Parkplatzkonfiguration unter den folgenden Bedingungen:
Parken Sie ein Auto auf einem der Parkplätze
Stellen Sie ein größeres Fahrzeug (hoher Lieferwagen, kleiner LKW, etc.) daneben ab
Wenn Sie immer noch mindestens 70% des zuerst geparkten Fahrzeugs erkennen können, ist die Erkennung durch das System gewährleistet
Die Parkplätze müssen vollständig sichtbar sein (innerhalb des Sichtfelds der Kamera). Wir garantieren keine volle Genauigkeit für abgeschnittene Stellplätze.
Vermeiden Sie es, dass Stellplätze von Objekten (Bäume, Pfosten, Flaggen, Wände, andere Fahrzeuge, etc.) verdeckt werden. Vermeiden Sie außerdem Kamerapositionen, bei denen Fahrzeuge (insbesondere hohe Fahrzeuge wie Lieferwagen) andere Fahrzeuge verdecken.
Verdeckungen durch andere parkende Autos treten hauptsächlich auf, wenn die Parkplätze und die Kameraausrichtung in dieselbe Richtung ausgerichtet sind.
Um eine bessere Übersicht für Installationen mit mehr Details zur Kameradistanz und zur Montagehöhe zu erhalten, besuchen Sie bitte folgenden Abschnitt mit Standard-Beispielen:
In der untenstehenden Tabelle finden Sie detaillierte Informationen zu den Anforderungen, Einstellungen sowie Positionierung der Kamera.
Die Konfiguration kann zentral im Swarm Control Center durchgeführt werden. Nachfolgend sehen Sie, wie die optimale Konfiguration durchgeführt werden sollte:
Bevor Sie mit der Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre Kamera- und Datenkonfiguration bereits vorgenommen haben.
In den Vorlagen der verschiedenen Events finden Sie die zwei Optionen Single Space (RoI) und Multi Space (RoI). Diese Eventtypen sind die, die Sie für die Konfiguration benötigen. Verwenden Sie ersteres, wenn Sie einen Parkplatz für ein einzelnes Fahrzeug konfigurieren möchten. Wenn Sie für einen Bereich mehr als ein Fahrzeug erwarten, wählen Sie entsprechend zweite Option: Multi Space (RoI). Der Unterschied zwischen diesen beiden Eventtypen ist die maximale Kapazität, die Sie als Trigger festlegen können.
Platzieren Sie die Region of Interest (RoI) auf dem Parkplatz, den Sie konfigurieren möchten. Ein Fahrzeug ist automatisch in der RoI, wenn sich sein Mittelpunkt in der RoI befindet.
Da der Mittelpunkt des Objekts bestimmt, ob sich dieses in einer Region of Interest befindet oder nicht, achten Sie bitte darauf, die RoI unter Berücksichtigung der Perspektive zu konfigurieren.
Sie können Ihre Daten über Data Analytics in verschiedenen Widgets visualisieren.
Im Abschnitt Parkplatzszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Sie können die Daten für jeden Einzelstellplatz oder Mehrplatzparkplätze, den Sie mit den Region of Interests konfiguriert haben, problemlos visualisieren. Unsere Widgets informieren Sie über Belegungsstatus, Anzahl der Fahrzeuge pro RoI, etc. für einen oder mehrere Kamerastreams. Sie haben die Möglichkeit, Ihre Daten in verschiedenen Widgets anzeigen zu lassen, beispielsweise für die aktuelle und historische Parkplatzauslastung.
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die API verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
In diesem Abschnitt erläutern wir, wie die Erkennung und der Abgleich der Journey Times aus technischer Sicht funktionieren.
Um Fahrten von Fahrzeugen zu erkennen, muss dasselbe Fahrzeug an mehreren vordefinierten Orten erkannt werden. Das bedeutet, dass es einen speziellen Identifikator geben muss, um zu erfassen, ob es sich wirklich um dasselbe Fahrzeug handelt und nicht verschiedene.
Bei Fahrzeugen ist der eindeutige Identifikator natürlich das Nummernschild. Daher wird dieses für den Abgleich von Fahrzeugen an verschiedenen Standorten verwendet. Da Nummernschilder als personenbezogene Daten gelten, wird eine angewendet, um die personenbezogenen Daten zu pseudo-anonymisieren.
Auf Grundlage unseres Standardanwendungsfalls für die Verkehrszählung wird das Objekt (Fahrzeug) zunächst erkannt und klassifiziert. Wenn das Journey-Time-Feature aktiviert ist, führt der Algorithmus eine Kennzeichenerkennung sowie -lesung für jedes detektierte Fahrzeug durch. Der Raw String des Kennzeichens, also die unbearbeitete Zeichenabfolge, wird dann mit einem sogenannten Hashing-Mechanismus pseudonymisiert, und der pseudonymisierte Zufallstext wird im Rahmen eines Events, welches durch das Überfahren einer Counting Line getriggert wird, über das verschlüsselte Netzwerk gesendet.
Im folgenden Abschnitt werden die einzelnen Schritte näher beschrieben.
In jedem Videoframe werden Fahrzeuge erkannt und als Pkw, Lkw oder Bus klassifziert. Außerdem wird das Fahrzeug über die einzelnen Frames hinweg getrackt.
Für jedes klassifizierte Fahrzeug wird nun das Nummernschild erkannt und dem Objekt entsprechend zugeordnet.
Nun wird für jedes erkannte Kennzeichen eine optische Zeichenerkennung (OCR) angewendet, um das Nummernschild zu lesen. Der Output ist ein Text, der die Raw Strings, also die Rohzeichenfolge, des Kennzeichens enthält.
Um die Nummernschilder erfolgreich zu pseudonymisieren, erzeugt ein sogenannter Salt Shaker zufällige Salts im Backend (Cloud) und verteilt diese an die Edge-Geräte. Ein Salt ist ein Zufallswert, der als Eingabe für das Hashing von Daten verwendet wird, z.B. von Passwörtern oder in unserem Fall eben von Nummernschildern. Dieser Zufallswert wird nicht im Backend gespeichert. Lediglich im Edge-Gerät, also etwa in der Perception Box, werden die Salts kurzzeitig zwischengespeichert.
Um die Sicherheit vor potentiellen Angriffen zu gewährleisten und zu erhöhen, hat ein Salt ein Gültigkeitsfenster von zwölf Stunden. Nach Ablauf dieser wird ein neues, zufällig generierter Salt verwendet. Die folgende Grafik zeigt ein Beispiel für die Hashing-Funktion, die für die Kennzeichen verwendet wird:
Die vier Salts werden vom Salt Shaker erzeugt und an jedes Edge-Gerät verteilt. Um immer alle Fahrten zu erfassen, wird jedes Kennzeichen mit zwei Salts gehasht. Grund dafür ist die Annahme, dass eine Fahrt potentiell länger dauern kann als die Gültigkeitsdauer eines Salts. Weitere Informationen dazu folgen im nächsten Abschnitt.
Wenn das Fahrzeug eine Counting Line überfährt, wird ein entsprechend Event mit den Hashes der erkannten Nummernschilder über MQTT an die Cloud (Microsoft Azure) gesendet und in einer strukturierten Datenbank gespeichert.
In der Cloud wird die Datenbank regelmäßig auf mögliche Übereinstimmungen innerhalb des Hashes überprüft. Wie bereits erläutert, werden pro erkanntem Fahrzeug zwei Hashes erstellt. Wenn einer der beiden bei zwei verschiedenen Erkennungen identisch ist, wird er als eine Fahrt mit den entsprechenden Fahrtzeitinformationen, der Fahrzeugklasse, den Namen des Edge-Geräts und den GPS-Koordinaten des Edge-Geräts gespeichert.
Falls derselbe Hash an mehreren Orten gefunden wird, wird eine sogenannte Multi-Hop-Fahrt basierend auf der Sortierung der Zeitstempel gespeichert (z.B. Fahrt von Ort A nach B nach C).
Nach zwölf Stunden, also der Gültigkeitsdauer des zur Pseudonymisierung des Kennzeichens verwendeten Salts, wird das pseudonymisierte Kennzeichen gelöscht. Durch diesen Vorgang werden die pseudonymisierten Daten entsprechend anonymisiert. Zusammengefasst bedeutet dies, dass nach zwölf Stunden nach der Erkennung des Fahrzeugs und des Kennzeichen sämtliche Daten anonymisiert sind.
Hier finden Sie Informationen zu Datengenerierung, Kameraeinstellungen und Analyseoption, sodass Sie mithilfe unserer Lösung Details über Warteschlangen und Verkehrsstaus erhalten.
Neben der Verkehrsfrequenz an bestimmten Orten fragen Sie sich, wie lange eine Warteschlange von Fahrzeugen ist, wenn ein Verkehrsstau besteht? Mithilfe unserer Software erhalten Sie entsprechende Einblicke dazu: In Kombination mit der Geschwindigkeit des erkannten Fahrzeugs können Informationen zu möglichen Verkehrsstaus ausgespielt werden.
Für diesen Anwendungsfall liefert Ihnen unsere Software die wichtigsten Erkenntnisse über den Straßenverkehr. Zum einen können Fahrzeugzählungen einschließlich der Fahrzeugklassifizierung vorgenommen werden. Darüber hinaus bietet unsere Technologie durch entsprechende Konfigurationsoptionen die Schätzung der Geschwindigkeit oder auch Informationen über mögliche Verkehrsüberlastungen.
Bei der Analyse der Verkehrsfrequenz können Daten zu sämtlichen Fahrzeugklassen generiert werden. Je nach Kamerakonfiguration können Fahrzeuge bei einer Entfernung von bis zu 70 Metern detektiert werden.
In der untenstehenden Tabelle finden Sie detaillierte Informationen zu den Anforderungen, Einstellungen sowie Positionierung der Kamera.
Einstellung | Empfohlen |
---|
*Je größer der Abstand der Objekte zur Kamera und je höher die Brennweite, desto größer fällt die Dead Zone aus. Um die erforderlichen PPM für die Erkennung von Objekten zu erreichen, beachten Sie bitte die nachfolgenden Abbildung und Tabelle.
Um die Zähldaten einschließlich der Geschwindigkeiten sowie die Belegungen der Regions of Interest zu erhalten, müssen sowohl eine Counting Line als auch mehrere Regions of Interest als Event-Trigger konfiguriert werden. Je nach Anwendungsfall und Objektabstand empfehlen wir eine Kombination mehrerer Trigger.
Um genaue Informationen darüber zu erhalten, wie schnell Fahrzeuge fahren und wie viele Objekte sich in einem definierten Bereich befinden, müssen Counting Lines mit Speed Estimation und generischen Regions of Interest über das Swarm Control Center konfiguriert werden.
Sie können die Fahrtrichtung, bzw. In/Out nach Belieben wählen, um die Daten so je nach Bedarf abzurufen. Zudem können Sie dieser Richtung einen benutzerdefinierten Namen zuweisen.
Im Abschnitt Verkehrsszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
In diesem Abschnitt erfahren Sie wie Sie unsere Software einrichten, um eine Personenzählung basierend auf Eingang sowie Ausgang durchzuführen.
Nachfolgend erläutern wir, wie unsere Software dafür genutzt werden kann, um die Anzahl von Menschen zu erfassen, die einen zuvor definierten Bereich über eine sogenannte Virtual Door betreten oder verlassen.
Unsere Software liefert Ihnen für diesen Anwendungsfall Informationen darüber, wie viele Personen aufgeteilt nach Richtung (In/Out) einen bestimmten Bereich betreten oder verlassen. Darüber hinaus können mehrere Zählungen mit einer Kamera durchgeführt werden, z.B. separate Zählungen für jede Tür.
Die Konfiguration kann zentral im durchgeführt werden. Nachfolgend sehen Sie, wie die standardmäßige Personenzählung für optimale Ergebnisse konfiguriert werden muss.
Bevor Sie mit Ihrer Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|
Für eine optimale Genauigkeit der Virtual Door, sollte diese etwa in der Mitte des Videoframes und nicht zu nah an der Kamera platziert werden, damit Personen frühzeitig erkannt werden.
Die Richtung in Form von In/Out kann nicht angepasst werden. Wenn eine Person außerhalb der Virtual Door erkannt wird und und dann darin verschwindet, wird dies automatisch als Richtung In gewertet.
Im folgenden Abschnitt finden Sie weitere Details zu den möglichen Metriken, die Sie zur Erstellung Ihres Dashboards zur Personenzählung benötigen könnten.
Da die Personenzählung auf der Konfigurationsoption Virtual Door basiert, müssen die Metriken VD Count oder VD In/Out Difference ausgewählt werden. Sie haben dann verschiedene Optionen, um die gewünschten Daten für einen bestimmten Zeitraum auszuwählen und das Ausgabeformat festzulegen (z.B. Balkendiagramm, Anzahl, Tabelle, usw.)
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Nachfolgend finden Sie detaillierte Informationen zu unserer Lösung für die Fahrzeit- und Verkehrsflussanalyse in Bezug auf Datenerzeugung, Konfiguration und verschiedenen Analysemöglichkeiten.
Neben der Verkehrsfrequenz an bestimmten Standorten interessieren Sie sich auch für Statistiken darüber, wie lange Fahrzeuge von einem Ort zum anderen brauchen und wie der Verkehr in Ihrer Stadt und Gemeinde fließt? Diese Daten können Sie problemlos mit unserer Sensorik lösen. Überzeugen Sie sich selbst:
Für diesen Anwendungsfall liefert Ihnen unsere Software die entsprechenden Erkenntnisse zum Straßenverkehr, zunächst die Zählung von Fahrzeugen einschließlich ihrer Klassifizierung.
Darüber hinaus haben Sie dank unserer einfachen Konfiguration verschiedene Möglichkeiten, Ihre Analyse zu erweitern: Neben der , kann durch das Kombinieren mehrerer Sensoren an verschiedenen Standorten ebenfalls die Fahrzeit (Journey Time) sowie die statistische Verteilung des Verkehrsflusses (Traffic Flow Distribution) erfasst werden.
Für die Verkehrsfrequenz erfolgt die Klassifizierung nach unseren , Journey Time sowie Traffic Flow Distribution erfolgen lediglich in den Fahrzeugklassen (car, bus und truck).
The configuration of the solution can be managed centrally in . Below, you can see how the standard is configured for optimal results.
Die Konfiguration kann zentral im durchgeführt werden. Nachfolgend sehen Sie, wie standardmäßig für optimale Ergebnisse konfiguriert werden muss.
Bevor Sie mit Ihrer Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|
Um die beste Genauigkeit zu erzielen, empfehlen wir dringend, eine Focus Area auf den maximal zwei Fahrspuren zu konfigurieren, die für den Anwendungsfall abgedeckt werden sollten.
Stellen Sie sicher, dass die Focus Areas so platziert werden, dass sie vor dem Auslösen eines Events genügend Raum abdecken, damit das Modell die Objekte ähnlich lange "sehen" kann, wie wenn der Focus Area nicht vorhanden wäre.
Das Modell ignoriert alle Objekte außerhalb der Focus Area, so dass keine Erkennung, keine Klassifizierung, kein Tracking und keine ANPR-Lesung durchgeführt wird. Stellen Sie sich die Areas als umgekehrte Privatzonen vor - das Modell "sieht" nur Objekte innerhalb eines Bereichs, der Rest des Bildes ist schwarz.
Um sowohl die Zähldaten als auch die Fahrzeitdaten zu erhalten, muss eine Counting Line als Event-Trigger konfiguriert werden.
Um die beste Genauigkeit der Zählung einschließlich der Fahrzeitinformationen zu erhalten, sollte die Counting Line an einem Punkt platziert werden, an dem das Fahrzeug und das Kennzeichen in ca. 10 m Entfernung zu sehen sind. Achten Sie außerdem darauf, die CL an einer Stelle zu konfigurieren, an der die Spurenkalibrierung noch stabile Spuren zeigt.
Sie können die Richtung IN/OUT frei wählen, um die Daten entsprechend nach Bedarf abzurufen, bzw. zu sammeln. Zudem haben Sie die Möglichkeit, eine eigene Bezeichnung für die IN- und OUT-Richtung zu vergeben:
Im Abschnitt Verkehrsszenarien finden Sie weitere Details zu den möglichen Widgets, die Sie dafür in Ihren Dashboards anlegen und nutzen können:
Hier sehen Sie ein Beispiel für ein Journey-Time-Widget. Die Journey Time kann als Durchschnitt, Median oder bis zu zwei verschiedene Perzentile angezeigt werden.
Nachfolgend ein weiteres Beispiel, das die Verteilung visualisiert. Es gibt einen Schieberegler, um durch die verschiedenen Zeiträume der gewählten Aggregationsebene zu gehen. Oben können die Zahlen ganz leicht zwischen absoluten und relativen Werten gewechselt werden.
Wenn Sie Ihre Daten für weitere Analysen lokal benötigen, haben Sie die Möglichkeit, die Daten pro Widget als CSV-Datei zu exportieren und beispielsweise in Excel weiter zu verarbeiten.
Wenn wir hier von Genauigkeit sprechen, meinen wir den Erfassungsgrad eines einzelnen Sensors, der den Prozentsatz der korrekt erkannten Kennzeichen im Verhältnis zur Gesamtzahl der während einer Ground-Truth-Zählung erfassten Fahrzeuge darstellt.
Der aktuelle Erfassungsgrad für diesen Anwendungsfall beträgt 60%, unter Berücksichtigung unterschiedlicher Tages-/Nachtzeiten, Wetterbedingungen und Verkehrssituationen. Bei der Berechnung der Fahrzeit zwischen zwei Sensoren werden etwa 36% der Fahrten als Grundlage verwendet, was durch die Multiplikation des Erfassungsgrades beider Sensoren berechnet wird.
Diese Genauigkeit ist absolut ausreichend, um Daten zu generieren, die valide Rückschlüsse auf Verkehrsmuster und Fahrzeiten zulassen.
Hier finden Sie einige Beispiele, die zeigen, was in verschiedenen Installationsfällen erkannt werden kann.
Wichtige Begriffe zum besseren Verständnis:
Kamerawinkel (Camera Angle): gemessen von einer horizontalen Linie
Kamerahöhe (Camera Height): Montagehöhe der Kamera
Abstand Kamera zu Punkt in der Bildmitte (Distance Camera to Point in the Image-Center): Dieser Abstand ist durch den Kamerawinkel und die Kamerahöhe automatisch festgelegt. Aber auf eine bessere Einschätzung Ihrer Kamerakonfiguration fügen wir ihn als zusätzlichen Parameter hinzu.
Nachstehend geben wir Standardbeispiele mit den folgenden Annahmen:
Fahrzeugbreite: 2 m
Parkplatzlänge/Fahrzeuglänge: 5 m
Höhe des verdeckenden Fahrzeugs: 2,5 m
Erklärung der Farben:
Grün: Empfohlen, ergibt eine gute Genauigkeit
Gelb: Wird in den meisten Fällen funktionieren, aber Parkplätze können verdeckt sein, wenn die Stellplätze daneben von hohen Fahrzeugen belegt sind.
Orange/Rot: Nicht empfohlen; könnte zwar in einigen Fällen funktionieren, aber es besteht generell eine hohe Wahrscheinlichkeit, dass dieser Parkplatz von einem Fahrzeug auf dem benachbarten Stellplatz verdeckt wird.
Schwarz: nicht empfohlen!
Eine größere Entfernung zwischen Kamera und Fahrzeug hilft dabei, insgesamt mehr Fahrzeuge erfassen zu können.
Eine größere Montagehöhe hilft, sollten sich Verkehr oder andere mögliche Verdeckungen vor der Parkplatzreihe befinden.
Bei zwei oder mehr parallelen Parkplatzreihen ist die Montagehöhe entscheidend, um Verdeckungen zu reduzieren - es gilt: je höher die Montagehöhe, desto besser.
Der Abstand von der Kamera zum Fahrzeug hat negative Auswirkungen auf Verdeckungen. Es muss also die richtige Kombination aus Abstand und Höhe gefunden werden.
Eine Hilfestellung für das Setup für Journey Time
Journey Time ist hier als Fahrtzeit definiert, die zwischen der Sichtung desselben Fahrzeugs über zwei oder mehrere Kamerastreams vergeht. Die Identifizierung der Fahrzeuge basiert auf den Kennzeichen. Bitte beachten Sie zu diesem Thema unsere ausführliche Anleitung zur für eine allgemeine Übersicht.
Dieser Anleitung konzentriert sich auf spezifische Details, die bei der Erfassung von Fahrtzeiten und der Analyse des Verkehrsflusses auf öffentlichen Straßen zu beachten sind. Dabei liegt der Fokus auf der Platzierung der Kameras, den Kameraeinstellungen selbst sowie auf der Konfiguration der Event-Trigger.
Bitte beachten Sie an dieser Stelle, dass die Kameraeinstellungen entsprechend dem Installationsort angepasst werden müssen, da die Lichtverhältnisse variieren können.
Eine möglichst perfekte Platzierung der Kamera ist entscheidend, um ein klares Bild und damit lesbare Kennzeichen zu erhalten. Während einige Parameter wie etwa der Abstand von der Kamera zum Kennzeichen nach der Installation noch feinjustiert werden können, können die Montagehöhe und der Winkel zwischen Kamera und Fahrtrichtung der Fahrzeuge nur durch eine physische und meist kostspielige Neuanordnung angepasst werden. Die Kameraposition muss so gewählt werden, dass vorbeifahrende Fahrzeuge vollständig sichtbar sind und in mehreren Frames des Kamerastreams erfasst werden können, wobei die Nummernschilder groß genug sein müssen, damit das ANPR-System jedes einzelne Zeichen erkennen kann.
Wir empfehlen Montagehöhen zwischen drei und acht Metern. Daher liegt der geeignete minimale Erfassungsabstand zwischen fünf und 14 Metern. Neben der vertikalen Winkelbeschränkung sollten die Kennzeichen mit mindestens 250 Pixel Per Meter (PPM) sichtbar sein. Diese Einschränkung bestimmt gleichzeitig die erforderliche minimale Brennweite (Zoom), auf die die Kamera eingestellt werden muss.
Montagehöhe (m) | Minimaler Abstand (m) | Maximaler Abstand (m) | Bereich der Brennweite (mm) |
---|
Die Untergrenze von drei Metern wird durch eher praktische Gründe und nicht durch technische Einschränkungen bestimmt. Kameras, die niedriger als drei Meter montiert sind, sind häufig anfällig für Vandalismus. Außerdem können Scheinwerfer von vorbeifahrenden Fahrzeugen zu Reflexionen führen. Die Obergrenze von acht Metern ergibt sich aus dem resultierenden minimalen Erfassungsabstand von mindestens 14 Metern für die erforderliche Auflösung von 1920 x 1080 Pixel. Kennzeichen müssen mit 250 Pixel Per Meter (PPM) sichtbar sein.
Da die Swarm Perception Box und die Kameras hauptsächlich an bereits bestehender Infrastruktur wie beispielsweise Ampelmasten montiert werden, gibt es zwei Möglichkeiten, die Kameras zu montieren: eine seitliche Montage oder eine Überkopfmontage.
Bei der Positionierung der Kamera über den Fahrzeugen können mit einem Sensor gleich zwei Fahrspuren abgedeckt werden.
Beachten Sie Montagehöhe (1) und Erfassungsabstand (2), die den vertikalen Winkel (3) zwischen der Kamera und der Fahrtrichtung des Fahrzeugs bestimmen. Der Abstand zwischen der Spurmitte (4) und der Kamera bestimmt hingegen den horizontalen Winkel (5) zwischen der Kamera und der Fahrtrichtung des Fahrzeugs.
Bei der seitlichen Montage der Kamera an der Straße können zwei Fahrspuren abgedeckt werden, vorausgesetzt der horizontale Winkel zwischen der Kamera und der Fahrtrichtung der Fahrzeuge überschreitet nicht 20°.
Positionieren Sie die Kamera demnach so nah wie möglich am Straßenrand, um einen zu großen horizontalen Winkel zu vermeiden. Größere Winkel können die Genauigkeit insofern beeinträchtigen, als dass Teile des Kennzeichens unleserlich werden. Siehe nachfolgende Illustration: Während die Fahrtrichtungen (1) und (2) für beide Fahrzeuge gleich sind, ist der eine horizontale Winkel (3) deutlich größer als der andere (4).
Während es tagsüber bei guten Lichtverhältnissen relativ simpel ist, scharfe Bilder zu erhalten, ist es bei schwacher Beleuchtung und Dunkelheit wesentlich schwieriger, eine gute Erkennung der Kennzeichen von fahrenden Fahrzeugen zu erreichen. Der folgende Abschnitt dieser Anleitung gibt daher einen Überblick über die Feinjustierung Ihrer Kamera, um auch unter solch schwierigen Bedingungen die bestmöglichen Ergebnisse zu erzielen.
Die Einstellung der folgenden Parameter hängt stark von der jeweiligen Montageposition der Kamera und ihrer Umgebung ab. Eine Lichtquelle wie eine Straßenlaterne oder ein Fahrzeug, das auf einer anderen Fahrspur vorbeifährt, kann es zu einem unerwünschten Lichteinfall kommen, der das Bild entsprechend negativ beeinflusst. Aus diesem Grund bietet dieser Leitfaden zwar einen allgemeinen Überblick über relevante Einstellungen und deren Auswirkungen auf die Bildqualität, kann aber nicht sämtliche Szenarien und externe Faktoren berücksichtigen.
Wir empfehlen, den automatischen Tag-/Nacht-Umschaltmodus der Kamera zu verwenden. Wie sie auf den nachfolgenden Beispielbildern sehen können, ist es absolut entscheidend, dass die Kamera zuverlässig in den Nachtmodus wechselt.
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den oder einen .
Kameramontage - horizontaler Winkel zum Objekt
Einstellung | Empfohlen |
---|---|
Hersteller | Modell | Notiz |
---|---|---|
Konfiguration | Einstellungen |
---|---|
Einstellung | Empfohlen |
---|---|
Konfiguration | Einstellungen |
---|---|
Wenn der Abstand von der Kamera zum Objekt, bzw. zum Parkplatz, sehr groß ist, ist die Perspektive ausschlaggebend und die RoI muss dementsprechend an die Perspektive angepasst werden. Um die Kalibrierung bestmöglich zu unterstützen, können Sie den Kalibrierungsmodus nutzen, der oben rechts im Konfigurationsscreen aktiviert werden kann: Sie sehen dann die Detektionsfelder und Mittelpunkte der Fahrzeuge, die sich gerade im Kamerabild befinden, so lässt sich die RoI leichter konfigurieren.
Entfernung zum Objekt | Brennweite | Dead Zone |
---|
Hersteller | Modell |
---|
Die Konfiguration kann zentral im durchgeführt werden. Nachfolgend sehen Sie, wie die optimale Konfiguration eingestellt werden sollte:
Bevor Sie mit der Konfiguration beginnen, stellen Sie bitte sicher, dass Sie Ihre bereits vorgenommen haben.
Konfiguration | Einstellungen |
---|
Sie können Ihre Daten über in verschiedenen Widgets visualisieren.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Sie können Ihre Daten über in verschiedenen Widgets visualisieren. Um die Personenzählung basierend auf Eingangs- und Ausgangszählungen durchzuführen, bieten wir ein generisches Szenario an, das eine Vielzahl von Metriken zur Analyse Ihrer Rohdaten bereitstellt.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Sie können Ihre Daten über in verschiedenen Widgets visualisieren.
Wenn Sie die Daten in Ihre IT-Umgebung integrieren möchten, können Sie die verwenden. In Data Analytics im Control Center finden Sie eine Beschreibung des Anforderungstyps, um die Daten jedes Widgets abzurufen.
Objektgeschwindigkeit
<50 km/h
Tag/Nacht/Beleuchtung
Tagsüber/Gut beleuchtet/Nachtsicht
Innen-/Außenanwendung
Außen
Erwartete Genauigkeit (von Origin zu Destination, wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind)
Origin-Destination-Zählungen und Klassifizierung main classes: >85% (für Fahrzeuge) Klassifizierung main classes: >95% Klassifizierung sub classes: >85%
Unterstützte Produkte
VPX, P401, P101/OP101, P100/OP100
Frames Per Second (fps)
25
Objektgeschwindigkeit
< 130 km/h
Tag/Nacht/Beleuchtung
Tagsüber/Gut beleuchtet/Nachtsicht
Innen-/Außenanwendung
Außen
Erwartete Genauigkeit
(Zählung + Klassifizierung, wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind)
Zählung >95% (Fahrzeuge, Fahrräder) Klassifizierung der main classes: >95% Klassifizierung der sub classes: >85%
Unterstütze Produkte
VPX, P401, P101/OP101, P100/OP100
Frames Per Second (fps)
25
Objektgeschwindigkeit
<30 km/h
Tag/Nacht/Beleuchtung
Tagsüber/Gut beleuchtet
Innen-/Außenanwendung
beides
Erwartete Genauigkeit (Zählungen, wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind)
>95% Für diese Genauigkeit werden lediglich Fahrzeuge berücksichtigt. Bei Parkplätzen werden Menschen sowie Zweiräder nicht in unsere Test-Szenarien einbezogen, da sie keine Parkplätze (für Fahrzeuge) belegen.
Supported Products
VPX, P401, P101/OP101, P100/OP100
Frames Per Second (fps)
12
HikVision
Bullet Camera
2,8 mm - 12 mm variable Brennweite
Modell
Konfigurationsoption
Region of Interest mit Rule
ANPR
Deaktiviert
Enable or disable raw tracks
Deaktiviert
Objektgeschwindigkeit
< 40 km/h
Tag/Nacht/Beleuchtung
Tagsüber/Gut beleuchtet/Nachtsicht
Innen-/Außenanwendung
Außenanwendung
Erwartete Genauigkeit
(Detektion + Klassifizierung, wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind)
Detektion > 95% Klassifizierung der main classes: > 95% Klassifizierung der sub classes: > 85%
Unterstütze Produkte
VPX, P401, P101
Frames Per Second (fps)
12
Model
Konfigurationsoption
Single Space (RoI) oder Multi Space (RoI)
Enable or disable raw tracks
Deaktiviert
Objektgeschwindigkeit
0 km/h
Tag/Nacht/Beleuchtung
Tagsüber
Nachts (Sofern die Umgebung gut ausgeleuchtet oder Night-Vision-Modus aktiviert ist)
Innen-/Außenanwendung
beides
Erwartete Genauigkeit
(wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind)
> 95% Ohne Berücksichtigung der Klassifizierung
Unterstütze Produkte
VPX, P401, P101/OP101, P100/OP100
Frames Per Second (fps)
5
30 m | 2,8 mm | 2,8 mm |
50 m | 5 mm | 5 m |
70 m | 7 mm | > 8 m |
Objektgeschwindigkeit | < 130 km/h |
Tag/Nacht/Beleuchtung | Tagsüber/Gut beleuchtet/Nachtsicht |
Innen-/Außenanwendung | Außen |
Erwartete Genauigkeit (Zählung und Klassifizierung, wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind) | Zählung >95% (Fahrzeuge, Fahrräder) Klassifizierung der main classes: >95% Klassifizierung der sub classes: >85% |
Unterstütze Produkte | VPX, P401, P101/OP101, P100/OP100 |
Frames Per Second (fps) | 25 |
Objektgeschwindigkeit | < 10 km/h (Gehgeschwindigkeit) |
Tag/Nacht/Beleuchtung | Tagsüber oder gut beleuchtet |
Innen-/Außenanwendung | beides |
Erwartete Genauigkeit (wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind) | >95% |
Unterstützte Produkte | VPX, P401, P101/OP101, P100/OP100 |
Frames Per Second (fps) | 12 |
Objektgeschwindigkeit | < 80 km/h |
Tag/Nacht/Beleuchtung | Tagsüber/Gut beleuchtet/Nachtsicht |
Innen-/Außenanwendung | Außen |
Supported Products | VPX, P401, P101/OP101 |
Frames Per Second | 25 |
3 | 5 | 19 | 4-12 |
4 | 7 | 18 | 5.4-12 |
5 | 9 | 18 | 6.6-12 |
6 | 10 | 18 | 10-12 |
7 | 12 | 18 | 11-12 |
8 | 14 | 17 | 12 |
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet.
>30 PPM (Objektklassen car, truck)
>60 PPM (Objektklassen person, bicycle, motorbike)
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den Objektivrechner von Axis oder einen generischen Objektivrechner.
Videoauflösung
1280 × 720 Pixel
Videoprotokoll/Codec
RTSP/H264
Brennweite
2.8 mm - 12 mm
Kameramontage - Abstand zum Objektzentrum
Objektklassen car, truck:
5-30 m (2.8 mm Brennweite)
35-100 m (12 mm Brennweite)
Objektklassen person, bicycle, scooter:
3-12 m (2.8 mm Brennweite) 25-50 m (12 mm Brennweite)
Kameramontage - Befestigungshöhe
Bis zu 10 m
Hinweis: Eine höhere Montage kann dabei helfen, die Verdeckung durch große Objekte zu minimieren.
Kameramontage - vertikaler Winkel zum Objekt
<50°
Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden.
0°-45° Hinweis: Ein Winkel von ca. 15° liefert besser Ergebnisse bei der Klassifizierung, da mehr Objektdetails sichtbar sind (z.B. Räder, Achsen, etc.)
Wide Dynamic Range
Kann aktiviert werden.
Europäische Länder
Art des Kennzeichens
"Standard"-Kfz-Kennzeichen (520 x 120/110 mm)
Hinweis: Quadratische zweizeilige Kennzeichen (z.B. für Motorräder) werden nicht unterstützt.
Objektgeschwindigkeit
< 40 km/h bei schlechten Lichtverhältnissen
Fokusbereich
Einspurig, wenn die Kamera seitlich montiert ist; zweispurig bei mittiger (über beiden Fahrspuren) montierter Kamera
Tag/Nacht/Beleuchtung
Tagsüber oder gut beleuchtet (min. 500 Lux)
Innen-/Außenanwendung
beides
Erwartete Genauigkeit (Zählung + Kennzeichenerkennung, wenn alle Umwelt-, Hardware- und Kameraanforderungen erfüllt sind)
>90% Es werden lediglich Fahrzeuge berücksichtigt. Für Parkplatzanalysen sind Menschen, Fahrräder sowie Motorräder nicht Teil unserer Testszenarien, da sie keine Parkplätze belegen.
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet.
>60 PPM
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den Objektivrechner von Axis oder einen generischen Objektivrechner.
Videoauflösung
1280 × 720 Pixel
Videoprotokoll/Codec
RTSP/H264
Brennweite
2.8 mm - 4 mm
Kameramontage - Abstand zum Objektzentrum
5-30 m, Fahrzeuge sollten sich möglichst zentral/mittig im Bild befinden.
Bei einer Entfernung von 5 m zur Kamera können wir eine hohe Genauigkeit für drei Parkplätze garantieren, die orthogonal zur Kamera ausgerichtet sind. Generell gilt: Je weiter die Entfernung zur Kamera, desto größer ist der Überblick über die Parkplätze.
Kameramontage - Befestigungshöhe
Innen: 2,5 - 5 m Außen: 2,5 - 10 m Höher ist besser: Fahrzeuge können geparkte Autos verdecken, daher empfehlen wir möglichst hohe Montagepunkte.
Wide Dynamic Range
Muss aktiviert werden.
Night Vision
Muss aktiviert werden.
HikVision |
Model |
Konfigurationsoption(en) | Counting Line und Region of Interest |
ANPR | Deaktiviert |
Enable or disable raw tracks | Deaktiviert |
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet.
>30 PPM für Objektklassen car, truck
>60 PPM für Objektklassen person, bicycle, motorbike
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den Objektivrechner von Axis oder einen generischen Objektivrechner.
Videoauflösung
1280 × 720 Pixel
Videoprotokoll/Codec
RTSP/H264
Brennweite
2.8 mm - 12 mm
Kameramontage - Abstand zum Objektzentrum
Objektklassen car, truck 5-30 m (2,8 mm Brennweite)
35-100 m (12 mm Brennweite) Objektklassen person, bicycle, scooter 3-12 m (2,8 mm Brennweite) 25-50 m (12 mm Brennweite)
Kameramontage - Befestigungshöhe
Bis zu 10 m
Hinweis: Eine höhere Montage kann dabei helfen, die Verdeckung durch große Objekte zu minimieren.
Kameramontage - vertikaler Winkel zum Objekt
<50°
Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden.
0° - 360°
Infrarotmodus
Kann aktiviert werden
Wide Dynamic Range
Kann aktiviert werden
HikVision
Bullet Camera
2,8 mm feste Brennweite
HikVision
Bullet Camera
2,8 mm - 12 mm variable Brennweite
Model
Konfigurationsoption
Origin Destination Zone
ANPR
Deaktiviert
Enable or disable raw tracks
Deaktiviert
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet.
>30 PPM (Objektklassen car, truck)
>60 PPM (Objektklassen person, bicycle, motorbike)
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den Objektivrechner von Axis oder einen generischen Objektivrechner.
Videoauflösung
1280 × 720 Pixel
Videoprotokoll/Codec
RTSP/H264
Brennweite
2.8 mm - 12 mm
Kameramontage - Abstand zum Objektzentrum
Objektklassen car, truck:
5-30 m (2.8 mm Brennweite)
35-100 m (12 mm Brennweite)
Objektklassen person, bicycle, scooter:
3-12 m (2.8 mm Brennweite) 25-50 m (12 mm Brennweite)
Kameramontage - Befestigungshöhe
Bis zu 10 m
Hinweis: Eine höhere Montage kann dabei helfen, die Verdeckung durch große Objekte zu minimieren.
Kameramontage - vertikaler Winkel zum Objekt
<50°
Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden.
0° - 90° Hinweis: Ein Winkel von ca. 15° liefert besser Ergebnisse bei der Klassifizierung, da mehr Objektdetails sichtbar sind (z.B. Räder, Achsen, etc.)
Wide Dynamic Range
Kann aktiviert werden.
HikVision
Bullet Camera
2,8 mm feste Brennweite
HikVision
Bullet Camera
2,8 mm - 12 mm variable Brennweite
Model
Konfigurationsoption
Counting Line (optional speed)
ANPR
Deaktiviert
Enable or disable raw tracks
Deaktiviert
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet.
>60 PPM
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den Objektivrechner von Axis oder einen generischen Objektivrechner.
Videoauflösung
1280 × 720 Pixel
Videoprotokoll/Codec
RTSP/H264
USB 3.0/UYVY, YUY2, YVYU
Brennweite
2.8 mm
Kameramontage - Abstand zum Objektzentrum
5-20 m
Kameramontage - Befestigungshöhe
3-6 m
Kameramontage - vertikaler Winkel zum Objekt
<50°
Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden.
0° - 90°
Wide Dynamic Range
Muss aktiviert sein.
HikVision
2,8 mm Brennweite
Model
Konfigurationsoption
Counting Line (CL)
Events for repeated CL crossings
Aktiviert
ANPR
Deaktiviert
Enable or disable raw tracks
Deaktiviert
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet.
>250 PPM
Um ein Kennzeichen klar erkennen zu können, werden mindestens 250 PPM benötigt. Durch Verwendung der unten definierten Kameraparameter wird sichergestellt, dass der minimale erforderliche PPM-Wert erreicht wird.
Tipp: Verwenden Sie den Objektivrechner von Axis oder einen generischen Objektivrechner.
Videoauflösung
min. 1920 × 1080 Pixel (H264)
Brennweite
min 3.6-8 mm (eine motorisch verstellbare, Brennweite wird empfohlen)
Montage
Abstand und Höhe der Installation
Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Kennzeichen erreicht werden. Horizontaler Winkel zum Kennzeichen
Belichtung/Verschlusszeit
max. 1/250 für Objekte, die sich nicht schneller als 40 km/h bewegen.
Hikvision
Bullet-Kamera
Motorisches Gleitsichtobjektiv
Model
Konfigurationsoption
Counting Line (CL)
ANPR
Aktiviert
Enable or disable raw tracks
Deaktiviert
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet. | > 60 PPM |
Videoauflösung | 1280 × 720 Pixel |
Videoprotokoll/Codec | RTSP/H264 |
Brennweite | mindestens 2,8 mm Variofokal-Objektiv* |
Kameramontage - Abstand zum Objektzentrum | 5–70 m* |
Kameramontage - Befestigungshöhe | 3–8 m |
Kameramontage - vertikaler Winkel zum Objekt | <50° Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden. |
0° - 90° |
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet. | >80 PPM |
Videoauflösung | 1280 × 720 Pixel |
Videoprotokoll/Codec | RTSP/H264 |
USB 3.0/UYVY, YUY2, YVYU |
Brennweite | 2,8 mm |
Kameramontage - Abstand zum Objektzentrum | 2-8 m |
Kameramontage - Befestigungshöhe | 2-4 m |
Kameramontage - vertikaler Winkel zum Objekt | <45° Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden. |
0° - 360° |
Kamera: Frames Per Second (fps) | > 25 |
Wide Dynamic Range | Sollte aktiviert werden. |
HikVision | 2,8 mm Brennweite |
Model | People Full Body (wenn Distanz zur Virtual Door > 5 m) People Head (wenn Distanz zur Virtual Door < 5 m) |
Konfigurationsoption | Virtual Door (VD) |
ANPR | Deaktiviert |
Heatmap | Deaktiviert |
Pixels Per Meter ist eine Maßeinheit, die verwendet wird, um die Menge an potenziellem Bilddetail zu definieren, die eine Kamera bei einer bestimmten Entfernung bietet. | 250 PPM (Fahrzeug) |
Videoauflösung | 1920 x 1080 Pixel |
Videoprotokoll/Codec | RTSP/H264 |
USB 3.0/UYVY, YUY2, YVYU |
Brennweite | min. 3,612 mm; motorisch verstellbare Brennweite |
Kameramontage - Abstand zum Objektzentrum |
Kameramontage - Befestigungshöhe |
Kameramontage - vertikaler Winkel zum Objekt | <40° |
0° - 20° |
Dahua |
HikVision |
Modell |
Konfigurationsoption | Counting Line |
Journey Time | Wählen Sie unter Global Settings den Modus Journeytime |
Enable or disable raw tracks | Disabled |
Eine Übersicht zur Gerätekonfiguration im Swarm Control Center.
Unter dem Menüpunkt der Gerätekonfiguration (Device Configuration) im Swarm Control Center können Sie alle Ihre Swarm Perception Boxen zentral verwalten und die Kameras so konfigurieren, dass diese die Daten gemäß Ihrer Anforderungen für Ihre Anwendungsfälle generieren.
Nachfolgend finden Sie eine Beschreibung der verschiedenen Teile der Gerätekonfiguration:
Nummer | Beschreibung |
---|---|
Hier finden Sie Informationen dazu, wie die Kamera erfolgreich verbinden, bzw. konfigurieren.
Eine Info vorab: Wir bieten Multi-Kamera-Unterstützung, d.h. Sie können mehr als eine Kamera pro Swarm Perception Box verbinden.
Um die Konfigurationsseite der Perception Box aufzurufen, klicken sie einfach auf die jeweilige Box in der Listenansicht. Darüber können Sie sämtliche Kameras verwalten, die auf diesem Gerät ausgeführt werden.
Sie sind natürlich völlig frei in der Benennung Ihrer Swarm Perception Boxen; wir empfehlen an dieser Stelle ein logisches Benennungsschema.
Abhängig von Ihrer Subscription haben Sie eine bestimmte Anzahl von Kameras, die Sie mit Ihrer Perception Box verwenden können. Sollten Ihnen diese Anzahl nicht (mehr) ausreichen, kontaktieren Sie bitte unser Sales-Team.
Es hängt natürlich von der Hardware ab, wie viele Kameras parallel genutzt werden können. Das gilt sowohl für unsere Perception Boxen als auch für von uns empfohlene Hardware, für die wir Tests und Benchmarks durchgeführt haben.
Durch Klicken auf eine der angezeigten Kameras öffnen sich die Einstellungen der jeweiligen Kamera. Dort können Sie die Kamera benennen. Oben haben Sie die Möglichkeit, den Kamerastream zu deaktivieren. Wenn ein Kamerastream deaktiviert ist, wird er von der Software nicht länger berücksichtigt. Die Konfiguration wird beibehalten.
Für jede Kamera müssen GPS-Koordinaten pro Kamera eingetragen werden. Diese können durch Eingabe der Koordinaten oder direkt mit dem Standortauswahltools auf der Karte festgelegt werden:
Zurzeit können Kamerastreams über RTSP sowie USB verarbeitet werden. Sie können aus den verschiedenen Optionen aus dem Drop-Down-Menü beim Connection type wählen:
Sie können den Kamerastream mithilfe des VLC Media Players testen. Wenn Sie nicht sicher sind, welche Teile der Streaming-URL Sie verwenden sollten, wählen Sie Custom connection string und fügen Sie den funktionierenden String einfach vom VLC Media Player ein.
Informationen zu den weiteren Feldern für die Camera Connection finden Sie im Handbuch der Kamera oder können direkt auf der Kamera konfiguriert werden.
Einige Sonderzeichen können zu Problemen bei der Kameraverbindung führen. Vermeiden Sie am besten Zeichen wie "?", "%" and "+" im Passwort.
Sobald Sie die Kameraverbindung (Camera Connection) konfiguriert haben, sehen Sie eine Vorschau des Kamerabilds. Sie können nun mit der Szenariokonfiguration fortfahren.
Die Swarm Perception Box sendet die Ergebnisse der Echtzeitanalyse an einen MQTT-Broker. Die Standardkonfiguration sendet Daten an die Azure Cloud sowie an Data Analytics, damit sie dort abgerufen werden können. Wenn Sie eine Custom-MQTT einrichten möchten, finden Sie hier weitere Infos dazu.
Die Verwendung von Message Compression kann bis zu 50% der Bandbreite einsparen, die zum Senden von Events den den MQTT-Broker genutzt wird. Beachten Sie, dass der Broker entsprechend konfiguriert sein muss.
Aus der Gerätekonfiguration kennen wir bereits den Gesamtstatus aller Kameras, die mit einer Perception Box verbunden sind. Auf Kameraebene haben Sie die Möglichkeit, den individuellen Status anzuzeigen, um so mögliche Ursachen für etwaige Probleme besser identifizieren zu können:
Sobald Sie das Kamerabild sehen können, haben Sie die Möglichkeit, das Szenario zu konfigurieren. Weiter geht's auf der nächsten Seite!
Hier geben wir Hilfestellung, damit Sie Ihr Szenario je nach Ihrem Anwendungsfall optimal konfigurieren können.
Nun, da Sie Ihre Kamerabilder sehen, ist es Zeit für die Konfiguration. This is where the magic happens!
Da unsere Software hauptsächlich für dezidierte Anwendungsfälle gedacht ist und verwendet wird, finden Sie alle Informationen für die perfekte Einrichtung in den jeweiligen Abschnitten:
In der Konfiguration können Sie das für Ihren Anwendungsfall geeignete Modell auswählen und jede beliebige Kombination von Eventtriggern und zusätzlichen Funktionen konfigurieren.
Das Modell spiegelt die Engine wider, mit dem die Perception Box arbeitet:
Nachfolgend finden Sie kurze Beschreibung für jedes Modell. Um zu entscheiden, welches Sie für Ihren Anwendungsfall nutzen möchten, bzw. sollten, lesen Sie bitte den Abschnitt zum jeweiligen Use-Case: Traffic oder Parking.
Dieses Model erkennt Fahrzeuge, Personen auf Zweirädern und Personen in hochdynamischen Szenen (z.B. Straßenverkehr oder Autobahnen, also Szenen in denen sich Objekte schnell bewegen).
Dieses Model erkennt Fahrzeuge, Personen auf Zweirädern und Personen in Szenen mit geringer Dynamik, zum Beispiel Parkplätze, auf denen Objekte nicht oder langsam fahren. Da dieses Model das Video mit einer höheren Auflösung analysiert, kann es Objekte erkennen, die weiter entfernt von der Kamera sind. Dies erfordert mehr Rechenleistung und wird daher derzeit nur für diesen Anwendungsfall im Bereich der Parking Insights empfohlen.
Dieses Model erkennt Fahrzeuge, Personen auf Zweirädern und Personen in Szenen mit geringer Dynamik auf Parkplätzen, wenn eine Fisheye-Kamera verwendet wird. Dies funktioniert nicht bei schnellen, dynamischen Verkehrsszenen.
Dieses Model erkennt eine Person, bzw. den gesamten Körper einer Person. Somit eignet es sich ideal zum Erkennen, Tracken und Zählen von Personen, wenn diese weiter (>5 m) von der Kamera entfernt sind.
Dieses Model erkennt den Kopf einer Person und eignet sich damit ideal zum Erkennen, Tracken und Zählen von Personen, wenn sie näher (<6 m) zur Kamera sind.
Bei der Erkennung und dem Tacking von Personen, führen wir zu keinem Zeitpunkt eine Gesichtserkennung durch. Es werden keinerlei sensible persönliche Informationen verarbeitet. Kontaktieren Sie uns gerne jederzeit, wenn Sie zum Fragen zum Thema persönliche Daten, bzw. Datenschutz haben.
Wenn Sie den Modelltyp von einer Parkplatz- oder Verkehrsszene auf eines unserer Personen-Erkennungsmodelle ändern, beachten Sie bitte, dass dies nur möglich ist, wenn keine ANPR-/RoI-Konfiguration eingestellt ist. Sollte dies so sein, erhalten Sie folgenden Hinweis vom System:
Jeder Event-Trigger generiert im Hintergrund eine eindeutige ID. Damit Sie den Überblick über alle konfigurierten Trigger behalten, können Sie benutzerdefinierte Namen zuweisen. Dieser Name wird dann verwendet, um die entsprechenden Daten in Data Analytics anzuzeigen.
Nachfolgend finden Sie Erläuterungen zu den einzelnen Event-Typen und -Triggern:
Wir stellen verschiedene Templates für die drei verschiedenen Anwendungsbereiche zur Verfügung, um Ihnen die Konfiguration und generelle Anwendung bestmöglich zu erleichtern.
Parking-Events: Templates für sämtliche Anwendungsfälle im Bereich der Parkraumüberwachung
Traffic-Events: Templates für die Anwendung im Bereich der Verkehrsüberwachung sowie Verkehrssicherheit
People-Events: Diese Templates eignen sich perfekt bei der Verwendung unsrer Modelle People Full Body oder People Head
Die Beschreibung der verfügbaren Event-Trigger und der individuell anpassbaren Event-Einstellungen finden Sie in nachfolgender Tabelle:
Counting Lines (CL) lösen eine Zählung aus, sobald der Mittelpunkt eines Objektes die Linie überschreitet. Bei der Konfiguration einer CL ist es wichtig, dass die Kameraperspektive berücksichtigt wird.
Die CL protokolliert auch die Richtung, in der das Objekt die Linie in In und Out überquert hat. Sie können In und Out jederzeit umschalten, um die Richtung entsprechend anzupassen. Darüber hinaus kann ein eigener Name für die beiden Richtungen zugewiesen werden. Die benutzerdefinierte Bezeichnung kann dann als Segmentierung in Data Analytics verwendet werden.
Standardmäßig zählt eine CL jedes Objekt nur einmal. Wenn jede Überquerung gezählt werden soll, gibt es die Option, Events für wiederholte CL-Überquerungen zu aktivieren. Die einzige Einschränkung dabei ist, dass Zählungen erst dann berücksichtigt werden, wenn fünf Sekunden dazwischen liegen.
Neben den wiederholten CL-Überquerungen sind noch ANPR und Speed Estimation als Trigger, bzw. Einstellungen verfügbar.
Speed Estimation kann als spezielle Trigger-Einstellung für eine CL in der linken Seitenleiste aktiviert werden. Dadurch wird eine weitere Linie hinzugegügt, mit der Sie den Abstand in Ihrem Szenario angeben können. Für die optimalen Ergebnisse empfehlend wir eine gerade Strecke ohne Kurven/Neigungen.
Regions of Interest zählen Objekte in einem bestimmten Bereich. Zudem werden Klasse (Class) und Verweildauer (Dwell Time) ermittelt und angegeben.
Je nach Szenario können wir zwischen drei Typen von RoI unterscheiden. Für diese drei Typen bieten wir die unten beschriebenen Templates an:
Diese Zonen werden für Origin-Destination-Analysen verwendet. Zählungen werden generiert, wenn sich ein Objekt durch OD1 und anschließend durch OD2 bewegt. Für eine OD müssen mindestens zwei Bereiche konfiguriert werden.
Die erste Zone, die das Objekt passiert, wird als Ursprungszone (Origin) bezeichnet. Die letzte Zone, die das Objekt passiert, wird demnach als Zielzone (Destination) bezeichnet.
Eine VD fungiert im Grunde als 3D-Counting-Line und ist für Anwendungsfälle gedacht, bei denen detaillierte Eintritts- und Austrittszählungen für Türen, bzw. Ein- und Ausgänge benötigt werden.
Das Objekt muss entweder in das VD-Feld eintreten und dann verschwinden, oder sich im Feld bewegen und dieses anschließend verlassen. Objekte, die im Feld erscheinen und dann verschwinden, werden nicht gezählt. Ebenso werden Objekte, die das Feld lediglich passieren, nicht gezählt. Weitere Details zur Logik hinter der Virtual Door finden Sie in der nachfolgenden Info-Box:
Jeder Kopf oder Körper einer Person wird kontinuierlich getrackt, während er sich durch das Sichtfeld der Kamera bewegt. Der Start- und Endpunkt des Trackens wird verwendet, um zu bestimmen, ob ein Eintritts- oder Austrittevent (In/Out) aufgetreten ist.
Eintritt (Entry): Wenn der Startpunkt der Trackens innerhalb der VD und der Endpunkt außerhalb der VD liegt, wird ein In-Event ausgelöst.
Austritt (Exit): Wenn der Startpunkt des Trackens außerhalb der VD und der Endpunkt innerhalb der VD liegt, wird ein Out-Event ausgelöst.
Vorbeigehen (Walk By): Wenn der Tracking-Punkt außerhalb der VD beginnt und außerhalb der VD endet, wird kein Event ausgelöst.
Außerhalb bleiben (Stay Outside): Wenn der Tracking-Punkt innerhalb der VD beginnt und innerhalb der VD endet, wird kein Event ausgelöst.
Hinweis: Es ist nicht erforderlich, die In- und Out-Richtung zu konfigurieren, da dies automatisch festgelegt wird.
Sie können das ANPR-Feature mit einer Counting Line aktivieren, wodurch das Kennzeichen der Fahrzeuge als zusätzlicher Parameter zu den generierten Events hinzugefügt wird. Beim Aktivieren von ANPR sollten Sie jedoch die geltenden DSGVO-Gesetze, bzw. -Vorschriften beachten, da es sich bei Kennzeichen um sensible Daten handelt.
Die Aufbewahrungszeit der Kennzeichenbilder kann manuell festgelegt werden. Nach Ablauf dieser Aufbewahrungszeit werden sämtliche Rohdaten, Informationen und Bildaufnahmen gelöscht.
Bitte beachten Sie die verschiedenen Spezifikationen zu den Anwendungsfällen, um dieses Feature bestmöglich anzuwenden, vor allem den Use-Case des schrankenlosen Parkens.
Das Journey-Time-Feature kann in den Einstellungen in der linken Seitenleiste aktiviert werden. Dieses Feature generiert Daten zur Fahrzeit sowie zum Verkehrsfluss und wird für die Advanced Traffic Insights benötigt. Weitere technische Details zu den generierten Daten finden Sie im folgenden Abschnitt:
In den allgemeinen Einstellungen (Global Settings) können Focus Areas hinzugefügt werden, also dezidierte Fokusbereiche. Diese definieren den Bereich der Erkennung in einer Szene. Wenn Focus Areas definiert sind, werden also lediglich Erkennungen in ausschließlich diesen Bereichen berücksichtigt.
Wenn Focus Areas konfiguriert sind, werden diese im Vorschaubild und in einer Tabelle angezeigt. Über die Tabelle haben Sie ebenfalls die Möglichkeit, einzelne Fokusbereiche wieder zu entfernen.
Achtung: Wenn eine Focus Area aktiviert ist, zeigt die Live- und Track-Kalibrierung nur Erkennungen und Tracks in diesem Bereich an. Überprüfen Sie daher vor dem Zeichnen von Fokusbereichen die Track-Kalibrierung, um zu sehen, wo genau sich die Tracks im Bild befinden, damit keine Erkennungen verpasst werden.
In der Konfiguration der Region of Interest gibt es zwei verschiedene Trigger zur Auswahl. Entweder basierend auf Zeit (Time), oder basierend auf dem Belegungsstatus, also der Occupancy, abhängig vom Anwendungsfall.
Das Zeitintervall kann nach ebenfalls in den Einstellungen angepasst werden.
Das RoI-Zeitintervall wird abhängig von der gewählten Trigger-Aktion verwendet:
Time: Der Status der RoI wird in den festgelegten Zeitintervallen übermittelt
Occupancy: Sie erhalten ein Event, wenn sich der Belegungstatus ändert (vacant/occupied). Das Zeitintervall agiert hier als eine Pausezeit, nachdem ein Event gesendet wurde. Das bedeutet, dass die Änderung der Belegung für dieses Zeitinvervall nicht überprüft wird und Sie maximal ein Event pro Zeitspanne erhalten. Der Status wird immer dem im letzten Event gesendeten Status verglichen.
Im Raw-Track-Modus wird ein Event generiert, sobald das Objekt den Videoframe verlässt. Bei diesem Event wird der genaue Track des Objekts abgerufen und in Form von X/Y-Koordinaten des Videoframes gesammelt.
Raw Tracks sollten nur dann verwendet werden, wenn Sie sich für das erweiterte Setup mit einem Custom-MQTT-Server entscheiden.
Um Ihre ganz individuelle Lösung zu erstellen, wählen Sie zunächst das passende Modell aus und platzieren Sie dann Ihren Event-Typen - oder wählen Sie den Raw-Track-Modus aus.
Wenn ein Event-Typ ausgewählt ist - im Beispiel etwa die Region of Interest, klicken Sie mit der linken Maustaste auf die weißen Kreise und halten Sie die Maustaste gedrückt, um die einzelnen Eckpunkte verschieben zu können. Sie können ein beliebiges Viereck (vierseitiges Polygon) erstellen. Um das gesamte Viereck zu verschieben, klicken Sie einfach in das Feld und halten Sie auch hier die Maustaste gedrückt.
Die Kernkompetenz unseres Computer-Vision-Systems bei der Erkennung und Klassifizierung liegt in seinen Modellen.
Werfen Sie einen Blick in die Abschnitte zu den jeweiligen Use-Cases, wir empfehlen ein Modell für jeden Anwendungsfall. Wenn Sie unsicher sind, verwenden Sie das Modell Traffic & Parking (Standard).
Das Event enthält Klasse und Unterklasse gemäß dieser Definition.
Die folgenden Bilder sind nur als Beispiele gedacht und sollen keine Auskunft über genaue Kameraabstände oder Perspektiven geben.
Klasse | Subklasse | Definition |
---|---|---|
Hier finden Sie Details dazu, wie Sie unsere Rule-Engine in Ihrer Szenario-Konfiguration verwenden können.
Mithilfe der Rule-Engine können Sie die Event-Trigger noch weiter anpassen. Die Reduzierung von Big Data auf relevante Daten ist mit nur wenigen Klicks möglich: Von einfachen Anpassungen, um Zählungen für nur eine Counting-Line-Richtung zu erhalten, bis hin zu komplexeren Regeln, um den Status einer Region of Interest zu überwachen.
Damit eine Regel (Rule) erstellt werden kann, muss ein Event-Trigger zugewiesen werden. Je nach Art des Event-Triggers stehen verschiedene Optionen zur Verfügung, um flexible Filterbedingungen festzulegen.
Benennen Sie Ihre Regel: Dieser Name wird anschließend verwendet, um Widgets in Data Analytics zu erstellen und wird Teil des Events sein, dass über MQTT empfangen wird.
Wählen Sie den Event-Trigger aus, auf dem die Regel basieren soll: Sie können aus allen Ihrer bereits konfigurierten Event-Trigger auswählen. Wenn OD ausgewählt wird, werden automatisch alle konfigurierten Zonen verwendet.
Sie haben die Möglichkeit, aus vordefinierten Templates oder Ihren individuellen Regeln zu wählen, die Sie selbst als Templates gekennzeichnet haben. Dazu später mehr in diesem Abschnitt.
Legen Sie Ihre Unterbedingungen fest: Mit Unterbedingungen können Sie die relevanten Daten für diese Regel filtern. Die Parameteroptionen für die Unterbedingungen hängen vom gewählten Event-Trigger ab.
Für die mit AND verbundenen Bedingungen müssen alle dieser Bedingungen erfüllt sein. Sehen wir uns das oben stehende Beispiel an: In diesem Fall werden nur dann Events gesendet, wenn ein Fahrrad oder eine Person die Counting Line in Richtung In überquert.
Es können Bedingungen für eine Kombination aus RoI und CL erstellt werden. Wenn sie als Event-Trigger ausgewählt werden, erscheint automatisch die Option, eine weitere Bedingung hinzuzufügen. Diese Unterbedingung muss auf einer zweiten Region of Interest oder Counting Line basieren und werden dann durch eine AND-Kondition kombiniert.
Kombinierte Regeln lösen ein Event nur dann aus, wenn ein Objekt die CL überquert und die Regel der zusätzlichen CL oder RoI ebenfalls erfüllt ist.
Im untenstehenden Beispiel sendet die Rule ein Event, wenn ein Auto, Bus, LKW oder Motorrad die Counting Line mit Speed Estimation mit mehr als 50 km/h überquert und sich gleichzeitig eine oder mehr als eine Person länger als fünf Sekunden in der RoI aufhält:
Nach dem Erstellen einer Regel, muss die Szenariokonfiguration der Kamera gespeichert werden, damit die Regel entsprechend übernommen und angewendet wird.
Jede erstellte Regel kann als Template gekennzeichnet werden. Dadurch besteht die Möglichkeit, diese Regel mit derselben Logik für jeden Kamerastream im Control Center zu verwenden.
Achtung: Wenn Sie eine Regel löschen, die als Template gekennzeichnet wird, wird dadurch auch das Template entfernt - auch in anderen Konfigurationen. Wenn eine auf einem Event-Trigger basierende Regel erstellt wurde und der jeweilige Event-Trigger wird gelöscht, ist auch die Regel gelöscht.
Um den Stream für eine optimale Datengenauigkeit richtig zu konfigurieren, gibt es zwei Optionen für die Kalibrierung, die wir nachfolgend erläutern.
Für eine unkomplizierte Kalibrierung können Sie die Live Calibration oben rechts in der Drop-Down-Liste im Vorschaubild der Kamera verwenden. Wie im untenstehenden Screenshot zu sehen ist, bietet dieser Modus eine Übersicht darüber, welche Objekte unsere Software im aktuellen Videoframe erkennen kann.
Wir empfehlen die Verwendung dieser Kalibrierung insbesondere für Konfigurationen im Bereich der Einzel- und Mehrplatzerfassung in Kombination mit Regions of Interest.
Die erkannten Objekte werden in einer sogenannten Bounding Box angezeigt. Jede Bounding Box zeigt auch das Zentrum des jeweiligen Objekts durch einen Punkt in der Box selbst an. Um die einzelnen Objekte unterscheiden zu können, haben die Hauptklassen unterschiedliche Farben an. Jedes über MQTT gelieferte Event wird über den Mittelpunkt des Objekts ausgelöst.
Die Track Calibration bietet die Möglichkeit, eine Anzahl von Tracks im Bild zu überlagern. Dadurch ist sehr gut erkennbar, wo im Frame die Objekte am besten erkannt werden. Mit dieser Info ist es dann einfacher, die Konfiguration entsprechend vorzunehmen und zu optimieren, damit Sie bereits beim ersten Versuch die bestmöglichen Ergebnisse erhalten.
Wir empfehlen die Track-Kalibrierung für Traffic Insights sowie Anwendungsfälle im Bereich des schrankenlosen Parkens.
Wenn der Track Calibration History aktiviert ist, können Sie auf die Streckenkalibrierung für jede Stunde der letzten 24 Stunden zugreifen.
Die Bilder der Track Calibration werden auf dem Edge-Gerät gespeichert und sind nur über das Control Center zugänglich. Stellen Sie bitte sicher, dass das Anzeigen, Speichern und Verarbeiten dieser Bilder für bis zu 24 Stunden mit den geltenden Datenschutzbestimmungen vereinbar ist.
Die Farben der Tracks sind nach Objektklasse aufgeteilt, sodass problemlos zwischen Pkws, motorisierten Zweirädern, Lastwagen, Bussen, Personen und Fahrrädern unterschieden werden kann.
Demnach unterscheiden sich die Farben der Tracks und Bounding Boxes je nach Hauptklasse (main class). Wie im untenstehenden Screenshot zu sehen ist, wird nach einem Klick auf das Fragezeichen-Symbol diese Legende für die Calibration Colors angezeigt:
Verschiedene Kameraeinstellungen zur Optimierung der Videostream-Einstellungen für unsere Lösung.
Die Verbindung zur Änderung der Kameraeinstellung über die Swarm Perception Platform erfolgt über den offenen ONVIF-Standard.
Stellen Sie sicher, dass ONVIF auf Ihrer Kamera aktiviert ist und erstellen Sie einen Admin-User mit denselben User Credentials wie für die Kamera selbst. Wenn die Kamera von Swarm Analytics geliefert wurde, ist ONVIF bereits aktiviert.
Die Kameraeinstellungen sind auf zwei Tabs aufgeteilt. Ein Tab ist für die Grundeinstellungen und dient vor allem der Überprüfung, ob die für die Verarbeitung via Swarm Analytics erforderlichen Parameter korrekt eingestellt sind. In den erweiterten Einstellungen können dann entsprechend weitere Parameter manuell angepasst und optimiert werden.
Hier wird die aktuelle Hauptkonfiguration der Kamera angezeigt und mit den empfohlenen Einstellungen für Ihre Konfiguration verglichen. Die Symbole zeigen also an, ob die aktuelle Einstellung den Empfehlungen entsprechen.
Darüber hinaus gibt es auch die Option, die empfohlenen Einstellungen automatisch und mit einem Mausklick anzuwenden, um die Kamera so für die bestmöglichen Ergebnisse zu konfigurieren.
Da jede Installation variiert, insbesondere in Bezug auf Beleuchtung, Entfernung und weitere externe Faktoren, können Sie die Kameraeinstellungen individuell konfigurieren, um die beste Bildqualität für Data Analytics zu erhalten.
Passen Sie dazu einfach die entsprechende Einstellung an und speichern Sie anschließend. Danach wird das Vorschaubild automatisch neu geladen und Sie können genau sehen, wie/ob sich die Änderungen auf die Bildqualität auswirken. Wenn Sie mit den Änderungen nicht zufrieden sind, können Sie auf Revert settings klicken und die Einstellungen werden dann auf die zum Zeitpunkt des Öffnens dieser Seite anwendeten Einstellungen zurückgesetzt.
ONVIF befindet sich im folgenden Bereich der Benutzeroberfläche von HikVision: Netzwerk --> Erweiterte Einstellungen --> Integrationsprotokoll.
Setzen Sie dann das Häkchen, um Open Network Video Interface zu aktivieren. Wichtig ist, dass im Drop-Down-Menü Digest&ws-username token ausgewählt ist:
Fügen Sie dann über Add user ein Benutzerprofil hinzu:
User Name: <derselbe wie beim Kamerazugriff>
Password: <dasselbe wie beim Kamerazugriff>
Level: Administrator
anschließend mit OK speichern
Zudem müssen die Zeiteinstellungen korrekt sein, damit ONVIF-Aufrufe funktionieren. Klicken Sie dafür auf System --> Systemeinstellungen --> Zeiteinstellungen. Aktivieren Sie dort NTP für die Zeitsynchronisierung und speichern Sie anschließend.
Dieser Abschnitt beschreibt welchen Status Geräte sowie Kamerastreams haben können und was jeweils zu erwarten ist.
Im Swarm Control Center finden Sie einen grundlegenden Monitoring-Status sowohl auf Kamera- als auch auf Geräteebene. Dieser Status zeigt an, ob Ihre Kameras betriebsbereit sind oder ob Handlungsbedarf besteht, um diese zum Laufen zu bringen.
In der Kameraübersicht Ihrer Geräte und Dashboards finden Sie das Kameramonitoring, das Ihnen anzeigt, ob Ihre Kamera wie erwartet funktioniert. In der Gerätekonfiguration finden Sie das Gerätemonitoring, die den schlechtesten Zustand aller auf dem Gerät laufenden Kameras anzeigt. So sehen Sie direkt, ob etwas nicht stimmt.
Wie Sie automatische E-Mail-Benachrichtigungen bei Statusänderungen konfigurieren können, erfahren Sie in diesem Abschnitt.
Status | Beschreibung |
---|---|
Wenn Ihr Gerät wider Erwarten als offline angezeigt wird, besuchen Sie bitte unsere Tipps zur Fehlerbehebung.
Das Gerätemonitoring hängt vom insgesamt schlechtesten Status ab, um Ihnen in Ihrer Geräteliste direkt einen guten Überblick geben zu können, wenn eine Kamera nicht wie erwartet funktioniert.
Status | Beschreibung |
---|---|
Bei diesem Status werden das System, der Kameraeingang sowie die MQTT-Verbindung berücksichtigt.
Data Analytics: Wie Sie Widgets in Ihren Dashboards verwalten
Die Dashboards erstellen Sie für Ihren jeweiligen Anwendungsfall (Verkehr, Parken oder Allgemein). Um wertvolle Daten mit geringem Aufwand anzuzeigen, variieren die Widget-Optionen je nach Anwendungsfall, bzw. Szenario.
In der Übersicht (Overview) Ihres Dashboards können Sie die Widgets nach Belieben anpassen. Oben links können Sie den Zeithorizont bestimmen, der auf jedes Widget in diesem Dashboard angewendet wird. Der Zeithorizont wird separat für jedes Dashboard gespeichert. Wenn Sie dasselbe Dashboard also erneut öffnen, wird Ihr zuletzt verwendeter Zeithorizont angezeigt.
Sie können Widgets einfach per Drag & Drop über das Dashboard verschieben und neu anordnern. Die Größe der Widgets kann in der linken unteren Ecke angepasst werden. Zudem haben Sie die Möglichkeit, das Widget im Vollbildmodus anzuzeigen, indem Sie oben rechts auf die entsprechende Schaltfläche klicken.
Um ein neues Widget zu erstellen, klicken Sie einfach auf New Widget. Je nach Widget-Typ variieren die Verfügbarkeiten. Das bedeutet, die verfügbaren Widget-Typen hängen natürlich vom Szenario ab, für das Sie Ihr Dashboard konfiguriert haben (Parken, Straßenverkehr oder Allgemein.) Nachfolgend finden Sie eine Kurzbeschreibung der verschiedenen Auswahlmöglichkeiten für die Widgets (*Pflichtfeld):
Name des Widgets*: Sie können Ihrem Widget einen beliebigen Namen geben. Der Name wird dann in der Dashboard-Übersicht angezeigt
Datenaggregation: Sie können auswählen, für welchen Zeitrahmen Ihre Daten aggregiert werden sollen. Sie können Ihre Daten pro Stunde, Tag, Woche, Monat und Jahr anzeigen lassen. Beispiel: Wenn Sie einer Verkehrszählung eine Datenaufbereitung pro Tag auswählen, werden alle Zählung des Tages summiert.
Datensegmentierung: Sie können Ihre Daten anhand bestimmter Parameter der erstellten Events aufteilen. Beispielsweise können Sie die Zählungen pro Tag nach Fahrzeugklasse aufschlüsseln lassen, indem Sie die class sowie sub class angeben.
Filter: Um Ihre Daten noch übersichtlicher anzeigen zu lassen, können Sie diese nach verschiedenen Parametern filtern: enthält (contains), enthält nicht (does not contain), ist gleich (equals), ist ungleich (does not equal), ist gesetzt (is set), ist nicht gesetzt (is not set)
Output definieren*: Damit Ihre Daten im korrekten Output dargestellt werden, bieten wir pro Widget-Typ verschiedene Optionen an: Tabelle, Anzahl, Balkendiagramm, Liniendiagramm, Tortendiagramm, Chord-Diagramm
Der Zustand Ihrer Geräte auf einen Blick
Der Zustand Ihres Gerätes auf einen Blick mit 7-tägiger Historie. Die Metriken der Device Health erlauben es Ihnen, Nachweise für eine zuverlässige sowie kontinuierliche Datensammlung zu liefern und häufige Probleme selbst zu diagnostizieren (z.B. stabile Konnektivität, keine Kameraausfälle, gleichmäßige Verarbeitungsgeschwindigkeit, etc.). Die folgenden Metriken werden unterstützt.
Gerätebetriebszeit: Zeigt entsprechend die Zeit an, die das Gerät bis jetzt in Betrieb war.
Gerätestatus und Geräteneustarts: Gibt einen Überblick über den Status sowie mögliche Neustarts des Geräts.
Freier Festplattenspeicher des Geräts: Gibt Informationen über den freien Speicher Ihres Geräts.
Gerätetemperatur (unterstützt für P101/OP101/Jetson Nano): wenn das Gerät mit einer hohen Temperatur läuft (abhängig von den vom Hersteller definierten Spezifikationen), geben wir hier eine Warnung aus, da die Temperatur die Leistung beeinträchtigen könnte.
Modem-Traffic und Reconnects (unterstützt für OP100/OP101): Gibt Informationen zum Traffic auf dem Modem sowie eventuellen Wiederverbindungen. Unterstützt aktuell das Huawei LTE-Modem, das ZTE LTE-Modem wird mit Version 2023.3 hinzugefügt.
Kamerastatus: Gibt eine Übersicht über den Status des jeweiligen Kamerastreams
Verarbeitungsgeschwindigkeit: Sollten die fps abfallen, könnte ein Problem mit der Kamera vorliegen oder das Gerät wird zu heiß.
Falls eine der Metriken nicht die erwarteten Werte anzeigt, schauen Sie sich bitte unsere Tipps zu Fehlerbehebung an.
In diesem Abschnitt finden Sie Beispiele dafür, für welche Use-Cases die Rule-Engine genutzt werden kann.
Erkennen von Fahrzeugen (motorisierter Verkehr), die eine Straße in falscher Richtung befahren, beispielsweise Einbahnstraßen oder Autobahnauffahrten.
Zunächst muss das Szenario auf Kameraebene konfiguriert werden. Wir empfehlen dazu die Anleitung für den Anwendungsfall der Verkehrszählung. Erstellen Sie dann eine neue Regel, benennen Sie diese nach Belieben und wählen Sie die konfigurierte Counting Line aus. Für Falschfahrende kann ein vordefiniertes Template ausgewählt werden. Sie haben ebenfalls die Möglichkeit, dieses Template noch weiter anzupassen. Bei der Konfiguration muss das Falschfahren mit der Richtung Out übereinstimmen, siehe Screenshot:
An einer Kreuzung sollen lediglich Objekte erkannt werden, die einen U-Turn, bzw. ein unerlaubtes Wendemanöver durchführen.
Als erster Schritt muss das Szenario auf Kameraebene konfiguriert werden. Dafür empfehlen wir die Anleitung für den Anwendungsfall der Analyse von Kreuzungen. Erstellen Sie dann eine Regel, benennen Sie diese und wählen Sie Origin-Destination als Event-Trigger für diese Regel aus. Für U-Turns kann ein vordefiniertes Template verwendet werden, das Sie natürlich noch anpassen können. Sie können die vorhandenen Origin-Destination-Zonen in Ihrem Szenario verbinden und festlegen, dass ein Objekt von einer Zone wieder zur selben Zone zurückkehrt, was auf ein Wendemanöver hindeuten könnte:
Im Straßenverkehr gibt es Situationen, in denen eine bestimmte Klasse von Verkehrsteilnehmenden dezidierte Bereiche nicht nutzen sollte, so beispielsweise Personen im Zentrum einer Kreuzung oder Fahrzeuge in Feuerwehrzonen.
Um diese und andere mögliche Fälle überprüfen zu können, können Sie eine Regel basierend auf einer konfigurierten Region of Interest in diesem dezidierten Bereich anlegen. Erstellen Sie dafür eine neue Regel, geben Sie ihr einen Namen und wählen Sie besagte RoI als Event-Trigger aus. Wir bieten ein Template für den Anwendungsfall Person on Street an.
Als Subcondition können Sie Object als Parameter wählen und dann festlegen, wie viele Objekte diesen Bedingungen entsprechen müssen. Sie können festlegen, welche Klassen erwartet oder nicht erwartet werden. Außerdem kann eine Verweildauer als Bedingung hinzugefügt werden, um nur Objekte zu berücksichtigen, die sich länger als Zeit X in diesem Bereich aufhalten, z.B. bei unerlaubtem Überqueren, Falschparken in Feuerwehrzonen, etc.):
Zu Gefahrensituationen zwischen beispielsweise Personen und Fahrzeugen kommt es an Fußgängerüberwegen täglich und es ist ausschließlich Glück, wenn es dabei nicht zum Unfall kommt. Um zu analysieren, ob es zu welchen Situationen kommt und wenn ja, wie oft, bieten wir eine Lösung mithilfe unserer Rule-Engine.
Für diesen Anwendungsfall ist es notwendig, eine CL (für die Erkennung der Fahrzeuge) und eine RoI (für die Erkennung von Personen sowie Fahrrädern) zu kombinieren. Erstellen Sie dafür eine Counting Line samt Speed Estimation vor einem Zebrastreifen. Auf dem Fußgängerüberweg und/oder im Wartebereich zeichnen Sie eine Region of Interest ein:
In obenstehenden Beispiel ist die Regel wie folgt definiert: Ein Safety Issue wird erkannt, wenn sich mindestens eine Person auf dem Zebrastreifen (Region of Interest) befindet und ein Fahrzeug die Counting Line (inkl. Speed Estimation) mit mindestens 10 km/h überfährt.
Nachfolgend finden Sie ein von uns erstelltes Demovideo, in dem wir verschiedene Situationen am Zebrastreifen zeigen:
Übersicht über Data Analytics in unserem Swarm Control Center
Data Analytics ermöglicht es Ihnen, Ihre Verkehrs- und Parkplatzszenarien zu digitalisieren und sowohl Live-Daten als auch historische Trendanalysen zu visualisieren. Außerdem haben Sie die Möglichkeit, Ihre Parkplatzbereiche, Kreuzungen oder Verkehrszählungen in verschiedenen Gruppen zu organisieren uns Sie in einer Listen- oder Kartenansicht anzeigen zu lassen.
Da wir wissen, dass Sie mit unserer Software auch Daten für weitere Anwendungsfälle generieren können, bieten wir ebenfalls die Option, Data Analytics für beliebige, allgemeine Szenarien zu verwenden.
Sie können Dashboards für beliebige Szenarien erstellen und die Daten so anzeigen, wie Sie sie benötigen, bzw. regelmäßig gemäß Ihren Anforderungen überprüfen möchten. Weitere Information dazu finden Sie auf den folgenden Seiten.
Analysieren Sie den Straßenverkehr durch Verkehrszählungen, Analysen an Kreuzungen in Städten oder städtischen Gebieten.
Innerhalb des Verkehrszenarios werden Widgets nicht automatisch erstellt, sondern Sie können diese ganz einfach nach Bedarf selbst anlegen. Für Analysen im Straßenverkehr stehen unter anderem die Widgets Traffic Counting sowie Origin-Destination-Analysis zur Verfügung. Weitere Details finden Sie in der folgenden Tabelle:
Wenn Sie Informationen über den Straßenverkehr basierend auf Zählungen sowie Klassifizierungen von Objekten wünschen, ist das Widget Traffic Counting perfekt geeignet.
Zunächst müssen die Zählstellen durch Counting Lines definiert werden. Sie können die Verkehrszählung über einen ausgewählten Zeitraum aggregiert und nach beliebigen Richtungen anzeigen lassen. Zusätzlich können die Daten nach dem Modalsplit des Verkehrs aufbereitet werden, damit die Verteilung der verschiedenen Objektklassen direkt erkennbar ist.
Zusätzlich können die Daten nach dem Modalsplit des Verkehrs aufbereitet werden, damit die Verteilung der verschiedenen Objektklassen direkt erkennbar ist.
Sollten Sie die Geschwindigkeitsschätzung für Ihre Zählung konfiguriert haben, können Sie sich außerdem die Durchschnittsgeschwindigkeit pro Zählungsaggregation anzeigen lassen oder die Zählungen sogar in verschiedene Geschwindigkeitsbereiche (Bereiche von 10 km/h) aufteilen.
Sie müssen lediglich den entsprechenden Widget-Typ sowie den gewünschten Output auswählen, und Sie sehen die Zählungen von einer Ursprungs- zu einer Zielzone. Als Output empfehlen wir das Chord-Diagramm.
Wenn Sie die Durchschnittsgeschwindigkeit des Straßenverkehrs über einen bestimmten Zeitraum sehen möchten, ist als Widget Speed Estimation zu wählen.
Sie müssen lediglich die Counting Line auswählen, an der Sie die Geschwindigkeitsschätzungen konfigurieren möchten, eine Aggregationsstufe wählen und Sie erhalten ein Liniendiagramm oder eine Tabelle mit den Daten über den gewählten Zeitraum.
Wenn eine Regel als Trigger für ausgewählte Kameras erstellt wurde, besteht die Möglichkeit anzeigen zu lassen, wie oft diese Regel in einem bestimmten Zeitintervall auftritt, bzw. aufgetreten ist.
Wählen Sie dann einfach Rule trigger als Widget und die entsprechende Regel, für die Sie die Häufigkeit des Auftretens sehen möchten.
Die Datenaufbereitung kann gemäß den individuellen Anforderungen gewählt werden.
Wie Sie Ihre Dashboards in Data Analytics verwalten können
In Data Analytics können Sie mehrere Dashboards erstellen und diese in Dashboard-Gruppen organisieren, um eine strukturierte Kontrolle über Analysen für Ihre Verkehrs- und Parkplatzbereiche zu haben.
Dashboard-Gruppen dienen dazu, Struktur in Ihre Sammlung von Dashboards zu bringen. Sie können diese Gruppen über die Symbolleiste erstellen, indem Sie auf das Plussymbol (+) klicken. Geben Sie Ihrer Dashboard-Gruppe anschließend einen Namen und klicken Sie einfach auf Save Dashboard Group.
Die Dashboard-Gruppe namens Default kann weder umbenannt noch gelöscht werden.
Durch das Klicken auf die verschiedenen Reiter wählen Sie zunächst die entsprechende Dashboard-Gruppe aus und können dann ganz unkompliziert zwischen den einzelnen Dashboards jeder Gruppe navigieren. Die Gruppen werden automatisch alphabetisch sortiert.
Wenn Sie eine Gruppe ausgewählt haben, können Sie diese durch Klicken auf das Stiftsymbol neben dem Namen bearbeiten.
Durch das Klicken auf das X-Symbol in der Navigationsleiste der Dashboard-Gruppe können Sie diese löschen. Sie müssen das Löschen bestätigen.
Das Löschen einer Dashboard-Gruppe löscht alle mit dieser Gruppe verknüpften Dashboards.
Dashboards können erstellt werden, indem Sie auf New Dashboard klicken. Jedes Dashboard hat drei Registerkarten: Übersicht (Overview), Kameras (Cameras) und Konfiguration (Configuration). Bei der Erstellung des Dashboards werden Sie automatisch zur Konfiguration weitergeleitet, um dort entsprechende Informationen festlegen zu können.
Nachdem Sie Ihre Konfiguration vorgenommen und gespeichert haben, wechseln Sie zur Registerkarte Cameras, um eine (oder mehrere) Kamera(s) hinzuzufügen, die für dieses Dashboard berücksichtigt werden soll(en).
Sobald Sie Ihrem Dashboard eine oder mehrere Kameras zugewiesen haben, können Sie damit beginnen, Ihr Dashboard zu bearbeiten, in dem Sie Widgets über die Registerkarte Overview hinzufügen.
Die Registerkarten Overview wird Ihr tatsächliches Dashboard sein, wo Sie Ihre Daten nach Belieben anpassen und analysieren können.
Mehr Informationen dazu finden Sie im nächsten Abschnitt:
Wie bereits erläutert, können Sie einem Dashboard eine oder mehrere Kamera(s) zuordnen. Hierbei kommt es darauf an, welche Daten Sie mit dieser Kamera generieren möchten. Wählen Sie demnach die entsprechende Kamera aus dem Drop-Down-Menü aus und klicken Sie auf Add Camera.
Das Szenario kann nachträglich nicht mehr editiert werden. Bitte achten Sie also darauf, das richtige Szenario direkt bei der Erstellung des Dashboards auszuwählen.
Verknüpfen Sie das Dashboard nun mit der Dashboard-Gruppe Ihrer Wahl. Die Dashboard-Gruppe, die Sie während der Dashboard-Erstellung ausgewählt hatten, wird vorausgewählt sein, kann aber natürlich geändert werden.
Fügen Sie die Koordinaten des Installationsorts zur Konfiguration des Dashboards hinzu. So kann sichergestellt werden, dass diese Installation mit dem entsprechenden Dashboard auch in der Kartenansicht angezeigt werden kann. Darüber hinaus werden die Koordinaten automatisch die lokale Zeit in Ihrem Dashboard einstellen. Sind keine Koordinaten eingetragen, wird die Zeit in der UTC-Zeitzone angezeigt.
Eine Kamera kann mehreren Dashboards hinzufügt werden. Dadurch können Sie eine Kamera für mehrere Anwendungsfälle verwenden. Zum Beispiel können Sie eine Verkehrszählung vornehmen und gleichzeitig den danebenliegenden Radweg analysieren.
Wie Sie Ihre generierten Daten ganz einfach in externe Anwendungen integrieren können.
Wenn Sie Ihre Daten in andere Plattformen oder beispielsweise Anzeigetafeln integrieren möchten, bieten wir dafür zwei Möglichkeiten.
Möglichkeit 1: Erhalten Sie nur die Daten, die Sie gemäß den Abfragen, die Sie in Data Analytics erstellen können, benötigen, und verwenden Sie dann unsere API:
Möglichkeit 2: Erhalten Sie jedes generiertes Event direkt von der Box, ohne, dass dieses über die Cloud verarbeitet wird, indem Sie die MQTT-Option verwenden:
Beachten Sie bitte, dass Sie mit dieser Option die Daten von jedem Event erhalten. Data Analytics kann nicht verwendet werden.
Analysieren Sie ein beliebiges Szenario mithilfe unserer verfügbaren Eventtrigger.
Wenn Sie ein Dashboard für einen Anwendungsfall benötigen, der nicht durch unsere Verkehrs- oder Parkplatzszenarien abgedeckt ist, können Sie dieses einfach selbst erstellen.
Mithilfe des Szenarios namens Generic können Sie Widgets erstellen, die auf den mit einem generierten Daten basieren.
Dazu nochmals Informationen zum besseren Verständnis: Die Messwerte extrahieren bestimmte Schlüsselmetriken aus den von der Software generierten Daten. Es gibt generell Metriken zu den folgenden Nutzungsbereichen:
Zählungen: Es erfolgt immer eine Art von Zählung, basierend auf einer Counting Line (CL), einer Virtual Door (VD), oder einer Origin-Destination-Zone (OD).
Region(s) of Interest (RoI): Berechnet die Anzahl der Objekte innerhalb einer vordefinierten Region.
Sie können zwischen den in der nachfolgenden Tabelle erläuterten Widget-Typen wählen. Bei der Erstellung des Widgets haben Sie dieselben wie bei jedem anderen Szenario.
Widget-Typ | Beschreibung |
---|
Digitalisieren Sie Ihren Parkbereich für einen reibungslosen und einfachen Betrieb.
Innerhalb des Parkplatzszenarios haben Sie die Möglichkeit, zusätzliche Parameter zu konfigurieren, um Ihren Parkplatz optimal zu konfigurieren. Sie können etwa die maximale Kapazität und maximale Parkdauer definieren. Außerdem haben Sie auch die Möglichkeit, die aktuelle Auslastung festzulegen, um den Parkbereich regelmäßig zu kalibrieren. Die Parameter können über die Registerkarte Configuration im Swarm Control Center eingestellt werden.
Beachten Sie bitte, dass eine Änderung der aktuellen Auslastung den letzten Wert automatisch überschreibt.
Innerhalb des Parkplatzszenarios werden die beiden Widgets Current Parking Utilization und Historic Parking Utilization automatisch für Sie erstellt.
Für alle Widgets wird ein vordefinierter Filter angewendet, der die Klassen bicycle, motorbike sowie person automatisch herausfiltert, um lediglich relevante Fahrzeuge zu berücksichtigen.
Weitere Details finden Sie in der folgenden Tabelle:
Wenn Sie die aktuelle Auslastung Ihres Parkplatzes erfahren und abrufen möchten, gibt Ihnen dieses Widget mit einem Klick Auskunft.
Wählen Sie einfach Current Parking Utilization als Widget aus, benennen Sie diesen und suchen Sie sich je nach Bedarf aus, ob über die Einzel- oder Mehrplatzerfassung oder basierend auf Zählungen der Ein- und Ausfahrten berechnet werden soll. Dies hängt natürlich von der jeweiligen Konfiguration Ihres Anwendungsfalls ab.
Um die Auslastungstrends Ihres Parkbereichs zu sehen, können Sie dieses Widget verwenden, das Ihnen die Möglichkeit bietet, die Daten in bestimmten Zeitabschnitten zu aggregieren.
Es besteht zudem die Möglichkeit, die Auslastung entweder basierend auf Einzel- oder Mehrplatzerfassung oder basierend auf Zählungen der Ein- und Ausfahrten berechnen zu lassen.
Sie können den Durchschnitt, das Minimum und das Maximum der gewählten Aggregationsperiode anzeigen lassen. Darüber hinaus können Sie zwischen absoluten oder prozentualen Werten wählen.
Als standardmäßiger Output ist hier das Liniendiagramm
eingestellt, das Sie je nach Bedarf anpassen können.
Wenn Sie herausfinden möchten, wie häufig die verschiedenen Einfahrten und Ausfahrten von Fahrerinnen und Fahrern genutzt werden, ist dieses Widget perfekt geeignet.
Zunächst müssen die verschiedenen Ein- und Ausfahrten ausgewählt werden, die berücksichtigt werden sollen, damit die Daten entsprechend angezeigt werden. Danach können diese nach Bedarf aggregiert und segmentiert werden.
Im untenstehenden Beispiel sehen Sie, wie oft Fahrzeuge eine bestimmte Ein- oder Ausfahrt (je nach Richtung der Counting Line) pro Tag nutzen:
Die Parkdauer wird angezeigt, sobald ein Fahrzeug in den Parkbereich fährt und diesen wieder verlässt. Sollte das Kennzeichen weder beim Einfahren noch beim Ausfahren erkannt werden, wird entsprechend keine Parkdauer berechnet. Dieser Schritt ist notwendig, um die Gesamtstatistiken nicht zu verfälschen.
In diesem Widget wird die Parkdauer pro Kennzeichen angezeigt. Da Kennzeichen sensible Daten sind, kann die Parkdauer pro Kennzeichen lediglich für die geltende
Aufbewahrungsdauer angezeigt werden. Möchten Sie statistische Informationen zur Parkdauer erlangen, nutzen Sie bitte das Widget Historic Parking Utilization.
Der Output für dieses Widget ist standardmäßig eine Tabelle mit der Parkdauer pro Kennzeichen. Wenn Sie darüber hinaus Informationen benötigen, können Sie eine Datensegmentierung hinzufügen. So können Sie sich beispielsweise anzeigen lassen, wo das Fahrzeug mit einem bestimmten Kennzeichen eingefahren und ausgefahren ist. Oder Aufnahmen des Kennzeichens im Bereich der jeweiligen Ein- und Ausfahrt sehen.
Bitte beachten Sie, dass unser ANPR-Feature auf der Swarm Perception Box P100 nicht konfiguriert werden kann. Dementsprechend werden in diesem Widget keinerlei Daten angezeigt werden, wenn Sie eine P100 verwenden.
Das Widget für die historische Parkdauer ist perfekt geeignet, wenn Sie sich die minimale, maximale oder durchschnittliche Parkdauer Ihrer Parkplatzkundinnen und -kunden anzeigen lassen möchten.
Die historische Parkdauer wird basierend auf den Kennzeichen berechnet. Sollte das Kennzeichen weder beim Einfahren noch beim Ausfahren erkannt werden, wird auch keine Parkdauer berechnet. Dieser Schritt ist notwendig, um die Gesamtstatistiken nicht zu verfälschen.
Im Vergleich zum Widget Parking Time sind diese Daten historisch verfügbar, je nach dem von Ihnen gewählten Zeitraum der Datenaufbewahrung. Diesen Zeitraum können Sie im Swarm Control Center festlegen. Jedes Mal, wenn eine Parkzeit erfasst wird, wird sie zur Berechnung des Durchschnitts, des Minimums und des Maximums hinzugefügt. Dadurch können Parkzeitinformationen und Trends berechnet werden, ohne sensible Daten länger zu speichern.
Der standardmäßig definierte Output ist hier ein Liniendiagramm, das Sie je nach Bedarf anpassen können. Darüber hinaus kann auch die Datenaggregationsperiode geändert werden.
Bitte beachten Sie, dass unser ANPR-Feature auf der Swarm Perception Box P100 nicht konfiguriert werden kann. Dementsprechend werden in diesem Widget keinerlei Daten angezeigt werden, wenn Sie eine P100 verwenden.
Wenn Sie untersuchen möchten, ob Ihre Parkplatzkund:innen länger als erlaubt Ihren Parkbereich nutzen, ist dieses Widget perfekt geeignet.
Unsere Lösung kann Ihnen dabei helfen, etwaige Vollstreckungsverfahren zu automatisieren, da Kennzeichen mit Überschreitung der erlaubten Parkdauer mitgeteilt werden. Um auch Beweise dafür zu haben, nimmt unsere Software ein Bild des Fahrzeugs samt Kennzeichen und Zeitstempel auf, wenn besagtes Fahrzeug den Parkbereich befährt und verlässt.
Dafür müssen Sie lediglich das Widget Parking Time Violation auswählen, alles weitere wird automatisch im Hintergrund erledigt - basierend auf dem von Ihnen in der Konfiguration festgelegten Parameter für die maximale Parkdauer.
Sie können sich das Beweisbild anzeigen lassen, indem Sie auf Show klicken. Um diese Informationen herunterzuladen, können Sie die Tabelle im csv-Format exportieren und erhalten die Bilder so als ZIP-Datei.
Bitte beachten Sie, dass unser ANPR-Feature auf der Swarm Perception Box P100 nicht konfiguriert werden kann. Dementsprechend werden in diesem Widget keinerlei Daten angezeigt werden, wenn Sie eine P100 verwenden.
Nutzen Sie dieses Widget, wenn Sie die Belegung Ihrer Einzel- und Mehrplatzparkplätze registrieren möchten.
Sie sehen in Form einer Rasteransicht den Belegungsstatus jeder Ihrer konfigurierten Parkplätze. Wenn Sie nur bestimmte Parkplätze anzeigen lassen möchten, können Sie diese entsprechend über die Regions of Interest auswählen.
Die Widgets Journey Distributions und License Plates ermöglichen die Segmentierung nach License Plate Area.
Zugriff auf die zugrunde liegenden Daten von Data Analytics, bzw. der Widgets via API.
Für jedes Widget in Data Analytics können die zugrunde liegenden Daten über eine bereitgestellte abgefragt werden. Die Integration in Anwendungen von Drittanbietern funktioniert schnell und unkompliziert.
Sobald Sie ein Widget konfigurieren, finden die den Punkt API Call im Seitenmenü. Diese Option ist für jedes Widget verfügbar.
In der untenstehenden GitHub-Repository finden Sie Beispielcodes, die zeigen, wie Sie die Daten in Ihre eigene Anwendung integrieren können. Es wird veranschaulicht, wie Sie die erforderliche Authentifizierung durchführen und Abfragen durchführen können.
Untenstehend sehen Sie ein Widget in Data Analytics, das für die Fahrradzählung genutzt wird. Der entsprechende Widget-Typ (Traffic Counting) wurde ausgewählt, die Daten werden pro Tag aggregiert, nach Objektklasse und Richtung aufgeschlüsselt und nach Fahrrädern gefiltert.
API-Request
Der API-Call zeigt den entsprechenden GET-Request für diese Daten wie untenstehend dargestellt:
API-Response (gekürzt):
Kameramontage - horizontaler Winkel zum Objekt
Beispiele:
Kameramontage - horizontaler Winkel zum Objekt
Kameramontage - horizontaler Winkel zum Objekt
Kameramontage - horizontaler Winkel zum Objekt
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den oder einen .
Kameramontage - horizontaler Winkel zum Objekt
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den oder einen .
Kameramontage - horizontaler Winkel zum Objekt
Die Verwendung der unten definierten Kameraparameter gewährleistet das Erreichen des mindestens erforderlichen PPM-Werts. Tipp: Verwenden Sie den oder einen .
5-20 m Bitte beachten Sie, dass der Zoom je nach Abstand angepasst werden muss. Weitere Details finden Sie in der .
3-8 m Bitte befolgen Sie die im Detail.
Hinweis: Durch das Einstellen des korrekten Abstands zum Fahrzeug und der optimalen Montagehöhe sollte der korrekte vertikale Winkel zum Objekt erreicht werden. Weitere Informationen dazu finden Sie ebenfalls in der .
Kameramontage - horizontaler Winkel zum Objekt
Nummer | Beschreibung |
---|---|
Bezeichnung | Details |
---|---|
Single Space Parking | Multi Space Parking | Generisch | |
---|---|---|---|
Im Abschnitt der Custom Rules können Sie unter Action auf das -Symbol klicken, um die Regel als Template zu speichern. Wenn eine Regel als Template gekennzeichnet ist, wird sie entsprechend durch das -Symbol angezeigt:
Regeln können ganz einfach bearbeitet werden mit einem Klick auf das -Symbol. Wenn Sie auf das -Symbol klicken, können Sie eine Regel löschen. Dieser Vorgang muss bestätigt werden.
Bezeichnung | Beschreibung | Wert/Info |
---|---|---|
Status | Beschreibung |
---|---|
Um beispielsweise eine Kreuzung zu analysieren und zu sehen, wie der Verkehr sich dort verhält, können Sie die Origin-Destination-Analyse verwenden, die genau auf diesem basiert.
Ihre Kameras werden dann in derselben Ansicht angezeigt wie in der . Außerdem können Sie direkt den Kameraframe sehen und so ganz einfach das Szenario entsprechend .
Benennen Sie Ihr Dashboard und tragen Sie eine Beschreibung ein. Gerade bei mehreren Dashboards empfehlen wir dies, damit es nicht zu Verwechslungen kommt. Wählen Sie das Szenario entsprechend des Anwendungsfalls, den Sie mit dem Dashboard abdecken möchten (, oder ).
Für ein Parkplatzszenario können Sie weitere Parameter einstellen. Spezifische Informationen dazu finden Sie im entsprechenden .
Dieses Widget ist für die Ermittlung der Parkdauer konzipiert und funktioniert auf Basis unseres ANPR-Features. Zur Erinnerung: Dieses kann konfiguriert werden.
Das dann angezeigte Dialogfeld enthält detaillierte Informationen darüber, wie der API-Call für die Daten dieses Widgets aussieht. Kopieren Sie den bereitgestellten und führen Sie ihn entsprechend aus. Sie können den Call direkt im Dialogfeld testen, einschließlich des Antwortformats, indem Sie auf Try it out! klicken:
Dieser Access Token ist temporär. Für eine dauerhafte Integration in Anwendungen von Drittanbietern benötigen Sie einen permanenten Token. Melden Sie sich diesbezüglich gerne bei unserem .
Wir halten uns strikt an den von Microsoft dokumentieren . Es gibt mehrere , die Sie verwenden können.
Die REST-API basiert auf Cube.js. Weitere Informationen und Details dazu und zur Funktionsweise generell finden Sie in dieser .
Geräteinformation: Durch Klicken auf das Stiftsymbol können Sie den Namen der Perception Box ändern. Dabei gibt es keinerlei Einschränkungen, Sie können beliebige Sonderzeichen und so viele Zeichen wie gewünscht verwenden.
Zudem finden Sie oben die Device ID und Device serial number des Geräts mit der Option, diese in die Zwischenablage zu kopieren. Die ID benötigen wir im Support, um Ihr Gerät einwandfrei zuordnen zu können. Die Seriennummer finden Sie außerdem auf dem Label auf der Box selbst.
Hier sehen Sie die Kameras pro Gerät (mit individueller Benennung). Die Kamerabezeichnung kann in den Kameraeinstellungen geändert werden. Diese öffnen sich, wenn Sie auf eine Kamera in der Liste klicken.
Add camera: Über diesen Button können Sie weitere Kameras hinzufügen.
Retrieve logs und Reboot device:
Sie haben die Möglichkeit, sich die Software-Logs anzeigen zu lassen, um einen detaillierten Überblick zu erhalten, falls die Box nicht wie erwartet funktioniert. Dort können Sie etwa sehen, ob die Box eine Verbindung zur Kamera herstellen kann. Sollte dem nicht so sein, überprüfen Sie bitte zunächst die Kamera- und Netzwerkeinstellungen auf Ihrer Seite.
Wie jede Hardware brauchen auch unsere Perception Boxen von Zeit zu Zeit einen Reboot. Nutzen Sie dafür den Button Reboot device.
Hier sehen Sie den Status der Kameras. Dieser gibt Infos darüber, ob die Software, der Kamera-Input und die MQTT-Verbindung auf Kameraebene funktionieren. Weitere Details zu möglichen Status finden Sie auf der Seite Kamera- und Gerätekontrolle.
RTSP
Müssen im Videocodec H264 or H264+ konfiguriert werden. Mehr Details finden Sie im Abschnitt Lösungsbereiche.
USB camera
Müssen als V4L-Gerät unter /dev/video0
verfügbar sein. Die folgenden Spezifikationen werden supported:
RAW-Farbbildformat: UYVY, YUY2, YVYU
Auflösung: 1080p
Weitere Kameraeinstellungen wie Verschlusszeit, Helligkeit, FPS, usw. sind kamera-/sensorspezifisch und müssen individuell kalibriert werden, um optimale Ergebnisse zu erzielen. Stellen Sie bitte außerdem sicher, dass Sie eine USB 3.0.-Kamera verwenden, um von der vollen Bildrate profitieren zu können.
Event-Trigger
Dauer (Time)
Dauer (Time)
Dauer (Time) oder Status (Occupancy)
Event-Typ
Parking
Parking
People und Traffic
Anzahl der voreingestellten Objekte
1
5
1
Farbe
dunkelgrün
lila
hellgrün
Brightness (Helligkeit)
Bestimmt, wie dunkel oder hell das Kamerabild ist.
Von 0 (dunkel) zu 10 (hell)
Contrast (Kontrast)
Unterschied zwischen hellen und dunklen Bereichen des Kamerabildes.
Von 0 (geringer Kontrast) zu 10 (sehr hoher Kontrast)
Saturation (Sättigung)
Beschreibt die Tiefe, bzw. Intensität der Farben im Kamerabild.
Von 0 (geringe Farbintenstität) zu 10 (hohe Farbintensität)
Sharpness (Schärfe)
Bestimmt, wie klar Details im Kamerabild dargestellt werden.
Von 0 (wenig Details) zu 10 (detailreich)
Shutter speed (Verschlusszeit)
Geschwindigkeit, mit der der Verschluss der Kamera schließt (Belichtungszeit).
Ein schnellerer Verschluss kann unscharfe Bilder verhindern, jedoch erfordern schlechte Lichtverhältnisse manchmal einen höheren Wert. Werte werden in Sekunden angegeben, z.B. 1/200s = 0.005s
Day/Night mode (Tag-/Nachtmodus)
Wählen Sie zwischen Tag-/Nacht- und Auto-Modus, der den IR-Cut-Filter je nach Eingabe des Kamerasensors verwendet.
Day, Night, Auto
Wide Dynamic Range (WDR)
Für Szenarien mit hohem Kontrast hilft WDR, auch in sehr dunklen/hellen Bereichen Details zu erkennen.
Wenn WDR aktiviert ist, kann danach der Intensitätspegel angepasst werden.
Zoom
Motorisierter optischer Zoom der Kamera.
Es stehen zwei Zoomstufen zur Verfügung, die durch die + und - Tasten angezeigt werden. Der Zoom wird direkt auf der Kamera angewendet und kann nicht automatisch zurückgesetzt werden.
Counting Line (Zählung) | Anzahl der Objekte, die eine Counting Line überqueren. Kann nach Richtung oder Klassifizierung aufgeteilt werden. |
Counting Line (Differenz In/Out) | Differenz der Objekte, die eine Counting Line jeweils in In- und Out-Richtung überquert haben. Differenz = In-Zählung minus Out-Zählung. |
Origin-Destination-Analyse (Zählung) | Anzahl der Objekte, die sich in einer Szene von Ursprungszone in Zielzone bewegt haben. |
RoI: Durchschnitt (person/car/truck/bus) | Durchschnittliche Anzahl der Objekte, die innerhalb der Region of Interest detektiert wurden. Es können mehrere Klassen ausgewählt werden. |
RoI: Minimum (person/car/truck/bus) | Minimumanzahl der Objekte, die innerhalb der Region of Interest detektiert wurden. Es können mehrere Klassen ausgewählt werden. |
RoI: Maximum (person/car/truck/bus) | Maximumanzahl der Objekte, die innerhalb der Region of Interest detektiert wurden. Es können mehrere Klassen ausgewählt werden. |
Virtual Door (Zählung) | Anzahl der Objekte, die sich durch eine Virtual Door bewegt haben. Bitte denken Sie hier daran, dass nur Objekte gezählt werden, die entweder aus der VD herausgekommen sind und anschließend durch die VD verschwinden (oder umgekehrt). |
Virtual Door (Differenz In/Out) | Differenz der Objekte, die sich jeweils in In- und Out-Richtung durch eine VD bewegt haben. Differenz = In-Zählung minus Out-Zählung. |
car
Car umfasst kleine bis mittelgroße Autos bis hin zu SUVs, Pickups und Minivans (z.B. VW Caddy. Diese Klasse beinhaltet keine Autos, die einen Anhänger ziehen.
car
van
car
car with trailer
PKW und Transporter, die einen Anhänger ziehen, gelten als car with trailer. Für eine korrekte Klassifizierung müssen das gesamte Fahrzeug sowie mindestens eine der Achsen des Anhängers sichtbar sein.
truck
single unit truck
Single unit trucks sind als Einheitstransporter definierte Fahrzeuge mit zwei oder mehr Achsen. Wichtig für die Definition ist, dass Zugfahrzeug und Sattelauflieger nicht voneinander getrennt werden können.
truck
articulated truck
Articulated trucks sind große Fahrzeuge mit mehr als zwei Achsen, bei denen Sattelzug und Sattelauflieger getrennt werden können. Ein Sattelzug ohne Auflieger wird als single unit truck klassifiziert.
truck
truck with trailer
Single unit trucks oder articulated trucks, die einen weiteren Anhänger ziehen, werden als truck with trailer definiert.
bus
-
motorbike
-
Die Klasse motorbike umfasst eine Person, die ein motorisiertes einspuriges Fahrzeug fährt. Dazu zählen auch Motorräder mit Beiwagen, E-Bikes gehören nicht zu dieser Klasse. Motorräder ohne Fahrer:in werden nicht berücksichtigt.
bicycle
-
Die Klasse bicycle umfasst eine eine Person, die aktiv Fahrrad fährt. Personen, die ein Fahrrad schieben, sind in dieser Klasse nicht enthalten und gelten als person. Fahrräder ohne Fahrer:in werden nicht berücksichtigt.
person
-
Die Klasse person umfasst Fußgänger:innen sowie Personen, die Segways, Skateboards, usw. fahren. Auch Personen, die ein Fahrrad oder einen Kinderwagen schieben, zählen zu dieser Klasse.
scooter
Die Klasse scooter umfasst eine Person, die auf einem Scooter fährt, der entweder motorisiert ist oder nicht. Ein Scooter besteht im Normalfall aus zwei Rädern und einem Lenker.
tram
Die Klasse tram bezeichnet ein öffentliches Verkehrsmittel, das auf Schienen entlang von Straßen oder dezidierten Straßenbahnstrecken verkehrt. Straßenbahnen werden in der Regel elektrisch betrieben und beziehen ihren Strom aus Oberleitungen.
other
-
Das Gerät ist betriebsbereit und mit Strom sowie mit dem Internet verbunden.
Das Gerät ist offline (kein Strom, kein Internet, etc.). Es gibt mehrere einfache Schritte, die Sie überprüfen können, bevor Sie unser Support-Team kontaktieren.
Alles bestens - alle Kameras, die auf Ihrem Gerät konfiguriert sind, laufen wie sie sollen.
Mindestens eine Kamera auf dem Gerät ist nicht konfiguriert. Überprüfen Sie den Status im Kameramonitoring für weitere Details.
Mindestens eine Kamera sendet keine Daten wie erwartet.
Mindestens eine Kamera auf dem Gerät hat den Status Warning.
Das Gerät ist offline. Überprüfen Sie, ob die Hardware an die Stromversorgung angeschlossen ist und eine Netzwerkverbindung besteht.
Wenn Sie soeben die Konfiguration einer der Kameras geändert haben, wird dieser Status für maximal fünf Minuten angezeigt, bevor der Status neu ermittelt wird.
Mindestens eine Kamera ist deaktiviert.
Alles ist in Ordnung und Ihre Kamera läuft wie erwartet. Die Software läuft ebenfalls reibungslos, die Kameraverbindung ist verfügbar und der MQTT-Broker verbunden.
Die Kamera ist nicht konfiguriert. Sie müssen die Kamera und Datenverbindung sowie Ihre jeweilige Konfiguration entsprechend Ihrem Anwendungsfall konfigurieren.
Es werden zwar noch Daten erzeugt und geliefert, aber es gibt Probleme, die sich auf die Genauigkeit der Daten auswirken könnten. Problemtypen: a) Videobilder können nicht korrekt abgerufen werden; min. 10% der Bilder sind fehlerhaft b) Probleme der Performance: Die fps-Anzahl liegt unter der Mindestgrenze der konfigurierten Eventtypen
Die Software läuft nicht; es werden keine Daten erzeugt. Problemtypen: a) Docker-Container und/oder Software läuft nicht korrekt, bitte kontaktieren Sie den Support. b) Daten können nicht an MQTT-Endpunkt gesendet werden: es gibt mehr als 10 MQTT-Ereignisse, die seit min. 10 Sekunden erfolglos an MQTT-Broker gesendet wurden. Bitte überprüfen Sie, ob der Broker aktiv ist. c) Kamera nicht verbunden: Die Kameraverbindung kann nicht hergestellt werden. Überprüfen Sie, ob die Kamera eingeschaltet ist und ob Kameradaten (Benutzername, Passwort) korrekt konfiguriert sind.
Die Swarm Perception Box, bzw. Ihre Hardware ist offline. Überprüfen Sie die Stromversorgung sowie Netzwerkverbindung.
Wenn Sie kürzlich die Konfiguration angepasst haben, wird der Status für etwa fünf Minuten auf Pending gesetzt, bis der korrekte Status ermittelt wird.
Der Stream ist deaktiviert und kann nur wieder aktiviert werden, wenn ausreichend Lizenzen verfügbar sind. Dieser Status kann auch verwendet werden, um eine Konfiguration für einen späteren Zeitpunkt zu speichern, ohne, dass das Geräte aktuell benötigt wird.
Anwendungsfall für schrankenloses Parken unter Verwendung von ANPR auf dem Parkplatz.
Sie möchten mehr Einblicke darüber erhalten, wie die Kund:innen Ihre Parkplätze nutzen? Unsere Software bietet die Lösung, um die benötigten Daten für eine Parkraumüberwachung zu sammeln.
Um Ihre Parkinfrastruktur effizient zu verwalten, ist die Sammlung von genauen und zuverlässigen Daten entscheidend. Unsere Lösung basiert auf Künstlicher Intelligenz und ist darauf ausgelegt, Fahrzeuge auf Parkplätzen zu erkennen, zu zählen und zu klassifizieren - egal ob im Innen- oder Außenbereich. Die generierten Daten können anschließend als Informationsgrundlage dienen, um Kund:innen in Parkhäusern oder auf Außenparkplätzen proaktiv zu leiten oder z.B. Parkverstöße zu erkennen sowie zu verwalten. In kurz: Wir können Ihnen dabei helfen, Fragen wie die diese zu beantworten:
Wie ist die aktuelle Auslastung meines Parkplatzes?
Wie hoch ist die historische Parkauslastung im Durchschnitt?
Wie lange parken meine Kund:innen?
Gibt es eine Möglichkeit, Parkverstöße (z.B. Langzeitparken) zu erkennen und nachzuweisen?
Technisch besteht unser Parküberwachungssystem auf den folgenden Teilen: Objekterkennung; Objekttracking; Zählung der Objekte, die eine virtuelle Linie im Interessenbereich überqueren; sowie Objektklassifizierung an ANPR - also die automatische Nummernschilderkennung. Nachfolgend werden wir diese Technologien kurz beschreiben.
Die Hauptaufgabe ist es hierbei, die relevanten Objekte zu erkennen und sie vom Hintergrund des Kamerastreams zu unterscheiden. Dies gelingt durch entsprechendes Training unseres Algorithmus, ein Auto als ein Objekt von Interesse zu erkennen - statt beispielsweise einen Baum. Die Computer-Vision-Technologie befasst sich mit der Lokalisierung des Objekts. Das heißt, wenn das Objekt in einem Bild aus den Frames per Second des analysierten Kamerastreams erkannt wird, wird es einer der vordefinierten Klassen zugeordnet.
Die erkannten Objekte werden also klassifiziert, um so die verschiedenen Fahrzeugtypen zuordnen zu können - bzw. die verschiedenen Arten von Verkehrsteilnehmern. Allgemein kann, abhängig von Gewicht, Achsen und anderen Merkmalen, die Software die auf den Kamerabildern erkannten Objekte einer der vorab trainierten Klassen zuordnen. Unser maschinelles Lernmodell liefert für jedes Objekt eine der von uns erkannten Objektklassen als Ausgabe.
Wo im Kamerabild wurde das Objekt ursprünglich erkannt und wohin hat es sich anschließend bewegt? Unsere Software erkennt dasselbe Objekt fortlaufend und kann so seine Bewegungsrichtung über mehrere Frames verfolgen. Die gesammelten Daten ermöglichen es Ihnen so, den genauen Weg eines Objekts zu visualisieren, zum Beispiel für die Erstellung von Heatmaps, oder auch die Analyse häufig genutzter Bereiche in einer Szene, sowie für die Planung strategischer Infrastrukturbedürfnisse.
Eine weitere Technologie, die in unserer Traffic Insights Lösung, bzw. bei der Verkehrszählung eingesetzt wird, ist die Counting Line (CL). Durch das manuelle Zeichnen einer virtuellen Linie direkt in unserem Swarm Control Center bieten wir die Möglichkeit, die Objekte zu quantifizieren, die eben genau diese virtuelle Linie überqueren. Wenn Objekte erfolgreich erkannt und getrackt werden, bis sie die CL erreichen, löst unsere Software ein Event aus und aktualisiert den Zähler für diese Linie dementsprechend und fortlaufend.
ANPR steht für Automatic Number Plate Recognition. Weitere Einstellungen und Kameraanforderungen finden Sie in der Beschreibung des entsprechenden Anwendungsfalls. Um das Kennzeichen des Fahrzeugs zu identifizieren, verwenden wir die optische Zeichenerkennung (Optical Character Recognition).
OCR steht für Optical Character Recognition und bedeutet im Grunde genommen, dass ein Bild von Buchstaben in Buchstaben selbst umgewandelt wird. Eine detailreichere Beschreibung gibt es hier. Mit unserer ANPR-Lösung scannen wir also das Bild des erkannten Fahrzeugs. Aus diesem Bild liest dann unsere OCR-Lösung die Kombination des Kennzeichens. Die Erkennung dieses Bildes bei der Ein- sowie Ausfahrt des Fahrzeugs ermöglicht es also, die Parkdauer eines einzelnen Fahrzeugs zu erfassen.
Vor dem Senden eines Events mit den Kennzeicheninformationen eines Fahrzeugs, sobald dieses den Parkbereich befährt, führt unsere System die nachfolgenden Schritte aus:
Unser Performance Lab ist wie eine echte Installation der realen Welt aufgebaut. Für jede Szene senden wir ein Testvideo von einem RTSP-Server via Ethernet an alle unsere Geräte. Die zu testenden Modelle und Softwareversionen laufen auf den Geräten und senden Nachrichten an einen MQTT-Broker. Die abgerufen Nachrichten werden mit den Ground-Truth-Zählungen verglichen, um Genauigkeitsmessungen zu liefern und die Gesamtstabilität des Systems zu gewährleisten:
Unsere Testumgebung für die Parkplatzanalyse kombiniert mit ANPR umfasst die folgenden Szenarien:
Um besser nachvollziehen zu können, wie wir unsere Genauigkeitswerte interpretieren, haben wir einige technische Details zu unserer Lösung im entsprechenden Setup gegeben. Die detaillierte Berechnung unserer Genauigkeit sowie eine Erklärung unserer Testinstallation haben wir im folgenden Abschnitt dokumentiert:
Unsere ANPR-Lösung erreicht eine Genauigkeit von über 90%.
Allgemein gesprochen gibt es mehrere Gründe, warum Systeme für die Parkraumüberwachung keine Genauigkeit von 100% erreichen können. Diese Gründe lassen sich in verschiedene Kategorien (technologischer Natur, umweltbedingt oder softwareseitig) einteilen, die in der Regel zu Zählfehlern führen. Angesichts unserer technischen und und umweltbedingten Voraussetzungen, die in unserer Setup-Dokumentation festgehalten sind, haben wir folgende potentielle Gründe für Einschränkungen in der bereitgestellten Software festgestellt:
Crossing Lines sind nicht korrekt positioniert
Fahrzeuge und/oder Kennzeichen sind von anderen Fahrzeugen, bzw. Objekten verdeckt
Das Kamerabild ist zu dunkel, überbelichtet oder verschwommen, als dass Objekte erkannt werden könnten. Bitte schauen Sie sich dahingehend die Dokumentation zu den Parking Insights an:
Der Anwendungsfall der Verkehrszählung in Kombination mit Klassifizierung in unsere Haupt- und Unterklassen.
Sie möchten mehr über die Verkehrssituation auf einer Straße oder Autobahn erfahren? Unsere Software bietet die Lösung dafür, um die Anzahl der Fahrzeuge zu erfassen und diese in Objekttypen, bzw. Klassen, und nach Fahrtrichtung aufzuschlüsseln.
Für eine effiziente Verkehrsinfrastruktur ist die Erfassung genauer und zuverlässiger Daten entscheidend. Unser Software basiert auf einer KI und ist in der Lage, Objekte in Verkehrsszenarien zu erkennen, zu zählen und zu klassifizieren. Die generierten Daten können dann als Informationsgrundlage dienen, um Entscheidungsprozesse in großen Smart-City-Prozessen zu unterstützen sowie grundsätzliche Fragen zu lokalen Verkehrssituationen zu beantworten, beispielsweise:
Wie viele LKW nutzen pro Tag eine innerstädtische Kreuzung?
Smart Insights in die Verkehrslast - müssen Straßen erweitert werden?
Wo kommt es zu Momenten des Falschfahrens? In welcher Häufigkeit?
Wann und wo wird geparkt? Für wie lange? Wer steht im Halteverbot?
Wer steht warum auf dem Seitenstreifen der Autobahn?
Welche Straßen werden wie häufig von welchen Fahrzeugen genutzt?
…
Technisch gesehen besteht unser Verkehrszählsystem aus den folgenden Teilen: Objekterkennung; Objekttracking; Zählen der Objekte, die eine virtuelle Linie im entsprechenden Bereich überqueren; und Objektklassifizierung. Nachfolgend werden die vorab trainierten Technologien, die bei der Verkehrszählung verwendet werden, kurz erläutert:
Die Hauptaufgabe ist es hierbei, die relevanten Objekte zu erkennen und sie vom Hintergrund des Kamerastreams zu unterscheiden. Dies gelingt durch entsprechendes Training unseres Algorithmus, ein Auto als ein Objekt von Interesse zu erkennen - statt beispielsweise einen Baum. Die Computer-Vision-Technologie befasst sich mit der Lokalisierung des Objekts. Das heißt, wenn das Objekt in einem Bild aus den Frames per Second des analysierten Kamerastreams erkannt wird, wird es einer der vordefinierten Klassen zugeordnet.
Die erkannten Objekte werden also klassifiziert, um so die verschiedenen Fahrzeugtypen zuordnen zu können - bzw. die verschiedenen Arten von Verkehrsteilnehmern. Allgemein kann, abhängig von Gewicht, Achsen und anderen Merkmalen, die Software die auf den Kamerabildern erkannten Objekte einer der vorab trainierten Klassen zuordnen. Unser maschinelles Lernmodell liefert für jedes Objekt eine der von uns erkannten Objektklassen als Ausgabe.
Wo im Kamerabild wurde das Objekt ursprünglich erkannt und wohin hat es sich anschließend bewegt? Unsere Software erkennt dasselbe Objekt fortlaufend und kann so seine Bewegungsrichtung über mehrere Frames verfolgen. Die gesammelten Daten ermöglichen es Ihnen so, den genauen Weg eines Objekts zu visualisieren, zum Beispiel für die Erstellung von Heatmaps, oder auch die Analyse häufig genutzter Bereiche in einer Szene, sowie für die Planung strategischer Infrastrukturbedürfnisse.
Eine weitere Technologie, die in unserer Traffic Insights Lösung, bzw. bei der Verkehrszählung eingesetzt wird, ist die Counting Line (CL). Durch das manuelle Zeichnen einer virtuellen Linie direkt in unserem Swarm Control Center bieten wir die Möglichkeit, die Objekte zu quantifizieren, die eben genau diese virtuelle Linie überqueren. Wenn Objekte erfolgreich erkannt und getrackt werden, bis sie die CL erreichen, löst unsere Software ein Event aus und aktualisiert den Zähler für diese Linie dementsprechend und fortlaufend.
Bei der Verkehrszählung unterscheiden wir die folgenden Anwendungsfälle: Autobahn/Highway, Kreisverkehr, städtischer Verkehr und Landstraße. Wir messen die Genauigkeitswerte individuell für jede Szene. Auf diese Weise wird sichergestellt, dass jede neue Version unseres Modells nicht nur die Genauigkeit verbessert, sondern auch stabilere und genauere Messwerte liefert.
Unser Performance Lab ist wie eine echte Installation der realen Welt aufgebaut. Für jede Szene senden wir ein Testvideo von unserem Happytime RTSP-Server via Ethernet an alle unsere Geräte. Die folgenden Abschnitte bieten einen Überblick über zwei Szenen, bevor wir uns die Performance genauer anschauen.
Bei der Messung der Leistung unserer Verkehrszählungslösung ist die Auswahl der Szenen von entscheidender Bedeutung. Wir wählen stets realistische Szenarien aus beispielsweise bestehenden Installationen sowie öffentlich verfügbaren Videomaterialien aus. Wir stellen sicher, dass die in unserem Testlabor ermittelten Genauigkeitswerte die Realität so gut wie möglich widerspiegeln. Das für die Leistungstests verwendete Videomaterial erfüllt deswegen alle in unserer Installations-Dokumentation festgelegten Anforderungen.
Szenenbeschreibung: Autobahn mit vier Fahrspuren
Aufgabe: Zählung der Pkw und Lastwagen in beiden Richtungen
Konditionen: Tageslicht
Kamerakonfiguration: 1280 × 720 Auflösung, Montage in 6 m Höhe, Distanz von 20 m
Objektgeschwindigkeit: 60-130 km/h
Objektanzahl: >900
Szenenbeschreibung: Kreisverkehr mit vier Ausfahrten
Aufgabe: Zählung der Pkw und Lastwagen in acht Richtungen
Konditionen: Tageslicht
Kamerakonfiguration: 1280 × 720 Auflösung, Montage in 4 m Höhe, Distanz von 30 m
Objektgeschwindigkeit: 5-30 km/h
Objektanzahl: >100
Um besser nachvollziehen zu können, wie wir unsere Genauigkeitswerte interpretieren, haben wir einige technische Details zu unserer Lösung im entsprechenden Setup gegeben. Die detaillierte Berechnung unserer Genauigkeit sowie eine Erklärung unserer Testinstallation haben wir im folgenden Abschnitt dokumentiert:
Wir erreichen bei unserer Verkehrszählung eine Genauigkeit von über 93,59%*.
*gilt für unsere Hauptklassen (person, rider, vehicle)
Allgemein gesprochen gibt es mehrere Gründe, warum Verkehrszählsysteme keine Genauigkeit von 100% erreichen können. Diese Gründe lassen sich in verschiedene Kategorien (technologischer Natur, umweltbedingt oder softwareseitig) einteilen. Angesichts unserer technischen und und umweltbedingten Voraussetzungen, die in unserer Setup-Dokumentation festgehalten sind, haben wir folgende potentielle Gründe für Einschränkungen in der bereitgestellten Software festgestellt:
Early Availability Feature für unterstützte Länder
Zusätzlich zum Rohtext des Kennzeichens und der Landeskennzahl unterstützen wir jetzt auch den Ortscode des Kennzeichens. Einige Nummernschilder enthalten eine Ortskennzahl, die mit einem geografischen Gebiet verbunden ist, z. B. "W" für Wien (Österreich) oder "M" für München (Deutschland). Die folgenden 13 Länder werden unterstützt:
Bulgarien
Deutschland
Griechenland
Irland
Kroatien
Norwegen
Österreich
Polen
Rumänien
Schweiz
Slowakei
Slowenien
Tschechische Republik
Bei den unterstützten Ländern erkennen wir Leerzeichen zwischen den Buchstaben und analysieren den Rohtext des Kennzeichens nach einem vordefinierten Format. Bei Ländern, die nicht unterstützt werden (z. B. Italien), enthält das generierte Event entsprechend keinen Ortscode.
Alle Anwendungsfälle, die auf ANPR basieren, werden automatisch unterstützt. Eine zusätzliche Konfiguration ist also nicht erforderlich.
Umschalten zwischen Data Analytics und Device Configuration.
Sortieren, suchen und filtern
Insbesondere wenn Sie eine Vielzahl von Geräten verwalten, ist es oft praktisch nach bestimmten Geräten suchen zu können. Das Control Center bietet außerdem die Möglichkeit, die Liste zu sortieren oder nach einem bestimmten Status zu filtern. Wenn ein Filter gesetzt wurde, wird dieser oben angezeigt und kann zudem ganz einfach wieder gelöscht werden.
Device Name/ID Ihrer Perception Boxen, bzw. Hardware. Sie können den Gerätenamen nach Belieben anpassen. Die ID wird für die Kommunikation zwischen Edge-Gerät und Azure Cloud verwendet.
Dieser Verbindungsstatus (Connection) zeigt an, ob eine Verbindung zwischen der Perception Box und dem Management Hub (Azure) hergestellt ist. Verfügbare Status sind Online, Offline oder Unknown. Wenn ein Gerät unerwarteterweise offline ist, schauen Sie bitte in unsere Tipps zur Fehlerbehebung.
Die Spalte Status gibt Auskunft darüber, ob die Software auf dem jeweiligen Gerät läuft. Schauen Sie sich dazu gerne den Abschnitt Kamera- und Gerätekontrolle an.
Auto refresh: Diese Option ermöglicht es Ihnen, die Seite automatisch zu aktualisieren, sobald Änderungen vorgenommen wurden oder sich ein Status ändert.
Informationen zur API zum Abrufen spezifischer Daten aus dem Swarm Control Center.
Über eine API können Sie alle Einstellungen und Informationen, die im Swarm Control Center verfügbar sind, problemlos abrufen. Nachfolgend finden Sie die Swagger-Dokumentation, als Beispiel fungiert unsere Demo-Instanz: Swagger UI
Im Allgemeinen halten wir uns an den hier dokumentierten OAuth 2.0 Client Credentials Flow (Microsoft).
Stellen Sie sicher, dass Sie Ihre Tenant-ID als Kopfzeile in den Authentifizierungsfluss einfügen.
Um den ersten Teil der URL für Ihre spezifische API-Dokumentation, bzw. Swagger UI zu erhalten, können Sie entweder unseren Support kontaktieren oder sie aus dem Quellcode Ihres Swarm Control Centers abrufen:
In unserem Beispiel lautet die URL:
https://demo-control-center-api-2a97516c.azurewebsites.net/v3/documentation/swagger-ui/#/
Rufen Sie die Swagger UI auf
2. Der API-Call gibt Ihnen wie folgt Auskunft zum Gerätestatus:
3. Die verschiedenen Status sind wie folgt in der API-Dokumentation definiert:
4. Sie können ebenfalls den Status der einzelnen Streams abrufen. Die API liefert folgende Ergebnisse:
Dieser Abschnitt hilft Ihnen dabei, Monitoring Alerts einzustellen, sodass Sie bei Problemen per E-Mail benachrichtigt werden.
Es können automatische E-Mail-Benachrichtigungen erstellt werden, um auf diese Weise sofort über mögliche Probleme mit Swarm Perception Boxen informiert zu werden. Das Erstellen und Verwalten dieser benutzerdefinierten Alerts erfolgt im Abschnitt Monitoring Alerts im Swarm Control Center.
Wählen Sie aus mehreren Templates aus, weisen Sie das entsprechende Gerät zu, definieren Sie Empfänger:in und erhalten Sie sofortige E-Mail-Benachrichtigungen, wenn ein Gerät den Status von Running ändert und nicht mehr betriebsbereit ist.
Hinweis: Lediglich admin-Profile können diese Alerts einrichten und verwalten. Für die Profile user und viewer ist der Abschnitt Monitoring Alerts im Control Center nicht sichtbar.
Beginnen wir mit dem Erstellen von Alerts. Dies erfolgt in drei Schritten:
Die Bedingungen basieren auf dem Verbindungsstatus und Status des Streams. In der untenstehenden Tabelle werden die drei vordefinierten Bedingungen für Alerts erläutert:
Bedingung | Beschreibung | Letzter Status | Neuer Status |
---|---|---|---|
Es muss mindestens eine Bedingung für den Alert ausgewählt werden. Es besteht ebenfalls die Möglichkeit mehrere Bedingungen auszuwählen. Ein Alert wird gesendet, sobald eine von mehreren Bedingungen erfüllt ist, bzw. eintritt. Zudem ist es möglich darüber informiert zu werden, sobald der Fehler nicht mehr vorliegt, die entsprechende Bedingung also nicht länger erfüllt ist:
Im zweiten Schritt müssen die Geräte ausgewählt werden, für die die automatischen Alerts gelten sollen. Links neben Device Name/ID können mit einem Klick alle Geräte dieser Seite der Liste ausgewählt werden. Gibt es mehrere Seiten, muss dieser Schritt auf jeder Seite wiederholt werden. Um bestimmte Geräte, bzw. IDs schnell finden zu können, befindet sich oben rechts eine Suchfunktion:
Im dritten und letzten Schritt bei der Erstellung von Alert müssen sämtliche Empfänger:innen angegeben werden. Durch Klicken auf Add kann eine E-Mailadresse hinzugefügt werden. Es gibt keinerlei Begrenzung bei der Anzahl von Empfänger:innen.
Es ist für die E-Mail-Benachrichtigung nicht notwendig, dass diese Personen Zugriff auf das Control Center haben - jede E-Mailadresse kann hier angegeben werden. Sie können also auch Gruppen-E-Mailadressen Ihrer Teams auswählen.
Im Abschnitt Monitoring Alerts wird eine Tabelle mit sämtlichen konfigurierten Alerts angezeigt. In der Spalte Action kann der jeweilige Alert mit Klick auf das Stiftsymbol bearbeitet, oder, durch Klick auf das Mülleimersymbol, gelöscht werden.
Der Bearbeitungsprozess ist identisch mit dem Erstellungsprozess, den wir hier bereits beschrieben haben.
Überblick über die Art und Weise, wie wir die Performance unserer Modelle messen.
Wir berechnen die Genauigkeit, indem wir die von unserer Verkehrszählungslösung ermittelten Zählungen mit einer manuell ermittelten Ground Truth (GT) vergleichen. Die Bereitstellung korrekter und realistischer Genauigkeitsmaße ist äußerst wichtig, weshalb wir uns größte Mühe geben, unsere GT-Daten zu erhalten.
Zudem stellen wir sicher, dass Szenen aus Leistungsmessungen niemals in unseren Schulungsdatensatz gelangen, um Übertraining und unrealistische Leistungsmessungen zu vermeiden, die in realen Anwendungsfällen nicht erreicht werden können.
Das folgende Beispiel beschreibt die Genauigkeit für Crossing Lines.
Nehmen wir die folgenden Ergebnisse an:
Szene 1 mit zwei Fehlern (1x verpasst, 1x zu viel gezählt)
Szene 2 mit einem Fehler (1x verpasst)
Insgesamt liegen also drei Fehler vor sowie 16 Ground-Truth-Zählungen (5+3+3+5). Dies ergibt eine Genauigkeit von 16-3/16
= 81.25%
.
Nachfolgend eine Berechnung für die Zählgenauigkeit für eine Origin-Destination-Analyse.
Szene 1 hat zwei Fehler (1x verpasst, 1x zu viel gezählt)
Szene 2 hat einen Fehler (1x verpasst)
Insgesamt liegen also drei Fehler vor und 11 GT-Zählungen (5+3+3). Dies ergibt eine Genauigkeit von 11-3/11
= 72.72%
.
Für die automatische Nummernschilderkennung (ANPR) ist die Logik für die Genauigkeit dieselbe wie für das Überqueren von Counting Lines, allerdings mit zwei zusätzlichen Einschränkungen:
Die Fahrzeugklasse wird nicht berücksichtigt
Das im Event gesendete Kennzeichen wird verglichen und muss vollständig mit der GT übereinstimmen
Für dieses Beispiel erhalten wir eine Genauigkeit von 4/6*100% = 66%
.
Für unsere Performance-Messungen verwenden wir verschiedene Arten von Hardware, um eine stabile Version unserer Software zu gewährleisten. Erhalten wir unterschiedliche Ergebnisse in unserem Performance Lab, kommunizieren wir immer den geringsten Wert.
Zur besseren Erklärung: Untenstehend sehen Sie vier verschiedene Geräte sowie ein Beispiel für erzielte Ergebnisse. In diesem Fall würden wir demnach eine Genauigkeit von 90% veröffentlichen.
Verwalten von Benutzerprofilen mit Zugriff auf Ihr Control Center.
Dieser Bereich bietet einen Überblick über alle Benutzer:innen, die Zugang zu Ihrem Control Center haben, sowie die Möglichkeit, Benutzer:innen und Benutzerrollen hinzuzufügen, zu entfernen oder zu bearbeiten.
Um einen neues Benutzerprofil hinzuzufügen, klicken Sie einfach auf New User und füllen Sie alle erforderlichen Felder aus. Der neue Benutzer, bzw. die neue Benutzerin muss ein persönliches Passwort festlegen, indem er, bzw. sie die E-Mail-Adresse über den Workflow Forgot your password auf der Login-Seite verifiziert.
Lediglich die Rolle, bzw. Zugriffsrechte können geändert werden. Wenn Sie die Namen oder E-Mail-Adressen von Benutzern anpassen möchten, müssen Sie dieses Benutzerprofil löschen und anschließend ein neues anlegen.
Viewer: Dies ist eine read-only-Berechtigung für Data Analytics. Sie ermöglicht den Zugriff auf bestehende Szenarien und Dashboards.
User: Kann auf Gerätekonfiguration sowie Datenanalyse zugreifen sowie Geräte neu konfigurieren, Dashboards anlegen und Szenarien erstellen.
Admin: Hat dieselben Zugriffsrechte wie User und kann darüber hinaus auf den Administrationsbereich zugreifen.
Getestete Maximalanzahl von Kameras pro Hardware.
Hier finden Sie eine Übersicht darüber, wie viele Kameras unterschiedlicher Anwendungsfälle Sie auf Perception Boxen sowie Referenz-Hardware für VPX ausführen können. Während des Benchmarkings führen wir Testvideos über RTSP-Kameras aus, indem wir einen RTSP-Server verwenden. Sämtliche Tests werden bei Raumtemperatur durchgeführt.
Perception Box | Verkehrszählung/Kreuzung | Journey Time | Schrankenloses Parken | Schrankenloses Parken mit ANPR | Einzelstellplatzerkennung | People |
---|---|---|---|---|---|---|
Mit der OP101DC (& OP100) können Sie eine Kamera betreiben, da lediglich ein Ethernet-Anschluss zur Verfügung steht.
Bitte beachten Sie an dieser Stelle, dass diese Werte nur erreicht werden, wenn ausschließlich unser VPX-Agent auf der Hardware ausgeführt wird.
32GB SD-Karte
10W Energiemodus mit DC-Barrel-Jack-Stromversorgung. Wir verwenden dieses Netzteil.
Energiemodus | Traffic Insights | Journey Time | Schrankenloses Parken | Barrierless Parking + ANPR | Single / Multi Space | People, Head |
---|---|---|---|---|---|---|
The measured number of streams are dependent on the used power mode.
Um die oben genannten Ergebnisse zu reproduzieren, beschreiben wir im Folgenden unseren Testaufbau. Um RTSP-Kameras zu emulieren, verwenden wir einen RTSP-Server. Alle Tests wurden bei Raumtemperatur durchgeführt.
Orchestrierung der Parameter für das Swarm Control Center.
Der Verwaltungsbereich Ihres Control Centers besteht aus den folgenden drei Unterabschnitten:
Übersicht über Ihre Lizenzen.
Der Bereich Lizenzmanagement gibt Ihnen einen Überblick über Ihre Softwarelizenzen. Dies bedeutet im Einzelnen:
Die Anzahl der aktuell genutzten Lizenzen: Anzahl der aktivierten Kamerastreams. Deaktivierte Streams werden nicht mitgezählt.
Die Gesamtzahl der gekauften Lizenzen: Generell können alle SPS (Swarm Perception Subscriptions) mit jeder Ihnen gehörender Hardware genutzt werden.
Der jeweilige Status der einzelnen Lizenzen
Active: Die Lizenz ist derzeit gültig, und das Ablaufdatum liegt in der Zukunft.
Expired: Die Lizenz ist nicht mehr gültig und daher abgelaufen. Entweder wurde die Lizenz bereits verlängert oder Sie haben sich dazu entschieden, sie auslaufen zu lassen.
Inactive: Die Lizenzperiode beginnt zu einem zukünftigen Datum.
Das Anfangs- sowie Enddatum der jeweiligen Lizenzgültigkeit
Die Bestell- und Rechnungsnummer sowie die Anzahl der Streams, die enthalten sind
Das Hinzufügen oder Aktivieren weiterer Streams ist nur möglich, wenn genügend SPS-Lizenzen vorhanden sind.
So nutzen Sie Ihre benutzerdefinierte MQTT-Verbindung.
Sobald Sie Ihren Anwendungsfall im Swarm Control Center konfiguriert haben, generiert unsere Software Events. Diese werden als Standard-JSON übertragen. Wenn Sie Data Analytics nicht nutzen und die Daten stattdessen lieber via API abrufen möchten, bieten wir Ihnen die Möglichkeit, einen benutzerdefinierten MQTT-Broker zu konfigurieren.
Die Swarm Perception Box sendet Events in Form eines JSON an einen von Ihnen konfigurierten MQTT-Broker. Für die Übertragung wird das QoS Level 1 verwendet. Falls Events nicht zugestellt werden können, z.B. aufgrund einer fehlenden Verbindung, werden Events bis zu 24.000 Messages gecacht.
Für noch höhere Sicherheit können Sie MQTT über SSL verwenden. Fügen Sie dafür einfach das Präfix ssl:// zur Broker-Konfiguration hinzu.
Wenn die Komprimierung konfiguriert ist, werden die Events mit zlib/inflate komprimiert:
Im unten verlinkten GitHub-Repository finden Sie das Event-Schema der verschiedenen Konfigurationstypen:
Es gibt mehrere Möglichkeiten, wie Sie ein JSON gegen ein Schema validieren können. Eine gute Übersicht bietet json-schema.org. Wir empfehlen außerdem jsonschemalint.com als Online-Tool zur manuellen Validierung eines JSON gegen unser Schema.
Der Header des JSON wird durch eine Version des verwendeten Formats definiert (Propertyversion
). Das Format ist major.minor
, wobei eine Änderung der Hauptversion eine Änderung mit Abwärtskompatibilität darstellt. Für eindeutige Identifikatoren verlassen wir uns auf UUID. Zeitstempel werden gemäß ISO8601 definiert.
Ein Counting-Line-Event wird ausgelöst, wenn ein Objekt besagte Counting Line überquert (identifiziert durch lineId
). Diese Linie hat einen benutzerdefinierten Namen (lineName
). Ein Zeitstempel (timestamp
) wird gesetzt, wenn das Event auftritt. Das Objekt kann die Counting Line in zwei Richtungen überqueren (direction
) und sich entweder hinein- (In) oder hinausbewegen (Out). Zusätzlich wird das Objekt, das die CL überquert, klassifiziert (class
und subclass
). Die Klassen hängen vom Anwendungsfall ab.
Wenn das ANPR-Feature aktiviert ist, werden die Kennzeichen (plateNumber
) sowie das Herkunftsland des Kennzeichens (numberPlateOrigin
) zum Event hinzugefügt.
ANPR wird benötigt, um Bilder der Kennzeichen bei Ein- und Ausfahrt zu machen. Die Kennzeichenbilder werden im JPG-Format an die MQTT-Message angehängt und mit BASE64 codiert.
Bitte kontaktieren Sie unseren Support, um Kennzeichenbilder via MQTT zu aktivieren.
Wenn Speed Estimation aktiviert sowie konfiguriert ist, gibt speedestimate
die Ausgabe der Geschwindigkeitsschätzung in km/h an.
Das Region-of-Interest-Event hängt vom Typ der RoI ab. Beispiel: Eine Region of Interest mit dem Typ Parking generiert ein ParkingEvent
, während der Typ Generic ein RegionOfInterestEvent
generiert:
ParkingEvent:
Dieses Event wird in einem Zeitintervall von zehn Sekunden ausgelöst. Die Informationen aller konfigurierten Parking-RoI werden in einem einzelnen Event aggregiert. In parkingSummary
werden alle RoI mit der konfigurierten capacity
und der aktuellen Anzahl der vehicles
in der RoI selbst angezeigt.
Als Gesamtübersicht haben Sie dann totalCapacity
und totalVehicles
, die einen vollständigen Überblick über alle konfigurierten RoI mit dem Typ Parking in diesem Kamerastream geben. Zusätzlich besteht die Möglichkeit, ANPR für Parking-RoI zu aktivieren. Dadurch werden das Kennzeichen (plateNumber
) sowie das Herkunftsland des Kennzeichens (numberPlateOrigin
) im String-Format bereitgestellt.
Ein RegionOfInterestEvent
wird entweder durch eine Zustandsänderung oder ein bestimmtes Zeitintervall ausgelöst (triggerType
). Der Zustand (state
) kann von occupied to vacant oder umgekehrt wechseln. Occupied trifft zu, wenn die Anzahl der Objekte in der RoI mindestens so hoch ist wie zuvor als capacity
konfiguriert.
Jedes Event enthält einen benutzerdefinierten Namen (roiName
) und einen Zeitstempel (timestamp
), wann das Event auftritt, bzw. aufgetreten ist. Erkannte Objekte und ihre zugeordneten Klassen sowie Verweilzeiten werden aufgelistet (objects
). Die Klassen hängen vom Anwendungsfall ab.
Wenn eine Regel für ein bestimmtes Ereignis angelegt wurde, wird ein entsprechendes Rule-Event gesendet. Dieses wird entsprechend basierend auf der gewählten Logik in Kombination mit den definierten Bedingungen ausgelöst. Ein Zeitstempel (timestamp
) wird gesetzt, wenn das Event auftritt. Das Rule-Event enthält allgemeine Informationen zum Namen, zum Gerät und zur Stream-UUID. Darüber hinaus ist die gewählte gewählte, standardmäßige Eventinformation Teil der Message und im gleichen Format wie andere Messages für diese Eventtrigger.
In diesem Modus werden Objekte getrackt, während sie sich im Sichtfeld bewegen. Sobald das Objekt das Sichtfeld wieder verlassen hat, wird entsprechend die vollständige Route des Objekts generiert.
Der Raw Track enthält die Klassifizierung () und die Spur des Objekts durch das Sichtfeld. Die Klassen hängen vom Anwendungsfall ab.
Die Spur ist als eine Abfolge von path
-Elementen definiert, die einen Zeitstempel sowie die Koordinaten enthalten. Die Koordinaten basieren auf dem Punkt der oberen linken Ecke kombiniert mit Breite und Höhe des jeweiligen Objekts. Pro Event gibt es maximal zehn path
-Elemente. Zum besseren Verständnis der Berechnung der Koordinaten dient folgende Aufschlüsselung:
Wie bereits erwähnt, enthält jedes Event eine Information zur Klasse/Klassifizierung des jeweiligen, erkannten Objekts. Zur besseren Übersicht haben wir in Klassen (class) und Unterklassen (sub class) aufgeteilt. Beispiele finden Sie hier:
Beispiel: Eine Counting Line erkennt einen Lieferwagen (van). Hinweis: Die class ist hier car, während die sub class van ist.
Diese Seite bietet eine Sammlung von häufig auftretenden Problemen sowie Schritte zur Lösung dieser.
Wir helfen immer gerne. Bitte nehmen Sie sich dennoch die Zeit, diesen Abschnitt zu lesen, bevor Sie sich über unseren Support an uns wenden und wir gemeinsam eine Lösung finden.
Überprüfen Sie, ob das Gerät eingeschaltet ist
Wird das Gerät via DC mit Strom versorgt (PoE wird nicht unterstützt)?
Entspricht das Netzteil den empfohlenen Spezifikationen (12V, >2A)?
Leuchtet die LED neben dem Ethernet-Anschluss?
Überprüfen Sie die Internetverbindung
Reagiert die P101 auf Pings im lokalen Netzwerk?
Überprüfen Sie, ob das Gerät eingeschaltet ist
Wird das Gerät via DC mit Strom versorgt?
Sind das rote und gelbe Kabel mit dem Pluspol verbunden?
Entspricht das Netzteil den empfohlenen Spezifikationen (24VDC/4A)?
Leuchtet die LED neben dem Ethernet-Anschluss?
Überprüfen Sie die Internetverbindung
Reagiert die P401 auf Pings im lokalen Netzwerk?
Überprüfen Sie, ob das Gerät eingeschaltet ist
Überprüfen Sie die Internetverbindung
Überprüfen Sie, ob Ihre SIM-Karte genügend verbleibendes Datenvolumen hat
Überprüfen Sie, ob die SIM-Karte mit Ihrem LTE-Stick funktioniert. Stecken Sie dazu den LTE-Stick in PC oder Notebook. Deaktivieren Sie das WLAN, bzw. entfernen Sie das Ethernet-Kabel. Wenn Sie einen von uns bereitgestellten Stick verwenden, muss die LED am Stick durchgehend blau oder grün leuchten. Wenn die LED blinkt, besteht keine Internetverbindung. Überprüfen Sie nun, ob Ihr PC oder Notebook mit dem Internet verbunden ist, indem Sie eine Website Ihrer Wahl öffnen. Funktioniert dies, funktioniert der LTE-Steck mit dieser SIM-Karte auch in der OP101.
Überprüfen Sie die OP101
Öffnen Sie die OP101
Können Sie Schäden feststellen, wie z.B. lose Kabel?
Sind LTE-Stick sowie USB-Anschluss ordnungsgemäß eingesteckt?
Sind alle Ethernet-Kabel, die P101, den PoE-Swicht und die Kameras verbinden, ordnungsgemäß eingesteckt?
Hier finden Sie Infos wie Sie Debug-Videos zur Kalibrierung und zur Überprüfung der Leistung aufzeichnen können.
Um detaillierte Einblicke in die Kalibrierung und Performance zu erhalten, können Sie den erweiterten Debug-Mode verwenden.
Aus Gründen der Datensicherheit muss der Debug-Mode manuell von Swarm Analytics aktiviert werden - ist also standardmäßig nicht aktiviert. Kontaktieren Sie dafür bitte unseren .
Der Debug-Mode ermöglicht es Ihnen, unsere Software in Aktion zu sehen. Er ist hauptsächlich für das Debuggen auf Seiten von Swarm Analytics konzipiert, kann aber auch für Anpassungen sowie generell besseres Verständnis der Software genutzt werden. Es gibt mehrere Parameter, die Sie für den Debug-Mode verwenden können. Nachfolgend zeigen wir den am häufigsten genutzten: Die Counting Line.
Denken Sie bitte an die DSGVO, wenn Sie mit dem Debug-Mode arbeiten! Technisch gesehen ist es möglich, den Debug-Modus aufzuzeichnen und so den Datenschutz zu verletzen.
Wenn Sie die ID hinzufügen, können Sie den dedizierten Stream auswählen:
Anforderungen der Swarm Perception Box.
IPv4 ist erforderlich (IPv6 wird nicht unterstützt)
Eine private IP4-Adresse ist in Ordnung. Eine öffentlich routbare IP4-Adresse ist nicht notwendig.
Stellen Sie sicher, dass die MTU-Größe mindestens 1500 Bytes beträgt.
Mindestens 1Mbit/s Download-/Upload-Geschwindigkeit
Die P101/OP101, bzw. der VPX-Agent müssen eine Verbindung zum Swarm Control Center herstellen können, das ist der Microsoft Azure Cloud gehostet wird. Hierfür müssen die folgenden ausgehenden Ports in Ihrer Firewall offen sein:
Port | Protocol |
---|
Normalerweise wird der Kamerastream über Port 554 (TCP/UDP) abgerufen. Wenn Sie Ihren eigenen MQTT-Broker verwenden, stellen Sie sicher, dass die erforderlichen Ports zugelassen sind.
Verbinden Sie Ihren PC mit demselben Netzwerk, mit dem auch die Perception Box verbunden ist.
Stellen Sie sicher, dass IP4 unterstützt wird.
Stellen Sie sicher, dass DNS in der Lage ist, *.azure-devices.net
und *.azure-devices-provisioning.net
aufzulösen.
Stellen Sie sicher, dass alle oben aufgeführten Ports offen sind.
Stellen Sie sicher, dass das TLS-Zertifikat gültig ist und nicht inspected wird. Achten Sie auf die Meldung Verification: OK
.
Wie Sie uns am besten erreichen können.
In diesem Abschnitt finden Sie unsere Whitepaper für diverse Anwendungsfälle.
Häufig gestellte Fragen
In diesem Abschnitt finden Sie alle häufig gestellten Fragen. Wir hoffen, Ihnen damit eine Hilfe bieten zu können. Dieser Bereich wird fortlaufend ergänzt, bzw. aktualisiert.
Die IoTHub-Geräte-ID muss mit der MQTT-Client-ID übereinstimmen
Sie können sich nur mit einem Client für ein bestimmtes IoTHub-Gerät verbinden
Der SAS-Token läuft nach einer vordefinierten Zeit ab und muss aktualisiert werden. Sie müssen den Token sowie das MQTT-Passwort regelmäßig für jeden Stream im Control Center aktualisieren.
Wir setzen die Stream-ID als MQTT-Client-ID. Sie können die MQTT-Client-ID bei Bedarf überschreiben.
für jeden Stream eine entsprechende IotHub-Geräte-ID erstellen (empfohlen) oder
zufällige IotHub-Geräte-IDs erstellen und jedem Stream eine zuweisen, indem Sie die MQTT-Client-ID festlegen
(1) Erstellen Sie ein IotHub-Gerät, kopieren Sie die Stream-ID aus dem Control Center
az iot hub device-identity create --hub-name <hubname> --device-id "<stream-id> --edge-enabled
(2) Erzeugen Sie einen SAS-Token für das IoTHub-Gerät
az iot hub generate-sas-token --hub-name <hubname> --duration 51840000 --device-id <stream-id>
(3) Überprüfen Sie eingehende Events
az iot hub monitor-events --hub-name <hubname> -d "stream-id"
mosquitto_pub -p 8883 -i <stream-id> -u '<hubname>.azure-devices.net/<stream-id>/?api-version=2021-04-12' -P '<SAS token>' -t 'devices/<stream-id>/messages/events' --cafile root.pem -d -V mqttv311 -m '{"swarm":"test"}'
(5) Geben Sie URL, Benutzername, Passwort und Topic als Custom-Broker im Control Center an.
Vans sind Fahrzeuge zur Beförderung einer größeren Anzahl von Personen (zwischen sechs und neun), oder werden für Lieferungen verwendet. Kleinere Transporter wie der VW Multivan sind ebenso enthalten wie Fahrzeuge ähnlich dem Fiat Ducato.
Ein bus ist ein Fahrzeug zur Beförderung einer großen Anzahl von Personen. Dies umfasst Reisebusse, Doppeldeckerbusse, Motorbusse, Omnibusse, Personenwagen und Schulbusse.
Fahrzeuge, bzw. Objekte, die den oben genannten Klassen nicht entsprechen, fallen in die Klasse other. Dies gilt für Traktoren (mit oder ohne Anhänger), ATVs und Quads, Gabelstapler, Straßenwalzen, Bagger und Schneepflüge.
Beschreibung | Beispiel |
---|---|
Szenario | Beschreibung |
---|---|
Auftreten | Beispiel |
---|---|
Auftreten | Beispiel |
---|---|
Kennzeichen | GT | Modell | Ergebnis |
---|---|---|---|
Gerät | Genauigkeit |
---|---|
Power Mode | Traffic | Journey Time & distribution | Barrierless Parking | Barrierless Parking + ANPR | Single / Multi Space | People, Head |
---|---|---|---|---|---|---|
Sobald der Debug-Mode aktiviert ist, können Sie auf allen IPs, die auf der Swarm Perception Box oder Ihrer eigenen Hardware konfiguriert sind, über einen Browser und den Port 8090 auf den Stream zugreifen, wobei die Stream-ID als Pfad angegeben wird:
Sie können auch jede Art von Video-Streaming-Software nutzen - z.B. -, um auf den Stream zuzugreifen.
Alle Details zu unseren Abo- und Support-Bedingungen finden Sie .
Mit unserer Software können mehrere motorisierte sowie nicht motorisierte Verkehrsklassen überwacht werden - von Autos über Lkw mit Anhängern bis hin zu Fußgängern. Für den motorisierten Verkehr in Deutschland haben wir uns visuell an den orientiert, bieten aber auch andere Standards an. .
Wir schätzen Ihr Verständnis dafür, dass das Training neuer Klassen ein komplexer Prozess ist, der umfassende Forschung und Tests erfordert, um sicherzustellen, dass unsere Modelle genau und zuverlässig arbeiten. Wenn Sie einen relevanten Anwendungsfall haben, , um die Möglichkeiten und Skalierung des Projekts zu besprechen.
Nichtsdestotrotz können wir mit einer Genauigkeit zwischen 95 und 99% arbeiten, wobei wir .
Weitere Informationen zur Technologiegenauigkeit finden Sie in den nächsten Fragen und Antworten. Für weitere Informationen zur Genauigkeit unserer Technologie empfehlen wir in unserer technischen Dokumentation.
Ausführliche Informationen zur Ersteinrichtung finden Sie .
Sie finden unsere immer auf unserer Website, genau so wie unsere . Lassen Sie uns gern wissen, ob Sie weiteres Material benötigen.
Sie finden sämtliche elektrischen sowie baulichen Anforderungen zur Montage der verschiedenen Perception Boxes in unserem . Werfen Sie auch einen Blick in den , in dem die Installation Schritt für Schritt erklärt wird. Sollten Sie auf Probleme stoßen, schauen Sie bitte einmal in unsere Tipps zur Fehlerbehebung. Kontaktieren Sie gerne auf Support, wenn Sie weitere Unterstützung benötigen.
Es werden keine Videos gespeichert. Darüber hinaus sendet das System nur Daten, sodass aktive Angriffe von außen verhindert werden. Während die KI Informationen über die in den Kamerabildern erkannten Objekte sammelt, werden keine biometrischen Daten oder Videomaterial gesammelt. Weitere Informationen finden Sie in unserem .
Nur die Daten der konfigurierten Events werden gespeichert. Events können um Verkehrszählungen (motorisierte und nicht motorisierte Verkehrsmittel), Origin-Destination-Analysen und Informationen zu Objekten in einer bestimmten Zone konfiguriert werden. Es ist auch möglich, zusätzliche Parameter festzulegen, die in enthalten sein werden. Beispiele sind: Geschwindigkeiten, Kennzeichen auf Parkplätzen für die Parkzeitanalyse und die maximale Anzahl von Objekten in einer Region of Interest für eine Auslastungsanalyse. Die Übertragung der Ereignisdaten von der Perception Box in die Cloud erfolgt im JSON-Format an einen MQTT-Broker. Weitere Informationen finden Sie in unserem , noch detaillierter wird es im englischsprachigen .
Der Hauptunterschied liegt in der Datenspeicherung. Während unser Standardmodell (Swarm Perception Subscription) eine Datenspeicherung von 30 Tagen bietet, kann dies mit dem Swarm Data Subscription auf drei Jahre verlängert werden. Weitere Einzelheiten finden Sie auf unserer .
Die endgültigen Kosten hängen natürlich stark vom Umfang und Zeitrahmen des Projekts ab. Sie finden unser Preismodell mit allen Kostenfaktoren auf sowie ein Beispielprojekt mit Beispielkosten.
Selbstverständlich unterstützen wir Sie bei allen Installationen und Tests, und wir senden Ihnen auch gerne Hardware zu Testzwecken. Wir bitten jedoch um Verständnis dafür, dass wir dies nicht kostenlos zur Verfügung stellen können und die Kosten gedeckt werden müssen. Bitte kontaktieren Sie unser für weitere Details.
(4) Testen Sie mit einem MQTT-Client (z.B. mosquitto) und veröffentlichten Sie eine Message. Wir haben diese verwendet. Stellen Sie sicher, dass Sie zu diesem Zeitpunkt Messages erhalten. Fahren Sie nicht fort, wenn dieser Schritt nicht funktioniert.
P101
91%
Nvidia Jetson AGX
91%
Nvidia Jetson NX
91%
Nvidia GTX 1080
90%
P101
1
1
2
1
4
2
OP101AC
1
1
2
1
2
2
OP101DC
1
1
1
1
1
1
P100
1
0
2
0
3
2
OP100
1
0
1
0
1
1
MAX N
1
1
2
1
4
2
MAX N
2
3
2
4
4
20W 6 core
4
2
6
3
6
6
MAX N
5
3
8
5
10
8
80 | IPv4 - TCP/UDP |
123 | IPv4 - UDP |
443 | IPv4 - TCP/UDP |
1194 | IPv4 - UDP |
8883 | IPv4 - TCP |
5671 | IPv4 - TCP |
Um die Nutzung unseres Swarm Control Centers zu optimieren, sollten Sie einen der nachfolgend empfohlenen Browser nutzen.
Unser Swarm-Portal ist eine webbasierte Anwendung und läuft im Browser aller modernen Desktops und Tablets. Um sich Portal, bzw. SCC anzumelden, müssen Sie JavaScript in Ihrem Browser aktivieren.
Wir empfehlen die Nutzung des aktuellsten Browsers, der mit Ihrem Betriebssystem kompatibel ist. Die folgenden Browser werden unterstützt:
Safari (Mac ausschließlich)
Neuere Versionen sind in der Regel sicherer, da Sicherheitsrisiken möglichst gering gehalten werden. Ältere Browser sowie Betriebssysteme werden nicht empfohlen, da sie nicht immer den Betrieb und die Sicherheit unseres Control Centers unterstützen. Wir supported keine veralteten Versionen oder nicht aufgeführte Browser.
Grundsätzlich testen wir neue Browser-Versionen unmittelbar nach Veröffentlichung, um sicherzustellen, dass sie einwandfrei mit unseren Websites funktionieren.
85BZHP
85BZHP
YES
BNW525
BNW555
NO
DY741WJ
DY741WJ
YES
GU278MB
GU278MB
YES
FW749XA
FW749XA
YES
ERZM551
ERZM55
NO
Fahrzeug sowie Kennzeichen des Fahrzeugs erkennen.
Tracken des Fahrzeugs und überprüfen, ob es die Entry- oder Exit-Linie überfahren hat.
Erkennen der Zeichen auf dem jeweiligen Kennzeichens mithilfe von OCR und Senden der entsprechenden Information, wenn das Fahrzeug erneut die Linie überfährt.
recognized as BNW525
Aufgabe: Zählen der einfahrenden Fahrzeuge und Kennzeichenerkennung
Konditionen: Tageslicht/Innenbeleuchtung
Kameraeinstellung:
2688 × 1520 Auflösung
Montagehöhe: 3 m
Distanz: 10 m
Brennweite: 6 mm
Objektgeschwindigkeit:
0-15 km/h
Objektanzahl: >150
Aufgabe: Zählen der ausfahrenden Fahrzeuge und Kennzeichenerkennung
Konditionen: Tageslicht/Innenbeleuchtung
Kameraeinstellung:
2688 × 1520 Auflösung
Montagehöhe: 3 m
Distanz: 10 m
Brennweite: 6 mm
Objektgeschwindigkeit:
0-15 km/h
Objektanzahl: >150
Überqueren der Crossing Line passiert hinter einem Hindernis
Objekt mit großer Distanz zur Kamera
Kameraperspektive entspricht nicht den Anforderungen
Objekte überlappen stark, sodass mehrere Objekte als eines erkannt werden
Farbe und/oder Form des Objekts ähneln stark dem Hintergrund, sodass Modell nicht zwischen Objekt und Hintergrund unterscheiden kann (z.B. graue Autos oder in weiß/grau gekleidete Personen)
Verschiedene Objekte (Klassen) sehen je nach Perspektive sehr ähnlich aus, z.B. sind Lastwagen kaum von Gelenklastwagen zu unterscheiden, wenn sie frontal/von hinten gesehen werden
Device Offline
Wird ausgelöst, wenn ein Gerät seinen Status von online zu offline ändert.
Connection: Online
Connection: Offline
Device Error
Wird ausgelöst, wenn einer oder mehrere Streams seinen/ihren Status von Running oder Warning auf Not Running ändert.
Streamstatus: Running oder Warning
Streamstatus: Not Running
Device Warning
Wird ausgelöst, wenn der Status eines oder mehrerer Streams von Running zu Warning wechselt.
Streamstatus: Running
Streamstatus: Warning