English
Deutsch
Deutsch
  • SWARM Dokumentation
  • Was ist neu?
    • Version 2023.3
      • Update 1
  • Kurz und bündig
    • Übersicht: Swarm Perception Platform
  • Quick start guide
    • P101, P401 und OP101
      • P101 - Perception Box
      • P401 - Perception Box
      • OP101AC - Outdoor Perception Box
      • OP101DC - Outdoor Perception Box
    • Virtual Perception Box
      • Systemanforderungen
      • VPX Agent auf NVIDIA Jetson (Jetpack 4.6) installieren
      • VPX Agent auf NVIDIA Jetson Orin (Jetpack 5.1.x) installieren
      • VPX Agent auf X86/NVIDIA Server installieren
      • IotEdge von 1.1 auf 1.4 upgraden
  • Lösungsbereiche
    • Traffic Insights
      • Setup: Verkehrszählung
      • Setup: Verkehrszählung mit Geschwindigkeitsschätzung
      • Setup: Analysen von Kreuzungen
    • Parking Insights
      • Setup: Schrankenloses Parken
      • Setup: Schrankenloses Parken mit ANPR
        • ANPR: Anleitung und Hilfestellungen
      • Setup: Einzel- und Mehrplatzerfassung
        • Standardbeispiele
    • Advanced Traffic Insights
      • Setup: Adaptive Traffic Control
      • Setup: Journey Time & Traffic Flow
        • Installationsanleitung
        • Technisches Konzept
      • Setup: Verkehrsstaus
    • People Insights
  • Swarm Control Center
    • Geräte
      • Kamera- und Gerätemonitoring
      • Kamerakonfiguration
        • Szenariokonfiguration
          • Modelle
          • Kalibrierung
          • Kameraeinstellungen
        • Rule-Engine
          • Anwendungsbeispiele für die Rule-Engine
      • Device Health
    • Data Analytics
      • Erstellung und Organisation von Dashboards
      • Dashboard-Übersicht und Widgets
        • Verkehrsszenarien
        • Parkplatzszenarien
        • Generisches Szenario
    • Datenintegration
      • Data Analytics API (REST API)
      • Rohdaten via Custom-MQTT-Server
      • Swarm Control Center API
    • Administration
      • Monitoring Alerts
      • Lizenzmanagement
      • Benutzermanagement
  • Test & Performance
    • Benchmarks
      • Wie messen wir die Performance?
    • Whitepaper für Anwendungsfälle
      • Verkehrszählung
      • Schrankenloses Parken und ANRP
  • Useful knowledge
    • 🚒Tipps zur Fehlerbehebung
    • Netzwerkanforderungen
    • SCC: Browserkompatibilität
    • Unsere Objektklassen
    • Ortskennzahl für Nummernschilder
  • Guidelines
    • Wie kann ich auf den Debug-Mode zugreifen?
    • Wie kann ich Azure ioTHub als Custom-Broker verwenden?
  • Getting Support
    • Kontaktieren Sie uns
    • FAQs
Powered by GitBook
On this page
  • Modelle
  • Event-Trigger
  • Event-Typen
  • Details zu Event-Triggern
  • Allgemeine Einstellungen (Global Settings)
  • Konfiguration der Event-Triggers

Was this helpful?

Export as PDF
  1. Swarm Control Center
  2. Geräte
  3. Kamerakonfiguration

Szenariokonfiguration

Hier geben wir Hilfestellung, damit Sie Ihr Szenario je nach Ihrem Anwendungsfall optimal konfigurieren können.

PreviousKamerakonfigurationNextModelle

Last updated 1 year ago

Was this helpful?

Nun, da Sie Ihre Kamerabilder sehen, ist es Zeit für die Konfiguration. This is where the magic happens!

Übersicht

Da unsere Software hauptsächlich für dezidierte Anwendungsfälle gedacht ist und verwendet wird, finden Sie alle Informationen für die perfekte Einrichtung in den jeweiligen Abschnitten:


In der Konfiguration können Sie das für Ihren Anwendungsfall geeignete Modell auswählen und jede beliebige Kombination von Eventtriggern und zusätzlichen Funktionen konfigurieren.

Modelle

Das Modell spiegelt die Engine wider, mit dem die Perception Box arbeitet:

Dieses Model erkennt Fahrzeuge, Personen auf Zweirädern und Personen in hochdynamischen Szenen (z.B. Straßenverkehr oder Autobahnen, also Szenen in denen sich Objekte schnell bewegen).

Dieses Model erkennt Fahrzeuge, Personen auf Zweirädern und Personen in Szenen mit geringer Dynamik auf Parkplätzen, wenn eine Fisheye-Kamera verwendet wird. Dies funktioniert nicht bei schnellen, dynamischen Verkehrsszenen.

Dieses Model erkennt eine Person, bzw. den gesamten Körper einer Person. Somit eignet es sich ideal zum Erkennen, Tracken und Zählen von Personen, wenn diese weiter (>5 m) von der Kamera entfernt sind.

Dieses Model erkennt den Kopf einer Person und eignet sich damit ideal zum Erkennen, Tracken und Zählen von Personen, wenn sie näher (<6 m) zur Kamera sind.

Wenn Sie den Modelltyp von einer Parkplatz- oder Verkehrsszene auf eines unserer Personen-Erkennungsmodelle ändern, beachten Sie bitte, dass dies nur möglich ist, wenn keine ANPR-/RoI-Konfiguration eingestellt ist. Sollte dies so sein, erhalten Sie folgenden Hinweis vom System:

Event-Trigger

Jeder Event-Trigger generiert im Hintergrund eine eindeutige ID. Damit Sie den Überblick über alle konfigurierten Trigger behalten, können Sie benutzerdefinierte Namen zuweisen. Dieser Name wird dann verwendet, um die entsprechenden Daten in Data Analytics anzuzeigen.

Nachfolgend finden Sie Erläuterungen zu den einzelnen Event-Typen und -Triggern:

Event-Typen

Wir stellen verschiedene Templates für die drei verschiedenen Anwendungsbereiche zur Verfügung, um Ihnen die Konfiguration und generelle Anwendung bestmöglich zu erleichtern.

  • Parking-Events: Templates für sämtliche Anwendungsfälle im Bereich der Parkraumüberwachung

  • Traffic-Events: Templates für die Anwendung im Bereich der Verkehrsüberwachung sowie Verkehrssicherheit

  • People-Events: Diese Templates eignen sich perfekt bei der Verwendung unsrer Modelle People Full Body oder People Head

Die Beschreibung der verfügbaren Event-Trigger und der individuell anpassbaren Event-Einstellungen finden Sie in nachfolgender Tabelle:

Details zu Event-Triggern

Counting Lines (CL) lösen eine Zählung aus, sobald der Mittelpunkt eines Objektes die Linie überschreitet. Bei der Konfiguration einer CL ist es wichtig, dass die Kameraperspektive berücksichtigt wird.

Die CL protokolliert auch die Richtung, in der das Objekt die Linie in In und Out überquert hat. Sie können In und Out jederzeit umschalten, um die Richtung entsprechend anzupassen. Darüber hinaus kann ein eigener Name für die beiden Richtungen zugewiesen werden. Die benutzerdefinierte Bezeichnung kann dann als Segmentierung in Data Analytics verwendet werden.

Standardmäßig zählt eine CL jedes Objekt nur einmal. Wenn jede Überquerung gezählt werden soll, gibt es die Option, Events für wiederholte CL-Überquerungen zu aktivieren. Die einzige Einschränkung dabei ist, dass Zählungen erst dann berücksichtigt werden, wenn fünf Sekunden dazwischen liegen.

Neben den wiederholten CL-Überquerungen sind noch ANPR und Speed Estimation als Trigger, bzw. Einstellungen verfügbar.

Speed Estimation kann als spezielle Trigger-Einstellung für eine CL in der linken Seitenleiste aktiviert werden. Dadurch wird eine weitere Linie hinzugegügt, mit der Sie den Abstand in Ihrem Szenario angeben können. Für die optimalen Ergebnisse empfehlend wir eine gerade Strecke ohne Kurven/Neigungen.

Regions of Interest zählen Objekte in einem bestimmten Bereich. Zudem werden Klasse (Class) und Verweildauer (Dwell Time) ermittelt und angegeben.

Je nach Szenario können wir zwischen drei Typen von RoI unterscheiden. Für diese drei Typen bieten wir die unten beschriebenen Templates an:

Single Space Parking
Multi Space Parking
Generisch

Event-Trigger

Dauer (Time)

Dauer (Time)

Dauer (Time) oder Status (Occupancy)

Event-Typ

Parking

Parking

People und Traffic

Anzahl der voreingestellten Objekte

1

5

1

Farbe

dunkelgrün

lila

hellgrün

Diese Zonen werden für Origin-Destination-Analysen verwendet. Zählungen werden generiert, wenn sich ein Objekt durch OD1 und anschließend durch OD2 bewegt. Für eine OD müssen mindestens zwei Bereiche konfiguriert werden.

Die erste Zone, die das Objekt passiert, wird als Ursprungszone (Origin) bezeichnet. Die letzte Zone, die das Objekt passiert, wird demnach als Zielzone (Destination) bezeichnet.

Eine VD fungiert im Grunde als 3D-Counting-Line und ist für Anwendungsfälle gedacht, bei denen detaillierte Eintritts- und Austrittszählungen für Türen, bzw. Ein- und Ausgänge benötigt werden.

Das Objekt muss entweder in das VD-Feld eintreten und dann verschwinden, oder sich im Feld bewegen und dieses anschließend verlassen. Objekte, die im Feld erscheinen und dann verschwinden, werden nicht gezählt. Ebenso werden Objekte, die das Feld lediglich passieren, nicht gezählt. Weitere Details zur Logik hinter der Virtual Door finden Sie in der nachfolgenden Info-Box:

Die Logik hinter der Virtual Door - Wie es funktioniert

Jeder Kopf oder Körper einer Person wird kontinuierlich getrackt, während er sich durch das Sichtfeld der Kamera bewegt. Der Start- und Endpunkt des Trackens wird verwendet, um zu bestimmen, ob ein Eintritts- oder Austrittevent (In/Out) aufgetreten ist.

  • Eintritt (Entry): Wenn der Startpunkt der Trackens innerhalb der VD und der Endpunkt außerhalb der VD liegt, wird ein In-Event ausgelöst.

  • Austritt (Exit): Wenn der Startpunkt des Trackens außerhalb der VD und der Endpunkt innerhalb der VD liegt, wird ein Out-Event ausgelöst.

  • Vorbeigehen (Walk By): Wenn der Tracking-Punkt außerhalb der VD beginnt und außerhalb der VD endet, wird kein Event ausgelöst.

  • Außerhalb bleiben (Stay Outside): Wenn der Tracking-Punkt innerhalb der VD beginnt und innerhalb der VD endet, wird kein Event ausgelöst.

Hinweis: Es ist nicht erforderlich, die In- und Out-Richtung zu konfigurieren, da dies automatisch festgelegt wird.

Allgemeine Einstellungen (Global Settings)

Sie können das ANPR-Feature mit einer Counting Line aktivieren, wodurch das Kennzeichen der Fahrzeuge als zusätzlicher Parameter zu den generierten Events hinzugefügt wird. Beim Aktivieren von ANPR sollten Sie jedoch die geltenden DSGVO-Gesetze, bzw. -Vorschriften beachten, da es sich bei Kennzeichen um sensible Daten handelt.

Die Aufbewahrungszeit der Kennzeichenbilder kann manuell festgelegt werden. Nach Ablauf dieser Aufbewahrungszeit werden sämtliche Rohdaten, Informationen und Bildaufnahmen gelöscht.

In den allgemeinen Einstellungen (Global Settings) können Focus Areas hinzugefügt werden, also dezidierte Fokusbereiche. Diese definieren den Bereich der Erkennung in einer Szene. Wenn Focus Areas definiert sind, werden also lediglich Erkennungen in ausschließlich diesen Bereichen berücksichtigt.

Wenn Focus Areas konfiguriert sind, werden diese im Vorschaubild und in einer Tabelle angezeigt. Über die Tabelle haben Sie ebenfalls die Möglichkeit, einzelne Fokusbereiche wieder zu entfernen.

Achtung: Wenn eine Focus Area aktiviert ist, zeigt die Live- und Track-Kalibrierung nur Erkennungen und Tracks in diesem Bereich an. Überprüfen Sie daher vor dem Zeichnen von Fokusbereichen die Track-Kalibrierung, um zu sehen, wo genau sich die Tracks im Bild befinden, damit keine Erkennungen verpasst werden.

In der Konfiguration der Region of Interest gibt es zwei verschiedene Trigger zur Auswahl. Entweder basierend auf Zeit (Time), oder basierend auf dem Belegungsstatus, also der Occupancy, abhängig vom Anwendungsfall.

Das Zeitintervall kann nach ebenfalls in den Einstellungen angepasst werden.

Das RoI-Zeitintervall wird abhängig von der gewählten Trigger-Aktion verwendet:

  • Time: Der Status der RoI wird in den festgelegten Zeitintervallen übermittelt

  • Occupancy: Sie erhalten ein Event, wenn sich der Belegungstatus ändert (vacant/occupied). Das Zeitintervall agiert hier als eine Pausezeit, nachdem ein Event gesendet wurde. Das bedeutet, dass die Änderung der Belegung für dieses Zeitinvervall nicht überprüft wird und Sie maximal ein Event pro Zeitspanne erhalten. Der Status wird immer dem im letzten Event gesendeten Status verglichen.

Im Raw-Track-Modus wird ein Event generiert, sobald das Objekt den Videoframe verlässt. Bei diesem Event wird der genaue Track des Objekts abgerufen und in Form von X/Y-Koordinaten des Videoframes gesammelt.

Konfiguration der Event-Triggers

Um Ihre ganz individuelle Lösung zu erstellen, wählen Sie zunächst das passende Modell aus und platzieren Sie dann Ihren Event-Typen - oder wählen Sie den Raw-Track-Modus aus.

Wenn ein Event-Typ ausgewählt ist - im Beispiel etwa die Region of Interest, klicken Sie mit der linken Maustaste auf die weißen Kreise und halten Sie die Maustaste gedrückt, um die einzelnen Eckpunkte verschieben zu können. Sie können ein beliebiges Viereck (vierseitiges Polygon) erstellen. Um das gesamte Viereck zu verschieben, klicken Sie einfach in das Feld und halten Sie auch hier die Maustaste gedrückt.

Nachfolgend finden Sie kurze Beschreibung für jedes Modell. Um zu entscheiden, welches Sie für Ihren Anwendungsfall nutzen möchten, bzw. sollten, lesen Sie bitte den Abschnitt zum jeweiligen Use-Case: oder .

Dieses Model erkennt Fahrzeuge, Personen auf Zweirädern und Personen in Szenen mit geringer Dynamik, zum Beispiel Parkplätze, auf denen Objekte nicht oder langsam fahren. Da dieses Model das Video mit einer höheren Auflösung analysiert, kann es Objekte erkennen, die weiter entfernt von der Kamera sind. Dies erfordert mehr Rechenleistung und wird daher derzeit nur für im Bereich der Parking Insights empfohlen.

Bei der Erkennung und dem Tacking von Personen, führen wir zu keinem Zeitpunkt eine Gesichtserkennung durch. Es werden keinerlei sensible persönliche Informationen verarbeitet. gerne jederzeit, wenn Sie zum Fragen zum Thema persönliche Daten, bzw. Datenschutz haben.

Bitte beachten Sie die verschiedenen Spezifikationen zu den Anwendungsfällen, um dieses Feature bestmöglich anzuwenden, vor allem den Use-Case des .

Das Journey-Time-Feature kann in den Einstellungen in der linken Seitenleiste aktiviert werden. Dieses Feature generiert Daten zur Fahrzeit sowie zum Verkehrsfluss und wird für die benötigt. Weitere technische Details zu den generierten Daten finden Sie im folgenden Abschnitt:

Raw Tracks sollten nur dann verwendet werden, wenn Sie sich für das erweiterte Setup mit einem entscheiden.

Parking Insights
Advanced Traffic Insights
Traffic
Parking
diesen Anwendungsfall
Kontaktieren Sie uns
schrankenlosen Parkens
Advanced Traffic Insights
Technisches Konzept
Custom-MQTT-Server
Traffic Insights
Modell-Auswahl
Ungültige Konfiguration für dieses Model
Benutzerdefinierte Bezeichnung
Speed Estimation konfigurieren
CL mit Speed Estimation ist aktiviert
Konfiguration der Orgin-Destination-Zonen
Die VD
Ansicht mit gezeichneten Focus Areas
Erläuterung der Konfiguration basierend auf Zeitintervall
Erläuterung der Konfiguration basierend auf Status
Aktivieren/Deaktivieren der Raw Tracks
Konfigurieren der Event-Typen