Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Die Kernkompetenz unseres Computer-Vision-Systems bei der Erkennung und Klassifizierung liegt in seinen Modellen.
Werfen Sie einen Blick in die Abschnitte zu den jeweiligen Use-Cases, wir empfehlen ein Modell für jeden Anwendungsfall. Wenn Sie unsicher sind, verwenden Sie das Modell Traffic & Parking (Standard).
Das Event enthält Klasse und Unterklasse gemäß dieser Definition.
Die folgenden Bilder sind nur als Beispiele gedacht und sollen keine Auskunft über genaue Kameraabstände oder Perspektiven geben.
Klasse | Subklasse | Definition |
---|---|---|
Hier geben wir Hilfestellung, damit Sie Ihr Szenario je nach Ihrem Anwendungsfall optimal konfigurieren können.
Nun, da Sie Ihre Kamerabilder sehen, ist es Zeit für die Konfiguration. This is where the magic happens!
Da unsere Software hauptsächlich für dezidierte Anwendungsfälle gedacht ist und verwendet wird, finden Sie alle Informationen für die perfekte Einrichtung in den jeweiligen Abschnitten:
In der Konfiguration können Sie das für Ihren Anwendungsfall geeignete Modell auswählen und jede beliebige Kombination von Eventtriggern und zusätzlichen Funktionen konfigurieren.
Das Modell spiegelt die Engine wider, mit dem die Perception Box arbeitet:
Dieses Model erkennt Fahrzeuge, Personen auf Zweirädern und Personen in hochdynamischen Szenen (z.B. Straßenverkehr oder Autobahnen, also Szenen in denen sich Objekte schnell bewegen).
Dieses Model erkennt Fahrzeuge, Personen auf Zweirädern und Personen in Szenen mit geringer Dynamik auf Parkplätzen, wenn eine Fisheye-Kamera verwendet wird. Dies funktioniert nicht bei schnellen, dynamischen Verkehrsszenen.
Dieses Model erkennt eine Person, bzw. den gesamten Körper einer Person. Somit eignet es sich ideal zum Erkennen, Tracken und Zählen von Personen, wenn diese weiter (>5 m) von der Kamera entfernt sind.
Dieses Model erkennt den Kopf einer Person und eignet sich damit ideal zum Erkennen, Tracken und Zählen von Personen, wenn sie näher (<6 m) zur Kamera sind.
Wenn Sie den Modelltyp von einer Parkplatz- oder Verkehrsszene auf eines unserer Personen-Erkennungsmodelle ändern, beachten Sie bitte, dass dies nur möglich ist, wenn keine ANPR-/RoI-Konfiguration eingestellt ist. Sollte dies so sein, erhalten Sie folgenden Hinweis vom System:
Jeder Event-Trigger generiert im Hintergrund eine eindeutige ID. Damit Sie den Überblick über alle konfigurierten Trigger behalten, können Sie benutzerdefinierte Namen zuweisen. Dieser Name wird dann verwendet, um die entsprechenden Daten in Data Analytics anzuzeigen.
Nachfolgend finden Sie Erläuterungen zu den einzelnen Event-Typen und -Triggern:
Wir stellen verschiedene Templates für die drei verschiedenen Anwendungsbereiche zur Verfügung, um Ihnen die Konfiguration und generelle Anwendung bestmöglich zu erleichtern.
Parking-Events: Templates für sämtliche Anwendungsfälle im Bereich der Parkraumüberwachung
Traffic-Events: Templates für die Anwendung im Bereich der Verkehrsüberwachung sowie Verkehrssicherheit
People-Events: Diese Templates eignen sich perfekt bei der Verwendung unsrer Modelle People Full Body oder People Head
Die Beschreibung der verfügbaren Event-Trigger und der individuell anpassbaren Event-Einstellungen finden Sie in nachfolgender Tabelle:
Counting Lines (CL) lösen eine Zählung aus, sobald der Mittelpunkt eines Objektes die Linie überschreitet. Bei der Konfiguration einer CL ist es wichtig, dass die Kameraperspektive berücksichtigt wird.
Die CL protokolliert auch die Richtung, in der das Objekt die Linie in In und Out überquert hat. Sie können In und Out jederzeit umschalten, um die Richtung entsprechend anzupassen. Darüber hinaus kann ein eigener Name für die beiden Richtungen zugewiesen werden. Die benutzerdefinierte Bezeichnung kann dann als Segmentierung in Data Analytics verwendet werden.
Standardmäßig zählt eine CL jedes Objekt nur einmal. Wenn jede Überquerung gezählt werden soll, gibt es die Option, Events für wiederholte CL-Überquerungen zu aktivieren. Die einzige Einschränkung dabei ist, dass Zählungen erst dann berücksichtigt werden, wenn fünf Sekunden dazwischen liegen.
Neben den wiederholten CL-Überquerungen sind noch ANPR und Speed Estimation als Trigger, bzw. Einstellungen verfügbar.
Speed Estimation kann als spezielle Trigger-Einstellung für eine CL in der linken Seitenleiste aktiviert werden. Dadurch wird eine weitere Linie hinzugegügt, mit der Sie den Abstand in Ihrem Szenario angeben können. Für die optimalen Ergebnisse empfehlend wir eine gerade Strecke ohne Kurven/Neigungen.
Regions of Interest zählen Objekte in einem bestimmten Bereich. Zudem werden Klasse (Class) und Verweildauer (Dwell Time) ermittelt und angegeben.
Je nach Szenario können wir zwischen drei Typen von RoI unterscheiden. Für diese drei Typen bieten wir die unten beschriebenen Templates an:
Diese Zonen werden für Origin-Destination-Analysen verwendet. Zählungen werden generiert, wenn sich ein Objekt durch OD1 und anschließend durch OD2 bewegt. Für eine OD müssen mindestens zwei Bereiche konfiguriert werden.
Die erste Zone, die das Objekt passiert, wird als Ursprungszone (Origin) bezeichnet. Die letzte Zone, die das Objekt passiert, wird demnach als Zielzone (Destination) bezeichnet.
Eine VD fungiert im Grunde als 3D-Counting-Line und ist für Anwendungsfälle gedacht, bei denen detaillierte Eintritts- und Austrittszählungen für Türen, bzw. Ein- und Ausgänge benötigt werden.
Das Objekt muss entweder in das VD-Feld eintreten und dann verschwinden, oder sich im Feld bewegen und dieses anschließend verlassen. Objekte, die im Feld erscheinen und dann verschwinden, werden nicht gezählt. Ebenso werden Objekte, die das Feld lediglich passieren, nicht gezählt. Weitere Details zur Logik hinter der Virtual Door finden Sie in der nachfolgenden Info-Box:
Jeder Kopf oder Körper einer Person wird kontinuierlich getrackt, während er sich durch das Sichtfeld der Kamera bewegt. Der Start- und Endpunkt des Trackens wird verwendet, um zu bestimmen, ob ein Eintritts- oder Austrittevent (In/Out) aufgetreten ist.
Eintritt (Entry): Wenn der Startpunkt der Trackens innerhalb der VD und der Endpunkt außerhalb der VD liegt, wird ein In-Event ausgelöst.
Austritt (Exit): Wenn der Startpunkt des Trackens außerhalb der VD und der Endpunkt innerhalb der VD liegt, wird ein Out-Event ausgelöst.
Vorbeigehen (Walk By): Wenn der Tracking-Punkt außerhalb der VD beginnt und außerhalb der VD endet, wird kein Event ausgelöst.
Außerhalb bleiben (Stay Outside): Wenn der Tracking-Punkt innerhalb der VD beginnt und innerhalb der VD endet, wird kein Event ausgelöst.
Hinweis: Es ist nicht erforderlich, die In- und Out-Richtung zu konfigurieren, da dies automatisch festgelegt wird.
Sie können das ANPR-Feature mit einer Counting Line aktivieren, wodurch das Kennzeichen der Fahrzeuge als zusätzlicher Parameter zu den generierten Events hinzugefügt wird. Beim Aktivieren von ANPR sollten Sie jedoch die geltenden DSGVO-Gesetze, bzw. -Vorschriften beachten, da es sich bei Kennzeichen um sensible Daten handelt.
Die Aufbewahrungszeit der Kennzeichenbilder kann manuell festgelegt werden. Nach Ablauf dieser Aufbewahrungszeit werden sämtliche Rohdaten, Informationen und Bildaufnahmen gelöscht.
In den allgemeinen Einstellungen (Global Settings) können Focus Areas hinzugefügt werden, also dezidierte Fokusbereiche. Diese definieren den Bereich der Erkennung in einer Szene. Wenn Focus Areas definiert sind, werden also lediglich Erkennungen in ausschließlich diesen Bereichen berücksichtigt.
Wenn Focus Areas konfiguriert sind, werden diese im Vorschaubild und in einer Tabelle angezeigt. Über die Tabelle haben Sie ebenfalls die Möglichkeit, einzelne Fokusbereiche wieder zu entfernen.
Achtung: Wenn eine Focus Area aktiviert ist, zeigt die Live- und Track-Kalibrierung nur Erkennungen und Tracks in diesem Bereich an. Überprüfen Sie daher vor dem Zeichnen von Fokusbereichen die Track-Kalibrierung, um zu sehen, wo genau sich die Tracks im Bild befinden, damit keine Erkennungen verpasst werden.
In der Konfiguration der Region of Interest gibt es zwei verschiedene Trigger zur Auswahl. Entweder basierend auf Zeit (Time), oder basierend auf dem Belegungsstatus, also der Occupancy, abhängig vom Anwendungsfall.
Das Zeitintervall kann nach ebenfalls in den Einstellungen angepasst werden.
Das RoI-Zeitintervall wird abhängig von der gewählten Trigger-Aktion verwendet:
Time: Der Status der RoI wird in den festgelegten Zeitintervallen übermittelt
Occupancy: Sie erhalten ein Event, wenn sich der Belegungstatus ändert (vacant/occupied). Das Zeitintervall agiert hier als eine Pausezeit, nachdem ein Event gesendet wurde. Das bedeutet, dass die Änderung der Belegung für dieses Zeitinvervall nicht überprüft wird und Sie maximal ein Event pro Zeitspanne erhalten. Der Status wird immer dem im letzten Event gesendeten Status verglichen.
Im Raw-Track-Modus wird ein Event generiert, sobald das Objekt den Videoframe verlässt. Bei diesem Event wird der genaue Track des Objekts abgerufen und in Form von X/Y-Koordinaten des Videoframes gesammelt.
Um Ihre ganz individuelle Lösung zu erstellen, wählen Sie zunächst das passende Modell aus und platzieren Sie dann Ihren Event-Typen - oder wählen Sie den Raw-Track-Modus aus.
Wenn ein Event-Typ ausgewählt ist - im Beispiel etwa die Region of Interest, klicken Sie mit der linken Maustaste auf die weißen Kreise und halten Sie die Maustaste gedrückt, um die einzelnen Eckpunkte verschieben zu können. Sie können ein beliebiges Viereck (vierseitiges Polygon) erstellen. Um das gesamte Viereck zu verschieben, klicken Sie einfach in das Feld und halten Sie auch hier die Maustaste gedrückt.
Nachfolgend finden Sie kurze Beschreibung für jedes Modell. Um zu entscheiden, welches Sie für Ihren Anwendungsfall nutzen möchten, bzw. sollten, lesen Sie bitte den Abschnitt zum jeweiligen Use-Case: oder .
Dieses Model erkennt Fahrzeuge, Personen auf Zweirädern und Personen in Szenen mit geringer Dynamik, zum Beispiel Parkplätze, auf denen Objekte nicht oder langsam fahren. Da dieses Model das Video mit einer höheren Auflösung analysiert, kann es Objekte erkennen, die weiter entfernt von der Kamera sind. Dies erfordert mehr Rechenleistung und wird daher derzeit nur für im Bereich der Parking Insights empfohlen.
Bei der Erkennung und dem Tacking von Personen, führen wir zu keinem Zeitpunkt eine Gesichtserkennung durch. Es werden keinerlei sensible persönliche Informationen verarbeitet. gerne jederzeit, wenn Sie zum Fragen zum Thema persönliche Daten, bzw. Datenschutz haben.
Single Space Parking | Multi Space Parking | Generisch |
---|
Bitte beachten Sie die verschiedenen Spezifikationen zu den Anwendungsfällen, um dieses Feature bestmöglich anzuwenden, vor allem den Use-Case des .
Das Journey-Time-Feature kann in den Einstellungen in der linken Seitenleiste aktiviert werden. Dieses Feature generiert Daten zur Fahrzeit sowie zum Verkehrsfluss und wird für die benötigt. Weitere technische Details zu den generierten Daten finden Sie im folgenden Abschnitt:
Raw Tracks sollten nur dann verwendet werden, wenn Sie sich für das erweiterte Setup mit einem entscheiden.
Event-Trigger | Dauer (Time) | Dauer (Time) | Dauer (Time) oder Status (Occupancy) |
Event-Typ | Parking | Parking | People und Traffic |
Anzahl der voreingestellten Objekte | 1 | 5 | 1 |
Farbe | dunkelgrün | lila | hellgrün |
car
Car umfasst kleine bis mittelgroße Autos bis hin zu SUVs, Pickups und Minivans (z.B. VW Caddy. Diese Klasse beinhaltet keine Autos, die einen Anhänger ziehen.
car
van
car
car with trailer
PKW und Transporter, die einen Anhänger ziehen, gelten als car with trailer. Für eine korrekte Klassifizierung müssen das gesamte Fahrzeug sowie mindestens eine der Achsen des Anhängers sichtbar sein.
truck
single unit truck
Single unit trucks sind als Einheitstransporter definierte Fahrzeuge mit zwei oder mehr Achsen. Wichtig für die Definition ist, dass Zugfahrzeug und Sattelauflieger nicht voneinander getrennt werden können.
truck
articulated truck
Articulated trucks sind große Fahrzeuge mit mehr als zwei Achsen, bei denen Sattelzug und Sattelauflieger getrennt werden können. Ein Sattelzug ohne Auflieger wird als single unit truck klassifiziert.
truck
truck with trailer
Single unit trucks oder articulated trucks, die einen weiteren Anhänger ziehen, werden als truck with trailer definiert.
bus
-
motorbike
-
Die Klasse motorbike umfasst eine Person, die ein motorisiertes einspuriges Fahrzeug fährt. Dazu zählen auch Motorräder mit Beiwagen, E-Bikes gehören nicht zu dieser Klasse. Motorräder ohne Fahrer:in werden nicht berücksichtigt.
bicycle
-
Die Klasse bicycle umfasst eine eine Person, die aktiv Fahrrad fährt. Personen, die ein Fahrrad schieben, sind in dieser Klasse nicht enthalten und gelten als person. Fahrräder ohne Fahrer:in werden nicht berücksichtigt.
person
-
Die Klasse person umfasst Fußgänger:innen sowie Personen, die Segways, Skateboards, usw. fahren. Auch Personen, die ein Fahrrad oder einen Kinderwagen schieben, zählen zu dieser Klasse.
scooter
Die Klasse scooter umfasst eine Person, die auf einem Scooter fährt, der entweder motorisiert ist oder nicht. Ein Scooter besteht im Normalfall aus zwei Rädern und einem Lenker.
tram
Die Klasse tram bezeichnet ein öffentliches Verkehrsmittel, das auf Schienen entlang von Straßen oder dezidierten Straßenbahnstrecken verkehrt. Straßenbahnen werden in der Regel elektrisch betrieben und beziehen ihren Strom aus Oberleitungen.
other
-
Hier finden Sie Informationen dazu, wie die Kamera erfolgreich verbinden, bzw. konfigurieren.
Eine Info vorab: Wir bieten Multi-Kamera-Unterstützung, d.h. Sie können mehr als eine Kamera pro Swarm Perception Box verbinden.
Um die Konfigurationsseite der Perception Box aufzurufen, klicken sie einfach auf die jeweilige Box in der Listenansicht. Darüber können Sie sämtliche Kameras verwalten, die auf diesem Gerät ausgeführt werden.
Sie sind natürlich völlig frei in der Benennung Ihrer Swarm Perception Boxen; wir empfehlen an dieser Stelle ein logisches Benennungsschema.
Abhängig von Ihrer Subscription haben Sie eine bestimmte Anzahl von Kameras, die Sie mit Ihrer Perception Box verwenden können. Sollten Ihnen diese Anzahl nicht (mehr) ausreichen, kontaktieren Sie bitte unser Sales-Team.
Es hängt natürlich von der Hardware ab, wie viele Kameras parallel genutzt werden können. Das gilt sowohl für unsere Perception Boxen als auch für von uns empfohlene Hardware, für die wir Tests und Benchmarks durchgeführt haben.
Durch Klicken auf eine der angezeigten Kameras öffnen sich die Einstellungen der jeweiligen Kamera. Dort können Sie die Kamera benennen. Oben haben Sie die Möglichkeit, den Kamerastream zu deaktivieren. Wenn ein Kamerastream deaktiviert ist, wird er von der Software nicht länger berücksichtigt. Die Konfiguration wird beibehalten.
Für jede Kamera müssen GPS-Koordinaten pro Kamera eingetragen werden. Diese können durch Eingabe der Koordinaten oder direkt mit dem Standortauswahltools auf der Karte festgelegt werden:
Zurzeit können Kamerastreams über RTSP sowie USB verarbeitet werden. Sie können aus den verschiedenen Optionen aus dem Drop-Down-Menü beim Connection type wählen:
Sie können den Kamerastream mithilfe des VLC Media Players testen. Wenn Sie nicht sicher sind, welche Teile der Streaming-URL Sie verwenden sollten, wählen Sie Custom connection string und fügen Sie den funktionierenden String einfach vom VLC Media Player ein.
Informationen zu den weiteren Feldern für die Camera Connection finden Sie im Handbuch der Kamera oder können direkt auf der Kamera konfiguriert werden.
Einige Sonderzeichen können zu Problemen bei der Kameraverbindung führen. Vermeiden Sie am besten Zeichen wie "?", "%" and "+" im Passwort.
Sobald Sie die Kameraverbindung (Camera Connection) konfiguriert haben, sehen Sie eine Vorschau des Kamerabilds. Sie können nun mit der Szenariokonfiguration fortfahren.
Die Swarm Perception Box sendet die Ergebnisse der Echtzeitanalyse an einen MQTT-Broker. Die Standardkonfiguration sendet Daten an die Azure Cloud sowie an Data Analytics, damit sie dort abgerufen werden können. Wenn Sie eine Custom-MQTT einrichten möchten, finden Sie hier weitere Infos dazu.
Die Verwendung von Message Compression kann bis zu 50% der Bandbreite einsparen, die zum Senden von Events den den MQTT-Broker genutzt wird. Beachten Sie, dass der Broker entsprechend konfiguriert sein muss.
Aus der Gerätekonfiguration kennen wir bereits den Gesamtstatus aller Kameras, die mit einer Perception Box verbunden sind. Auf Kameraebene haben Sie die Möglichkeit, den individuellen Status anzuzeigen, um so mögliche Ursachen für etwaige Probleme besser identifizieren zu können:
Sobald Sie das Kamerabild sehen können, haben Sie die Möglichkeit, das Szenario zu konfigurieren. Weiter geht's auf der nächsten Seite!
Hier finden Sie Details dazu, wie Sie unsere Rule-Engine in Ihrer Szenario-Konfiguration verwenden können.
Mithilfe der Rule-Engine können Sie die Event-Trigger noch weiter anpassen. Die Reduzierung von Big Data auf relevante Daten ist mit nur wenigen Klicks möglich: Von einfachen Anpassungen, um Zählungen für nur eine Counting-Line-Richtung zu erhalten, bis hin zu komplexeren Regeln, um den Status einer Region of Interest zu überwachen.
Damit eine Regel (Rule) erstellt werden kann, muss ein Event-Trigger zugewiesen werden. Je nach Art des Event-Triggers stehen verschiedene Optionen zur Verfügung, um flexible Filterbedingungen festzulegen.
Benennen Sie Ihre Regel: Dieser Name wird anschließend verwendet, um Widgets in Data Analytics zu erstellen und wird Teil des Events sein, dass über MQTT empfangen wird.
Wählen Sie den Event-Trigger aus, auf dem die Regel basieren soll: Sie können aus allen Ihrer bereits konfigurierten Event-Trigger auswählen. Wenn OD ausgewählt wird, werden automatisch alle konfigurierten Zonen verwendet.
Sie haben die Möglichkeit, aus vordefinierten Templates oder Ihren individuellen Regeln zu wählen, die Sie selbst als Templates gekennzeichnet haben. Dazu später mehr in diesem Abschnitt.
Legen Sie Ihre Unterbedingungen fest: Mit Unterbedingungen können Sie die relevanten Daten für diese Regel filtern. Die Parameteroptionen für die Unterbedingungen hängen vom gewählten Event-Trigger ab.
Für die mit AND verbundenen Bedingungen müssen alle dieser Bedingungen erfüllt sein. Sehen wir uns das oben stehende Beispiel an: In diesem Fall werden nur dann Events gesendet, wenn ein Fahrrad oder eine Person die Counting Line in Richtung In überquert.
Es können Bedingungen für eine Kombination aus RoI und CL erstellt werden. Wenn sie als Event-Trigger ausgewählt werden, erscheint automatisch die Option, eine weitere Bedingung hinzuzufügen. Diese Unterbedingung muss auf einer zweiten Region of Interest oder Counting Line basieren und werden dann durch eine AND-Kondition kombiniert.
Kombinierte Regeln lösen ein Event nur dann aus, wenn ein Objekt die CL überquert und die Regel der zusätzlichen CL oder RoI ebenfalls erfüllt ist.
Im untenstehenden Beispiel sendet die Rule ein Event, wenn ein Auto, Bus, LKW oder Motorrad die Counting Line mit Speed Estimation mit mehr als 50 km/h überquert und sich gleichzeitig eine oder mehr als eine Person länger als fünf Sekunden in der RoI aufhält:
Nach dem Erstellen einer Regel, muss die Szenariokonfiguration der Kamera gespeichert werden, damit die Regel entsprechend übernommen und angewendet wird.
Jede erstellte Regel kann als Template gekennzeichnet werden. Dadurch besteht die Möglichkeit, diese Regel mit derselben Logik für jeden Kamerastream im Control Center zu verwenden.
Achtung: Wenn Sie eine Regel löschen, die als Template gekennzeichnet wird, wird dadurch auch das Template entfernt - auch in anderen Konfigurationen. Wenn eine auf einem Event-Trigger basierende Regel erstellt wurde und der jeweilige Event-Trigger wird gelöscht, ist auch die Regel gelöscht.
Um den Stream für eine optimale Datengenauigkeit richtig zu konfigurieren, gibt es zwei Optionen für die Kalibrierung, die wir nachfolgend erläutern.
Für eine unkomplizierte Kalibrierung können Sie die Live Calibration oben rechts in der Drop-Down-Liste im Vorschaubild der Kamera verwenden. Wie im untenstehenden Screenshot zu sehen ist, bietet dieser Modus eine Übersicht darüber, welche Objekte unsere Software im aktuellen Videoframe erkennen kann.
Wir empfehlen die Verwendung dieser Kalibrierung insbesondere für Konfigurationen im Bereich der in Kombination mit Regions of Interest.
Die erkannten Objekte werden in einer sogenannten Bounding Box angezeigt. Jede Bounding Box zeigt auch das Zentrum des jeweiligen Objekts durch einen Punkt in der Box selbst an. Um die einzelnen Objekte unterscheiden zu können, haben die Hauptklassen unterschiedliche Farben an. Jedes über MQTT gelieferte Event wird über den Mittelpunkt des Objekts ausgelöst.
Die Track Calibration bietet die Möglichkeit, eine Anzahl von Tracks im Bild zu überlagern. Dadurch ist sehr gut erkennbar, wo im Frame die Objekte am besten erkannt werden. Mit dieser Info ist es dann einfacher, die Konfiguration entsprechend vorzunehmen und zu optimieren, damit Sie bereits beim ersten Versuch die bestmöglichen Ergebnisse erhalten.
Wenn der Track Calibration History aktiviert ist, können Sie auf die Streckenkalibrierung für jede Stunde der letzten 24 Stunden zugreifen.
Die Bilder der Track Calibration werden auf dem Edge-Gerät gespeichert und sind nur über das Control Center zugänglich. Stellen Sie bitte sicher, dass das Anzeigen, Speichern und Verarbeiten dieser Bilder für bis zu 24 Stunden mit den geltenden Datenschutzbestimmungen vereinbar ist.
Die Farben der Tracks sind nach Objektklasse aufgeteilt, sodass problemlos zwischen Pkws, motorisierten Zweirädern, Lastwagen, Bussen, Personen und Fahrrädern unterschieden werden kann.
Demnach unterscheiden sich die Farben der Tracks und Bounding Boxes je nach Hauptklasse (main class). Wie im untenstehenden Screenshot zu sehen ist, wird nach einem Klick auf das Fragezeichen-Symbol diese Legende für die Calibration Colors angezeigt:
In diesem Abschnitt finden Sie Beispiele dafür, für welche Use-Cases die Rule-Engine genutzt werden kann.
Erkennen von Fahrzeugen (motorisierter Verkehr), die eine Straße in falscher Richtung befahren, beispielsweise Einbahnstraßen oder Autobahnauffahrten.
Zunächst muss das Szenario auf Kameraebene konfiguriert werden. Wir empfehlen dazu die . Erstellen Sie dann eine neue Regel, benennen Sie diese nach Belieben und wählen Sie die konfigurierte Counting Line aus. Für Falschfahrende kann ein vordefiniertes Template ausgewählt werden. Sie haben ebenfalls die Möglichkeit, dieses Template noch weiter anzupassen. Bei der Konfiguration muss das Falschfahren mit der Richtung Out übereinstimmen, siehe Screenshot:
An einer Kreuzung sollen lediglich Objekte erkannt werden, die einen U-Turn, bzw. ein unerlaubtes Wendemanöver durchführen.
Im Straßenverkehr gibt es Situationen, in denen eine bestimmte Klasse von Verkehrsteilnehmenden dezidierte Bereiche nicht nutzen sollte, so beispielsweise Personen im Zentrum einer Kreuzung oder Fahrzeuge in Feuerwehrzonen.
Um diese und andere mögliche Fälle überprüfen zu können, können Sie eine Regel basierend auf einer konfigurierten Region of Interest in diesem dezidierten Bereich anlegen. Erstellen Sie dafür eine neue Regel, geben Sie ihr einen Namen und wählen Sie besagte RoI als Event-Trigger aus. Wir bieten ein Template für den Anwendungsfall Person on Street an.
Als Subcondition können Sie Object als Parameter wählen und dann festlegen, wie viele Objekte diesen Bedingungen entsprechen müssen. Sie können festlegen, welche Klassen erwartet oder nicht erwartet werden. Außerdem kann eine Verweildauer als Bedingung hinzugefügt werden, um nur Objekte zu berücksichtigen, die sich länger als Zeit X in diesem Bereich aufhalten, z.B. bei unerlaubtem Überqueren, Falschparken in Feuerwehrzonen, etc.):
Zu Gefahrensituationen zwischen beispielsweise Personen und Fahrzeugen kommt es an Fußgängerüberwegen täglich und es ist ausschließlich Glück, wenn es dabei nicht zum Unfall kommt. Um zu analysieren, ob es zu welchen Situationen kommt und wenn ja, wie oft, bieten wir eine Lösung mithilfe unserer Rule-Engine.
Für diesen Anwendungsfall ist es notwendig, eine CL (für die Erkennung der Fahrzeuge) und eine RoI (für die Erkennung von Personen sowie Fahrrädern) zu kombinieren. Erstellen Sie dafür eine Counting Line samt Speed Estimation vor einem Zebrastreifen. Auf dem Fußgängerüberweg und/oder im Wartebereich zeichnen Sie eine Region of Interest ein:
In obenstehenden Beispiel ist die Regel wie folgt definiert: Ein Safety Issue wird erkannt, wenn sich mindestens eine Person auf dem Zebrastreifen (Region of Interest) befindet und ein Fahrzeug die Counting Line (inkl. Speed Estimation) mit mindestens 10 km/h überfährt.
Nachfolgend finden Sie ein von uns erstelltes Demovideo, in dem wir verschiedene Situationen am Zebrastreifen zeigen:
Vans sind Fahrzeuge zur Beförderung einer größeren Anzahl von Personen (zwischen sechs und neun), oder werden für Lieferungen verwendet. Kleinere Transporter wie der VW Multivan sind ebenso enthalten wie Fahrzeuge ähnlich dem Fiat Ducato.
Ein bus ist ein Fahrzeug zur Beförderung einer großen Anzahl von Personen. Dies umfasst Reisebusse, Doppeldeckerbusse, Motorbusse, Omnibusse, Personenwagen und Schulbusse.
Fahrzeuge, bzw. Objekte, die den oben genannten Klassen nicht entsprechen, fallen in die Klasse other. Dies gilt für Traktoren (mit oder ohne Anhänger), ATVs und Quads, Gabelstapler, Straßenwalzen, Bagger und Schneepflüge.
Nummer | Beschreibung |
---|---|
Bezeichnung | Details |
---|---|
Im Abschnitt der Custom Rules können Sie unter Action auf das -Symbol klicken, um die Regel als Template zu speichern. Wenn eine Regel als Template gekennzeichnet ist, wird sie entsprechend durch das -Symbol angezeigt:
Regeln können ganz einfach bearbeitet werden mit einem Klick auf das -Symbol. Wenn Sie auf das -Symbol klicken, können Sie eine Regel löschen. Dieser Vorgang muss bestätigt werden.
Wir empfehlen die Track-Kalibrierung für sowie Anwendungsfälle im Bereich des .
Als erster Schritt muss das Szenario auf Kameraebene konfiguriert werden. Dafür empfehlen wir die . Erstellen Sie dann eine Regel, benennen Sie diese und wählen Sie Origin-Destination als Event-Trigger für diese Regel aus. Für U-Turns kann ein vordefiniertes Template verwendet werden, das Sie natürlich noch anpassen können. Sie können die vorhandenen Origin-Destination-Zonen in Ihrem Szenario verbinden und festlegen, dass ein Objekt von einer Zone wieder zur selben Zone zurückkehrt, was auf ein Wendemanöver hindeuten könnte:
Geräteinformation: Durch Klicken auf das Stiftsymbol können Sie den Namen der Perception Box ändern. Dabei gibt es keinerlei Einschränkungen, Sie können beliebige Sonderzeichen und so viele Zeichen wie gewünscht verwenden.
Zudem finden Sie oben die Device ID und Device serial number des Geräts mit der Option, diese in die Zwischenablage zu kopieren. Die ID benötigen wir im Support, um Ihr Gerät einwandfrei zuordnen zu können. Die Seriennummer finden Sie außerdem auf dem Label auf der Box selbst.
Hier sehen Sie die Kameras pro Gerät (mit individueller Benennung). Die Kamerabezeichnung kann in den Kameraeinstellungen geändert werden. Diese öffnen sich, wenn Sie auf eine Kamera in der Liste klicken.
Add camera: Über diesen Button können Sie weitere Kameras hinzufügen.
Retrieve logs und Reboot device:
Sie haben die Möglichkeit, sich die Software-Logs anzeigen zu lassen, um einen detaillierten Überblick zu erhalten, falls die Box nicht wie erwartet funktioniert. Dort können Sie etwa sehen, ob die Box eine Verbindung zur Kamera herstellen kann. Sollte dem nicht so sein, überprüfen Sie bitte zunächst die Kamera- und Netzwerkeinstellungen auf Ihrer Seite.
Wie jede Hardware brauchen auch unsere Perception Boxen von Zeit zu Zeit einen Reboot. Nutzen Sie dafür den Button Reboot device.
Hier sehen Sie den Status der Kameras. Dieser gibt Infos darüber, ob die Software, der Kamera-Input und die MQTT-Verbindung auf Kameraebene funktionieren. Weitere Details zu möglichen Status finden Sie auf der Seite Kamera- und Gerätekontrolle.
RTSP
Müssen im Videocodec H264 or H264+ konfiguriert werden. Mehr Details finden Sie im Abschnitt Lösungsbereiche.
USB camera
Müssen als V4L-Gerät unter /dev/video0
verfügbar sein. Die folgenden Spezifikationen werden supported:
RAW-Farbbildformat: UYVY, YUY2, YVYU
Auflösung: 1080p
Weitere Kameraeinstellungen wie Verschlusszeit, Helligkeit, FPS, usw. sind kamera-/sensorspezifisch und müssen individuell kalibriert werden, um optimale Ergebnisse zu erzielen. Stellen Sie bitte außerdem sicher, dass Sie eine USB 3.0.-Kamera verwenden, um von der vollen Bildrate profitieren zu können.
Verschiedene Kameraeinstellungen zur Optimierung der Videostream-Einstellungen für unsere Lösung.
Die Verbindung zur Änderung der Kameraeinstellung über die Swarm Perception Platform erfolgt über den offenen ONVIF-Standard.
Stellen Sie sicher, dass ONVIF auf Ihrer Kamera aktiviert ist und erstellen Sie einen Admin-User mit denselben User Credentials wie für die Kamera selbst. Wenn die Kamera von Swarm Analytics geliefert wurde, ist ONVIF bereits aktiviert.
Die Kameraeinstellungen sind auf zwei Tabs aufgeteilt. Ein Tab ist für die Grundeinstellungen und dient vor allem der Überprüfung, ob die für die Verarbeitung via Swarm Analytics erforderlichen Parameter korrekt eingestellt sind. In den erweiterten Einstellungen können dann entsprechend weitere Parameter manuell angepasst und optimiert werden.
Hier wird die aktuelle Hauptkonfiguration der Kamera angezeigt und mit den empfohlenen Einstellungen für Ihre Konfiguration verglichen. Die Symbole zeigen also an, ob die aktuelle Einstellung den Empfehlungen entsprechen.
Darüber hinaus gibt es auch die Option, die empfohlenen Einstellungen automatisch und mit einem Mausklick anzuwenden, um die Kamera so für die bestmöglichen Ergebnisse zu konfigurieren.
Da jede Installation variiert, insbesondere in Bezug auf Beleuchtung, Entfernung und weitere externe Faktoren, können Sie die Kameraeinstellungen individuell konfigurieren, um die beste Bildqualität für Data Analytics zu erhalten.
Passen Sie dazu einfach die entsprechende Einstellung an und speichern Sie anschließend. Danach wird das Vorschaubild automatisch neu geladen und Sie können genau sehen, wie/ob sich die Änderungen auf die Bildqualität auswirken. Wenn Sie mit den Änderungen nicht zufrieden sind, können Sie auf Revert settings klicken und die Einstellungen werden dann auf die zum Zeitpunkt des Öffnens dieser Seite anwendeten Einstellungen zurückgesetzt.
ONVIF befindet sich im folgenden Bereich der Benutzeroberfläche von HikVision: Netzwerk --> Erweiterte Einstellungen --> Integrationsprotokoll.
Setzen Sie dann das Häkchen, um Open Network Video Interface zu aktivieren. Wichtig ist, dass im Drop-Down-Menü Digest&ws-username token ausgewählt ist:
Fügen Sie dann über Add user ein Benutzerprofil hinzu:
User Name: <derselbe wie beim Kamerazugriff>
Password: <dasselbe wie beim Kamerazugriff>
Level: Administrator
anschließend mit OK speichern
Zudem müssen die Zeiteinstellungen korrekt sein, damit ONVIF-Aufrufe funktionieren. Klicken Sie dafür auf System --> Systemeinstellungen --> Zeiteinstellungen. Aktivieren Sie dort NTP für die Zeitsynchronisierung und speichern Sie anschließend.
Bezeichnung | Beschreibung | Wert/Info |
---|---|---|
Brightness (Helligkeit)
Bestimmt, wie dunkel oder hell das Kamerabild ist.
Von 0 (dunkel) zu 10 (hell)
Contrast (Kontrast)
Unterschied zwischen hellen und dunklen Bereichen des Kamerabildes.
Von 0 (geringer Kontrast) zu 10 (sehr hoher Kontrast)
Saturation (Sättigung)
Beschreibt die Tiefe, bzw. Intensität der Farben im Kamerabild.
Von 0 (geringe Farbintenstität) zu 10 (hohe Farbintensität)
Sharpness (Schärfe)
Bestimmt, wie klar Details im Kamerabild dargestellt werden.
Von 0 (wenig Details) zu 10 (detailreich)
Shutter speed (Verschlusszeit)
Geschwindigkeit, mit der der Verschluss der Kamera schließt (Belichtungszeit).
Ein schnellerer Verschluss kann unscharfe Bilder verhindern, jedoch erfordern schlechte Lichtverhältnisse manchmal einen höheren Wert. Werte werden in Sekunden angegeben, z.B. 1/200s = 0.005s
Day/Night mode (Tag-/Nachtmodus)
Wählen Sie zwischen Tag-/Nacht- und Auto-Modus, der den IR-Cut-Filter je nach Eingabe des Kamerasensors verwendet.
Day, Night, Auto
Wide Dynamic Range (WDR)
Für Szenarien mit hohem Kontrast hilft WDR, auch in sehr dunklen/hellen Bereichen Details zu erkennen.
Wenn WDR aktiviert ist, kann danach der Intensitätspegel angepasst werden.
Zoom
Motorisierter optischer Zoom der Kamera.
Es stehen zwei Zoomstufen zur Verfügung, die durch die + und - Tasten angezeigt werden. Der Zoom wird direkt auf der Kamera angewendet und kann nicht automatisch zurückgesetzt werden.