Utilisation des Analytiques en Vidéo

Publié le 25 Oct 2024

On en parle beaucoup. désormais. L’ IA (Intelligence Artificielle) ou le Deep Learning ( Apprentissage en profondeur) ou réalités augmentées sont présents partout, à la télé, dans les articles, sur Linkedin.

Mais en pratique que peut on faire réellement en terme de performances ? Acheter la bonne caméra ou le bon logiciel suffit -il ?

Toute utilisation d’analytiques doit répondre à une stratégie et des objectifs précis, sous peine de sombrer rapidement. Il faut également « mouiller la chemise » coté exploitant, et coté performances techniques car sans cela le projet sera difficile à porter à un haut degré d’efficacité et à conserver au travers de la maintenance.

  • Définition d’un correspondant de l’exploitant chargé du suivi de l’efficacité du projet et de son amélioration, et qui fera l’interface avec les prestataires et fournisseurs de solutions,
  • Définition d’objectifs limités et facilement mesurables statistiquement,
  • Mise en place de protocoles de test périodiques avec suivi des faux positifs et stress test sur les possibles faux négatifs notamment en conditions climatiques dégradées (brouillard, neige, orage, canicule..ou mélange de tout cela )
  • Suivi rigoureux des DOE et des réglages et sauvegardes afin de pouvoir reproduire ou améliorer des réglages, des asservissements, notamment lors des maintenances préventives ou curatives.

Actuellement la grande majorité des licences d’analyse en sureté se concentrent depuis des années sur la détection d’intrusion en périphérie de site avec des caméras thermiques. Plus efficaces en terme de faux positifs que les barrières infra rouge, les caméras thermiques couplées à des logiciels embarqués dans les caméras (edge analytique) ou dans des serveurs dédiés atteignent des taux de détection corrects pour peu qu’on tiennent compte des aléas de réchauffement pouvant atténuer les contrastes de températures.

Le détections « optiques » sont plus complexes car selon les éditeurs d’algorithmes, les résultats dépendront:

  • de la luminosité (souvent la couleur permet plus de chose que le noir et blanc avec Infra rouge)
  • du nombre de pixels sur la cible et du niveau de détails (ppm Largeur x Hauteur)
  • de la netteté ( l’autofocus n’est pas forcement mon ami dans ce cas)
  • de la qualité du flux analysé quand l’analyse est faite par un serveur ( Résolution, Ips, parfois le GOP, la compression …)

Ajoutons que les toiles d’araignées, les branches, les reflets et les ombres ne facilitent pas non plus la tâche des moteurs d’analyse. D’où l’idée de définir des zones « maitrisées » en luminosité, distance et ppm et bien maintenue avec des matériels qui ne génèreront pas trop d’intempestifs.

Expo Protection 2024

Publié le 22 Août 2024

Pour la 12 ème année consécutive, RX Expo nous fait l’honneur de nous commander des mini formations à l’occasion d’Expo Protection 2024. Trois conférences sur 3 thèmes:

Tour d’horizon des tendances technologiques 2024 – 2025 en vidéoprotection 

Espace conférences 1 – Mardi, 5 Nov. 13:35 – 14:20

  • Comprendre les grandes tendances technologiques sur le marché de la Vidéo en 2024/2025 coté caméras, serveurs, réseaux, cyber et analytiques
  • Opportunités et /ou limites de ces nouveautés
  • Points d’attention lors des déploiements de ces technologies

Comment concevoir un système de vidéo protection / surveillance efficace ?

Espace conférences 1 – Jeudi, 7 Nov. – 13:00 – 13:50

  • Points d’attention critiques dans un projet Vidéo coté exploitant
  • Comprendre les étapes clés d’un projet Vidéo et la législation
  • Définir ses besoins réels et une stratégie de déploiement

Comment intégrer de « l’intelligence » pour booster la performance d’un projet de vidéoprotection ?

Espace conférences 1 – Jeudi, 7 Nov. – 15:35 – 16:15

  • Définition des besoins, Analyse fonctionnelle et types d’exploitation
  • Quelles sont les offres analytiques actuelles ? Détections et Actions possibles
  • Points d’attention lors des déploiements de ces technologies

Retrouvons nous à cette occasion !

IA ou DeepLearning ?

Publié le 18 Sep 2021

Just Do IP teste actuellement plusieurs solutions basées sur l’IA ou le Deep Learning soit avec des algorithmes embarqués dans des caméras, soit sous forme de serveurs dédiés.

Vous avez ci dessous les principales problématiques résumées. Parmi les principales: peut on détecter automatiquement des personnes ou véhicules immobiles, et peut on détecter quand on a qu’une fraction masquée de la cible ?

D’autres critères comme la facilité de mise en œuvre et d’auto calibration, l’ergonomie de l’interface utilisateur, son intégration avec les VMS et Hyperviseurs du marché, la résistance / résilience à la saleté, aux insectes et aux végétaux et enfin la facilité de maintenance logicielle du système, car il faut pouvoir évoluer aisément.

Ci dessous test en live avec double détection en mouvement. Sans mouvement ou sur une vue partielle l’algorithme dans la version testée ne détectait pas.

Les véhicules à gauche et devant en partiel ne sont pas détectés. Une main, un avant bras ou une tête seule non plus.

Au stade actuel, aucun éditeur ou constructeur ne se risque à déclarer un 95% ou, à fortiori un 100%.

Peu de sociétés ont le temps et l’argent de tester en conditions de « stress test » les équipements, c’est à dire en faible luminosité ou en noir et blanc avec infra rouge, sous la pluie, et avec une toile d’araignée sur l’objectif.

Néanmoins, je constate que les faux positifs basiques sur végétaux en mouvement (branches, feuillus) ont tendance à disparaitre sur les derniers modèles d’analytiques.

Certaines caméras récentes équipées de Led blanches éclairent la scène dès que la luminosité baisse afin d’appliquer de la reconnaissance humaine ou véhicule et avec de très bons résultats. Elles peuvent émettre des messages pré enregistrés (« Périmètre privé veuillez quitter les lieux.. » ) , des lumières stroboscopiques ou clignotantes… Rester en couleur permet généralement de meilleurs résultats.

Un point important est qu’il est impossible de connaitre généralement la qualité d’apprentissage du « Deep learning » qui a été effectuée part l’éditeur ou le constructeur : a t on alimenté l’algorithme avec d’innombrables situations de l’objet et beaucoup de variations de luminosités pour décrire un véhicule ou un visage ou une arme , ou bien a t on entré des images de type « catalogues » , belles et hyper reconnaissables mais éloignées de la réalité ?

VMD, VCA, Machine Learning, Deep Learning et IA sont abordés et illustrés par des exemples dans nos formations avec leurs forces et leurs limites