2123 liens privés
Bien sûr, c’est toujours la police qui assure la sécurité du Festival de Cannes, du 14 au 25 mai prochain. Mais cette année, les forces de l’ordre se sont adjoint les services d’auxiliaires bien particuliers. Pas la carrure de bodyguards ou commandos d’élite pour jouer les cerbères aux abords du Palais. Mais plutôt l’allure décontractée et la tête bien pleine des jeunes chercheurs (moins de trente ans d’âge moyen) de la société Videtics, basée à Sophia Antipolis.
Ce sont bien eux qui ont décroché le marché avec le ministère de l’Intérieur (à 19.000 e), afin d’expérimenter l’usage de l’intelligence artificielle sur 17 caméras, durant la grande messe du cinéma sur la Croisette. Autrement dit, grâce aux logiciels développés par ces cerveaux azuréens, les "cyclopes" de la Ville pourront détecter au plus vite des comportements ou faits suspects, en lien direct avec le centre municipal de vidéosurveillance.
Tout en sourire et simplicité, Alan Ferbach, cofondateur de Videtics – avec Alexandre Reboul et Pierre-Alexis Le Borgne –, nous reçoit dans leurs bureaux au cœur de la technopole.
Détection en amont - Pourquoi "Videtics"?
"Pour vidéo et éthique, avec le ‘‘ics’’ pour le côté analytix, façon Astérix, répond du tac au tac l’intéressé. Il s’agit avant tout de protéger les biens et personnes. Et comme on s’est aperçu que 99% des images enregistrées par des caméras de sécurité n’étaient ni visionnées ni exploitées, on crée des outils pour mieux cibler leur usage. Pas uniquement d’un point de vue sécuritaire d’ailleurs (voir encadré)."
Ce sera néanmoins le cas à Cannes, avec cette intelligence artificielle à titre expérimental, autorisée jusqu’au 31 mars 2025 par la loi d’exception sur les J. O. Sur son ordinateur, dans son bureau où stationne un vélo (il s’entraîne pour le triathlon), Alan nous montre comment fonctionne le logiciel "Perception", que la société a mis au point. Sur l’écran, la pièce principale de leurs locaux apparaît. Alan y trace une ligne imaginaire en bleu.
À chaque fois, qu’une personne la franchira, elle sera aussitôt repérée et ciblée sur l’écran. Pareil pour une valise posée devant le canapé, au bout d’un temps déterminé par l’utilisateur, avant de la considérer comme un colis suspect. Ou bien pour Alan lui-même, qui s’est prêté au jeu en s’allongeant à terre, et a été immédiatement cerclé à l’écran!
L’intrus, pas la star!
"Le principe est toujours le même, indique l’ingénieur sorti de l’école Polytech à côté. On définit une zone d’intérêt en amont, qui va être concernée par les critères à détecter."
Durant le Festival du film, huit "scénarios" sont ainsi pris en compte: les mouvements de foule, l’intrusion d’une personne ou d’un véhicule dans un périmètre interdit, une circulation à contresens, une personne au sol, la détention d’une arme, d’un feu ou d’un colis abandonné. "Ici, le logiciel se base sur la forme d’une personne, d’un véhicule ou d’un bateau. Tout le reste c’est du background, du paysage, ou alors un objet abandonné!"
Et Brad Pitt, qui déciderait soudain de faire du hors tapis pour pénétrer dans une zone interdite? "Ah ça, on ne peut pas l’identifier, car la reconnaissance faciale n’est pas autorisée."
Autrement dit, cinéma ou pas, l’heure n’est pas encore au règne de Big Brother. Et pour être artificielle, cette intelligence ne manque pas de conscience…