12-07-2025
Forcer l'IA à oublier les visages, c'est possible et ça se passe en Suisse
Accueil | Savoirs | Technologie |
À Neuchâtel, le CSEM force les modèles d'intelligence artificielle à empêcher la vidéosurveillance de conserver les visages captés. Publié aujourd'hui à 16h36
Photo de caméra de surveillance (à g.) et les versions reconstruites auxquelles elle est confrontée. L'une fournie par un modèle d'IA classique, qui conserve malgré lui certains traits identifiants (au centre). L'autre traitée avec la méthode CSEM, qui empêche toute reconstruction d'image fidèle.
CSEM
En bref:
Contre-intuitif. Forcer un algorithme conçu pour apprendre à toujours mieux reconnaître un visage à en ignorer les détails. C'est pourtant ce que vient d'annoncer en milieu de semaine le Centre suisse d'électronique et de microtechnique (CSEM), avec des modèles d'intelligence artificielle qui «oublient les visages».
Une présentation qui intervient alors que le grand public n'a jamais été aussi inquiet de la surveillance généralisée à laquelle il est soumis, sur le Net comme dans l'espace public. Et alors que s'achève, ce vendredi à Genève, la conférence des Nations Unies AI for Good , qui tente de mobiliser cette révolution technologique au service du bien commun. Révolte contre le flicage à la chinoise
Déjà omniprésente – pour déverrouiller son téléphone comme dans les aéroports ou les hôpitaux – la reconnaissance faciale soulève de grandes préoccupations en matière de protection de la vie privée et de consentement.
Il y a quatre ans, les Suisses ont réclamé son interdiction nationale à des fins de surveillance. Genève a proscrit depuis plus d'une année toute surveillance biométrique de masse, dont l'utilisation a également été écartée, début mai, par le Conseil communal de Lausanne. Et comme dans l'Union européenne, qui finalise sa loi sur l'IA, l'utilisation de systèmes d'identification en continu dans l'espace public ne peut intervenir que dans le cadre d'opérations de police. Et demeure interdite en l'absence de justification juridique. Les mains dans le moteur de l'IA
La méthode d'entraînement des modèles d'IA mise au point par le groupe Edge AI and Vision Systems du CSEM vise à «appuyer ce cadre réglementaire». En veillant à ce que l'IA ne conserve pas de données personnelles sensibles. Ce reformatage de l'intelligence artificielle s'appuie sur une stratégie dite d'«apprentissage antagoniste», qui arrive à détecter lorsque le système tente de conserver des informations qu'il ne devrait pas.
«Pour qu'un modèle d'IA soit vraiment utile dans des environnements sensibles et très fréquentés comme les gares ou les hôpitaux, il doit se concentrer uniquement sur les éléments nécessaires à sa mission – par exemple, détecter des comportements anormaux – sans prendre en compte d'informations personnelles telles que la couleur de peau, le genre ou l'âge», explique Nadim Maamari, chef de groupe au CSEM. «Notre approche innovante guide l'IA pour lui faire oublier ces données sensibles dès la phase d'apprentissage – ce qui permet non seulement de préserver la vie privée, mais aussi de développer des systèmes qui ne sont pas biaisés par les données sur lesquelles ils ont été entraînés», poursuit ce dernier.
Lors de ses tests, Nadim Maamari a comparé deux versions d'un même modèle d'IA. L'une entraînée de manière classique, qui conserve malgré elle certains traits identifiants. Et une autre traitée avec sa méthode, qui empêche toute reconstruction d'image fidèle. Vérification contre identification
«Les systèmes du type de ceux mis en avant par le CSEM répondent à la crainte de la population d'être tracée, fliquée en permanence – même si en réalité, le problème reste tout aussi législatif que technique», tempère Christophe Remillet, spécialiste de la vérification faciale à la tête de OneVisage, à Lausanne. Cette société utilise la biométrie pour apprendre à une machine à vérifier le visage enregistré d'une personne qui se présente pour authentification, par exemple aux abords d'une zone sécurisée. Et met en opposition cette vérification avec l'identification à large échelle.
«Identifier les visages un à un dans une foule est une aberration, en termes de préservation de l'anonymat évidemment, mais aussi au niveau de la sécurité, à voir les taux d'erreur et les arnaques sur les systèmes de paiement facial», pointe ce vétéran du secteur. Qui rappelle que «la surveillance par reconnaissance faciale signifie nécessairement le stockage des photos sur une base de données – ce que font les autorités chinoises, les GAFAM (ndlr: géants américains du Net) , sans parler de la société new-yorkaise ClearView, qui collecte des milliards de photos sur les réseaux afin de revendre ses services de reconnaissance faciale aux polices du monde entier – en toute impunité», souffle Christophe Remillet.
Tous surveillés, plus d'articles sur le sujet Newsletter
«Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde.
Autres newsletters
Pierre-Alexandre Sallier est journaliste à la rubrique Économie depuis 2014. Auparavant il a travaillé pour Le Temps , ainsi que pour le quotidien La Tribune , à Paris. Plus d'infos
Vous avez trouvé une erreur?Merci de nous la signaler.