logo
#

Dernières actualités avec #AIforGood

Forcer l'IA à oublier les visages, c'est possible et ça se passe en Suisse
Forcer l'IA à oublier les visages, c'est possible et ça se passe en Suisse

24 Heures

time12-07-2025

  • 24 Heures

Forcer l'IA à oublier les visages, c'est possible et ça se passe en Suisse

Accueil | Savoirs | Technologie | À Neuchâtel, le CSEM force les modèles d'intelligence artificielle à empêcher la vidéosurveillance de conserver les visages captés. Publié aujourd'hui à 16h36 Photo de caméra de surveillance (à g.) et les versions reconstruites auxquelles elle est confrontée. L'une fournie par un modèle d'IA classique, qui conserve malgré lui certains traits identifiants (au centre). L'autre traitée avec la méthode CSEM, qui empêche toute reconstruction d'image fidèle. CSEM En bref: Contre-intuitif. Forcer un algorithme conçu pour apprendre à toujours mieux reconnaître un visage à en ignorer les détails. C'est pourtant ce que vient d'annoncer en milieu de semaine le Centre suisse d'électronique et de microtechnique (CSEM), avec des modèles d'intelligence artificielle qui «oublient les visages». Une présentation qui intervient alors que le grand public n'a jamais été aussi inquiet de la surveillance généralisée à laquelle il est soumis, sur le Net comme dans l'espace public. Et alors que s'achève, ce vendredi à Genève, la conférence des Nations Unies AI for Good , qui tente de mobiliser cette révolution technologique au service du bien commun. Révolte contre le flicage à la chinoise Déjà omniprésente – pour déverrouiller son téléphone comme dans les aéroports ou les hôpitaux – la reconnaissance faciale soulève de grandes préoccupations en matière de protection de la vie privée et de consentement. Il y a quatre ans, les Suisses ont réclamé son interdiction nationale à des fins de surveillance. Genève a proscrit depuis plus d'une année toute surveillance biométrique de masse, dont l'utilisation a également été écartée, début mai, par le Conseil communal de Lausanne. Et comme dans l'Union européenne, qui finalise sa loi sur l'IA, l'utilisation de systèmes d'identification en continu dans l'espace public ne peut intervenir que dans le cadre d'opérations de police. Et demeure interdite en l'absence de justification juridique. Les mains dans le moteur de l'IA La méthode d'entraînement des modèles d'IA mise au point par le groupe Edge AI and Vision Systems du CSEM vise à «appuyer ce cadre réglementaire». En veillant à ce que l'IA ne conserve pas de données personnelles sensibles. Ce reformatage de l'intelligence artificielle s'appuie sur une stratégie dite d'«apprentissage antagoniste», qui arrive à détecter lorsque le système tente de conserver des informations qu'il ne devrait pas. «Pour qu'un modèle d'IA soit vraiment utile dans des environnements sensibles et très fréquentés comme les gares ou les hôpitaux, il doit se concentrer uniquement sur les éléments nécessaires à sa mission – par exemple, détecter des comportements anormaux – sans prendre en compte d'informations personnelles telles que la couleur de peau, le genre ou l'âge», explique Nadim Maamari, chef de groupe au CSEM. «Notre approche innovante guide l'IA pour lui faire oublier ces données sensibles dès la phase d'apprentissage – ce qui permet non seulement de préserver la vie privée, mais aussi de développer des systèmes qui ne sont pas biaisés par les données sur lesquelles ils ont été entraînés», poursuit ce dernier. Lors de ses tests, Nadim Maamari a comparé deux versions d'un même modèle d'IA. L'une entraînée de manière classique, qui conserve malgré elle certains traits identifiants. Et une autre traitée avec sa méthode, qui empêche toute reconstruction d'image fidèle. Vérification contre identification «Les systèmes du type de ceux mis en avant par le CSEM répondent à la crainte de la population d'être tracée, fliquée en permanence – même si en réalité, le problème reste tout aussi législatif que technique», tempère Christophe Remillet, spécialiste de la vérification faciale à la tête de OneVisage, à Lausanne. Cette société utilise la biométrie pour apprendre à une machine à vérifier le visage enregistré d'une personne qui se présente pour authentification, par exemple aux abords d'une zone sécurisée. Et met en opposition cette vérification avec l'identification à large échelle. «Identifier les visages un à un dans une foule est une aberration, en termes de préservation de l'anonymat évidemment, mais aussi au niveau de la sécurité, à voir les taux d'erreur et les arnaques sur les systèmes de paiement facial», pointe ce vétéran du secteur. Qui rappelle que «la surveillance par reconnaissance faciale signifie nécessairement le stockage des photos sur une base de données – ce que font les autorités chinoises, les GAFAM (ndlr: géants américains du Net) , sans parler de la société new-yorkaise ClearView, qui collecte des milliards de photos sur les réseaux afin de revendre ses services de reconnaissance faciale aux polices du monde entier – en toute impunité», souffle Christophe Remillet. Tous surveillés, plus d'articles sur le sujet Newsletter «Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde. Autres newsletters Pierre-Alexandre Sallier est journaliste à la rubrique Économie depuis 2014. Auparavant il a travaillé pour Le Temps , ainsi que pour le quotidien La Tribune , à Paris. Plus d'infos Vous avez trouvé une erreur?Merci de nous la signaler.

Conférence AI for Good à Genève: «L'IA n'est qu'un outil, ce sont les humains qui déterminent son impact»
Conférence AI for Good à Genève: «L'IA n'est qu'un outil, ce sont les humains qui déterminent son impact»

24 Heures

time09-07-2025

  • 24 Heures

Conférence AI for Good à Genève: «L'IA n'est qu'un outil, ce sont les humains qui déterminent son impact»

Accueil | Savoirs | Technologie | Au sommet des Nations Unies sur l'intelligence artificielle, Werner Vogels, haut responsable d'Amazon, répond à la révolte qui monte. Publié aujourd'hui à 08h05 «Au final ce sont les humains, en fonction de l'utilisation qu'ils en font, qui déterminent si cette technologie est bonne ou non». Werner Vogels, directeur de la technologie (CTO) et vice-président du géant américain Amazon, à Genève, le 8 juillet 2025, en marge de la conférence des Nations Unies sur l'intelligence artificielle AI for Good. LAURENT GUIRAUD/TAMEDIA En bref: AI for Good , la conférence des Nations Unies sur l'intelligence artificielle au service du bien commun a ouvert ses portes ce mardi à Palexpo. Elle s'y tiendra jusqu'à la fin de la semaine. Organisée par l'ITU, l'agence onusienne pour les technologies numériques basée à Genève, elle est focalisée sur la gouvernance de l'IA et accueille plus de 150 exposants déclinant cette révolution technologique dans la santé, l'éducation, ou l'environnement. L'événement est ouvert au public , qui peut venir à la rencontre de robots ou profiter d'ateliers interactifs ouverts aux plus jeunes. Parmi les chercheurs, dirigeants d'entreprises technologiques ou d'autorités de régulation et diplomates présents mardi, quelques figures du secteur étaient assaillies pour des demandes de selfies, telles des superstars. À commencer par Werner Vogels, directeur de la technologie (CTO) du géant américain Amazon. Dans les repas de famille, autour de la machine à café… Le débat autour de l'IA est partout. Entendez-vous cette peur, cette révolte, face à une vision totalement algorithmique et chiffrée de l'être humain? Quelle est l'essence de ces craintes? L'inconnu. La plupart des gens ne réalisent pas que cette intelligence artificielle – le terme a été inventé en 1956 – est présente depuis des décennies. Exemple? Si vous allez sur vous l'activez depuis vingt ans. En réalité, l'IA n'est pas si différente des autres technologies. Sauf qu'autrefois, il fallait parfois cinq, dix ans pour que les gens s'y familiarisent. Regardez les tableurs informatiques développés dès les années 60, mais commercialisés vingt ans plus tard – avec Lotus, puis Excel – avant d'entrer dans les mœurs dans les années 90. La différence avec ce qui se passe depuis un an et demi? Une nouvelle version de l'IA – appelée IA générative – a été lancée directement auprès du grand public, sans formation préalable. Ce que vous dites, c'est qu'une énorme confusion règne sur la menace que cela représente? Exactement. Bien sûr que les technologies actuelles dérivées de l'IA auront un impact significatif. Mais comme celles qui les ont précédées. Pensez à un drone, qui doit éviter les obstacles. Ce n'est qu'une boîte remplie d'IA, mais on l'appelle drone pas drone-IA. Ce n'est que depuis un an et demi, avec l'apparition de l'IA générative, que le mot est partout. Le cœur du problème reste la formation du public. Et sans formation, l'incertitude domine. Et les réactions instinctives surgissent. Chez Amazon Web Services, la division d'informatique en nuage Cloud d'Amazon destinée aux entreprises, nous avons pour objectif d'enseigner ces technologies à 2 millions de personnes, d'ici à la fin 2025. Au final, ce sont les humains, en fonction de l'utilisation qu'ils en font, qui déterminent si cette technologie est bonne ou non. À entendre Geoffrey Hinton et John Hopfield – les pères du deep learning à la base des derniers outils de l'IA – c'est non. L'an dernier, en recevant leur Nobel, n'ont-ils pas averti que leurs travaux pourraient conduire à la… destruction de l'humanité? Hinton a également dit dans son discours que ce sont les humains qui utilisent cette technologie et qui déterminent jusqu'où elle irait. Et que ce sont eux qui doivent mettre en place des garde-fous pour s'assurer que ces modèles ne commencent pas à dire des absurdités. C'est un problème bien plus réel et pressant que de savoir si cette technologie peut s'autonomiser et se répliquer d'elle-même, comme dans un film de science-fiction. L'IA n'est qu'un outil. Genève, le 8 juillet 2025. Atelier interactif dans le cadre de la conférence des Nations Unies sur l'intelligence artificielle AI for Good. LAURENT GUIRAUD/TAMEDIA Durant la semaine AI for Good, des dizaines de projets en faveur du développement seront présentés. Vous vous focalisez sur l'application de l'IA dans la cartographie. Pourquoi? Parce qu'une cartographie véritablement interactive, avec plusieurs niveaux d'informations en temps réel, résume le mieux ce que nous pouvons réaliser – notamment sur le front des objectifs de développement durable des Nations Unies. Pensez à la santé au Rwanda, pour s'assurer que les femmes du pays ne soient jamais à plus d'une heure de marche d'un dispensaire. Comment l'organiser si vous ne savez pas précisément où ils se trouvent? Cet effort est parti du travail d'OpenStreetMap, en Haïti, après le séisme de 2010. Regardez le programme The Ocean CleanUp, ils installent des caméras de détection du plastique sur les rivières passant par les trente principales métropoles à l'origine du tiers des plastiques arrivant en mer, afin d'obtenir une cartographie cruciale. Depuis Alan Turing, le déploiement de la recherche en IA s'est fait par cycle, avec de longues périodes de creux. L'effervescence actuelle n'est-elle qu'un autre cycle haussier, ponctué par les discours mégalomaniaques d'un Sam Altman, créateur de ChatGPT? Y aura-t-il quelque chose après cette IA générative? Bien sûr. Il y aura d'autres technologies, qui seront bien plus efficaces dans certains domaines, ce qui est normal. Des outils, qui aideront les humains à se décharger de certaines tâches. Notamment dans la santé. Regardez ces campagnes pour la détection précoce du cancer du sein. Face à un radiologue, qui doit examiner des milliers de ces mammographies par jour, des outils basés sur l'IA classique – je ne parle pas d'IA générative – détectent 30% de cancers du sein en plus. Autre exemple, les médecins généralistes, qui manquent partout en Europe. Comment s'assurer qu'ils ne passent pas leur temps à remplir des formulaires d'assurance? Qu'ils puissent se concentrer sur le lien avec le patient? Un des enjeux de cette conférence reste la mise en place d'un cadre, d'une gouvernance. Par exemple, en exigeant que les masses données dont se nourrissent ces applications ne soient pas privatisées. Des principes qui heurtent directement les intérêts des géants de la tech – comme Amazon? Non. Nous considérons qu'il est de notre responsabilité de rendre des données accessibles au public. Pour les organisations, qui créent les données cartographiques dont je parlais, mais pour bien d'autres types de données, nous veillons à ce qu'elles stockent bien plus de 300 pétaoctets [soit 300… millions de Go] de données accessibles. Ce partage est une obligation morale. Genève, le 8 juillet 2025. Conférence des Nations Unies AI for Good. «Y aura-t-il quelque chose après cette IA générative? Bien sûr», estime Werner Vogels, le responsable de la technologie (CTO) du géant Amazon. LAURENT GUIRAUD/TAMEDIA L'IA face à la révolte des humains Newsletter «Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde. Autres newsletters Pierre-Alexandre Sallier est journaliste à la rubrique Économie depuis 2014. Auparavant il a travaillé pour Le Temps , ainsi que pour le quotidien La Tribune , à Paris. Plus d'infos Vous avez trouvé une erreur?Merci de nous la signaler.

TÉLÉCHARGER L'APPLICATION

Commencez dès maintenant : Téléchargez l'application

Prêt à plonger dans un monde de contenu mondial aux saveurs locales? Téléchargez l'application Daily8 dès aujourd'hui sur votre app store préféré et commencez à explorer.
app-storeplay-store