09-07-2025
Conférence AI for Good à Genève: «L'IA n'est qu'un outil, ce sont les humains qui déterminent son impact»
Accueil | Savoirs | Technologie |
Au sommet des Nations Unies sur l'intelligence artificielle, Werner Vogels, haut responsable d'Amazon, répond à la révolte qui monte. Publié aujourd'hui à 08h05
«Au final ce sont les humains, en fonction de l'utilisation qu'ils en font, qui déterminent si cette technologie est bonne ou non». Werner Vogels, directeur de la technologie (CTO) et vice-président du géant américain Amazon, à Genève, le 8 juillet 2025, en marge de la conférence des Nations Unies sur l'intelligence artificielle AI for Good.
LAURENT GUIRAUD/TAMEDIA
En bref:
AI for Good , la conférence des Nations Unies sur l'intelligence artificielle au service du bien commun a ouvert ses portes ce mardi à Palexpo. Elle s'y tiendra jusqu'à la fin de la semaine. Organisée par l'ITU, l'agence onusienne pour les technologies numériques basée à Genève, elle est focalisée sur la gouvernance de l'IA et accueille plus de 150 exposants déclinant cette révolution technologique dans la santé, l'éducation, ou l'environnement. L'événement est ouvert au public , qui peut venir à la rencontre de robots ou profiter d'ateliers interactifs ouverts aux plus jeunes.
Parmi les chercheurs, dirigeants d'entreprises technologiques ou d'autorités de régulation et diplomates présents mardi, quelques figures du secteur étaient assaillies pour des demandes de selfies, telles des superstars. À commencer par Werner Vogels, directeur de la technologie (CTO) du géant américain Amazon.
Dans les repas de famille, autour de la machine à café… Le débat autour de l'IA est partout. Entendez-vous cette peur, cette révolte, face à une vision totalement algorithmique et chiffrée de l'être humain?
Quelle est l'essence de ces craintes? L'inconnu. La plupart des gens ne réalisent pas que cette intelligence artificielle – le terme a été inventé en 1956 – est présente depuis des décennies. Exemple? Si vous allez sur vous l'activez depuis vingt ans. En réalité, l'IA n'est pas si différente des autres technologies. Sauf qu'autrefois, il fallait parfois cinq, dix ans pour que les gens s'y familiarisent. Regardez les tableurs informatiques développés dès les années 60, mais commercialisés vingt ans plus tard – avec Lotus, puis Excel – avant d'entrer dans les mœurs dans les années 90. La différence avec ce qui se passe depuis un an et demi? Une nouvelle version de l'IA – appelée IA générative – a été lancée directement auprès du grand public, sans formation préalable.
Ce que vous dites, c'est qu'une énorme confusion règne sur la menace que cela représente?
Exactement. Bien sûr que les technologies actuelles dérivées de l'IA auront un impact significatif. Mais comme celles qui les ont précédées. Pensez à un drone, qui doit éviter les obstacles. Ce n'est qu'une boîte remplie d'IA, mais on l'appelle drone pas drone-IA. Ce n'est que depuis un an et demi, avec l'apparition de l'IA générative, que le mot est partout. Le cœur du problème reste la formation du public. Et sans formation, l'incertitude domine. Et les réactions instinctives surgissent. Chez Amazon Web Services, la division d'informatique en nuage Cloud d'Amazon destinée aux entreprises, nous avons pour objectif d'enseigner ces technologies à 2 millions de personnes, d'ici à la fin 2025. Au final, ce sont les humains, en fonction de l'utilisation qu'ils en font, qui déterminent si cette technologie est bonne ou non.
À entendre Geoffrey Hinton et John Hopfield – les pères du deep learning à la base des derniers outils de l'IA – c'est non. L'an dernier, en recevant leur Nobel, n'ont-ils pas averti que leurs travaux pourraient conduire à la… destruction de l'humanité?
Hinton a également dit dans son discours que ce sont les humains qui utilisent cette technologie et qui déterminent jusqu'où elle irait. Et que ce sont eux qui doivent mettre en place des garde-fous pour s'assurer que ces modèles ne commencent pas à dire des absurdités. C'est un problème bien plus réel et pressant que de savoir si cette technologie peut s'autonomiser et se répliquer d'elle-même, comme dans un film de science-fiction. L'IA n'est qu'un outil.
Genève, le 8 juillet 2025. Atelier interactif dans le cadre de la conférence des Nations Unies sur l'intelligence artificielle AI for Good.
LAURENT GUIRAUD/TAMEDIA
Durant la semaine AI for Good, des dizaines de projets en faveur du développement seront présentés. Vous vous focalisez sur l'application de l'IA dans la cartographie. Pourquoi?
Parce qu'une cartographie véritablement interactive, avec plusieurs niveaux d'informations en temps réel, résume le mieux ce que nous pouvons réaliser – notamment sur le front des objectifs de développement durable des Nations Unies. Pensez à la santé au Rwanda, pour s'assurer que les femmes du pays ne soient jamais à plus d'une heure de marche d'un dispensaire. Comment l'organiser si vous ne savez pas précisément où ils se trouvent? Cet effort est parti du travail d'OpenStreetMap, en Haïti, après le séisme de 2010. Regardez le programme The Ocean CleanUp, ils installent des caméras de détection du plastique sur les rivières passant par les trente principales métropoles à l'origine du tiers des plastiques arrivant en mer, afin d'obtenir une cartographie cruciale.
Depuis Alan Turing, le déploiement de la recherche en IA s'est fait par cycle, avec de longues périodes de creux. L'effervescence actuelle n'est-elle qu'un autre cycle haussier, ponctué par les discours mégalomaniaques d'un Sam Altman, créateur de ChatGPT?
Y aura-t-il quelque chose après cette IA générative? Bien sûr. Il y aura d'autres technologies, qui seront bien plus efficaces dans certains domaines, ce qui est normal. Des outils, qui aideront les humains à se décharger de certaines tâches. Notamment dans la santé. Regardez ces campagnes pour la détection précoce du cancer du sein. Face à un radiologue, qui doit examiner des milliers de ces mammographies par jour, des outils basés sur l'IA classique – je ne parle pas d'IA générative – détectent 30% de cancers du sein en plus. Autre exemple, les médecins généralistes, qui manquent partout en Europe. Comment s'assurer qu'ils ne passent pas leur temps à remplir des formulaires d'assurance? Qu'ils puissent se concentrer sur le lien avec le patient?
Un des enjeux de cette conférence reste la mise en place d'un cadre, d'une gouvernance. Par exemple, en exigeant que les masses données dont se nourrissent ces applications ne soient pas privatisées. Des principes qui heurtent directement les intérêts des géants de la tech – comme Amazon?
Non. Nous considérons qu'il est de notre responsabilité de rendre des données accessibles au public. Pour les organisations, qui créent les données cartographiques dont je parlais, mais pour bien d'autres types de données, nous veillons à ce qu'elles stockent bien plus de 300 pétaoctets [soit 300… millions de Go] de données accessibles. Ce partage est une obligation morale.
Genève, le 8 juillet 2025. Conférence des Nations Unies AI for Good. «Y aura-t-il quelque chose après cette IA générative? Bien sûr», estime Werner Vogels, le responsable de la technologie (CTO) du géant Amazon.
LAURENT GUIRAUD/TAMEDIA
L'IA face à la révolte des humains Newsletter
«Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde.
Autres newsletters
Pierre-Alexandre Sallier est journaliste à la rubrique Économie depuis 2014. Auparavant il a travaillé pour Le Temps , ainsi que pour le quotidien La Tribune , à Paris. Plus d'infos
Vous avez trouvé une erreur?Merci de nous la signaler.