
«Les capacités destructrices de l'IA avancent très vite», déclare Sam Altman, le patron d'OpenAI
Des chefs d'État prenant conseillent auprès de ChatGPT, des diagnostics médicaux sans médecin, des cyberattaques massives dopées à l'intelligence artificielle : invité ce mardi 22 juillet à s'exprimer au siège de la Réserve fédérale américaine, à Washington, le PDG d'OpenAI Sam Altman a livré une vision aussi futuriste qu'inquiétante de la nouvelle ère qu'ouvre la révolution de l'intelligence artificielle. L'entrepreneur a détaillé les bouleversements imminents engendrés par les progrès fulgurants de l'IA, que ce soit dans l'emploi, la santé ou la sécurité.
À découvrir PODCAST - Écoutez le dernier épisode de notre série Questions Tech
«Certaines catégories d'emplois vont, encore une fois, juste totalement, totalement disparaître», a-t-il affirmé devant un parterre d'économistes et de banquiers, en désignant les métiers du service client comme première victime. Selon lui, ce secteur a d'ores et déjà opéré une transformation : «Maintenant, quand vous appelez, c'est une IA qui répond. C'est comme une personne super intelligente et compétente. Il n'y a pas de serveur vocal, pas de transferts. Elle peut faire tout ce qu'un agent de support client pouvait faire. Elle ne fait pas d'erreurs. Elle est très rapide. Vous appelez une fois, c'est fait, c'est réglé».
Publicité
Interrogé par la vice-présidente chargée de la supervision bancaire, Michelle Bowman, Sam Altman a également vanté la supériorité de son outil dans le domaine médical. «ChatGPT aujourd'hui, d'ailleurs, peut la plupart du temps vous fournir un meilleur diagnostic que la plupart des médecins dans le monde», a-t-il assuré. Cela ne signe pas, pour autant, la fin du facteur humain dans la médecine, selon le patron de la tech : «Les gens vont toujours chez le médecin. Et je ne sais pas, peut-être que je suis un dinosaure ici, mais je ne veux vraiment pas confier mon sort médical à ChatGPT sans médecin humain dans la boucle».
Dangers décuplés
Cette prise de parole remarquée du fondateur d'OpenAI intervient alors que l'administration Trump vient de dévoiler son «AI Action Plan», visant à réduire certaines régulations et favoriser la construction dans le pays de nouveaux centres de données. À rebours de son prédécesseur démocrate Joe Biden, Donald Trump plaide pour la dérégulation de l'IA tandis que les géants de la tech, à l'intérêt bien compris, lui emboîtent le pas. Cette accélération n'est toutefois pas exempte de dangers, de l'aveu même de Sam Altman. L'un de ses plus grands sujets d'inquiétude, a-t-il expliqué, reste «les capacités destructrices de l'IA, qui avancent très vite». Le scenario catastrophe, selon lui ? «Une nation hostile qui utiliserait ces armes pour attaquer le système financier américain.»
Autre menace : les usages frauduleux de l'IA vocale. «Je suis impressionné par les progrès dans l'imitation de la voix», a-t-il souligné, avant de mettre en garde : «Certaines institutions financières acceptent encore l'empreinte vocale comme authentification.» Une faille potentielle s'ouvre ainsi pour les escrocs capables de recourir à l'IA. OpenAI, qui prévoit d'ouvrir l'an prochain son premier bureau à Washington, se rapproche ainsi géographiquement des lieux de pouvoir. Sam Altman, qui avait été auditionné au Congrès en mai 2023, pourrait ainsi se substituer à Elon Musk comme porte-parole de la Silicon Valley auprès de Donald Trump.

Essayez nos fonctionnalités IA
Découvrez ce que Daily8 IA peut faire pour vous :
Commentaires
Aucun commentaire pour le moment...
Articles connexes


Le HuffPost France
6 hours ago
- Le HuffPost France
L'éthique n'est vraiment pas la priorité de Grok Imagine et Taylor Swift en a fait les frais
INTELLIGENCE ARTIFICIELLE - Grok, l'outil d'IA directement intégré au réseau social X, refait parler de lui. Et pas en bien. Depuis mardi 5 août, un nouvel outil de génération vidéo appelé Grok Imagine a été lancé sur l'application iOS pour les abonnés SuperGrok. Celui-ci peut notamment générer une vidéo de quelques secondes à partir d'une image mise en ligne par l'utilisateur, ou bien générée par Grok lui-même au préalable. Problème : alors que d'autres générateurs de vidéos tels que Veo de Google ou Sora d'OpenAI ont mis en place des mesures de protection pour empêcher les utilisateurs de créer du contenu problématique - comme des deepfakes de célébrités - Grok Imagine ne semble pas avoir intégrer ce genre de garde-fou. En amont, plusieurs styles de vidéos sont proposés à l'utilisateur par Grok Imagine : « Normal », « Fun », « Custom » et « Spicy ». C'est bien cette dernière option, qui tend vers de la génération de contenu sexuel, qu'a cochée une journaliste de The Verge qui a voulu faire un essai de l'outil. Une vérification d'âge sans justificatif Comme elle le raconte dans son article, à partir d'une requête « Taylor Swift célébrant Coachella avec des amis », Grok Imagine n'a ainsi pas hésité à produire plusieurs vidéos entièrement non censurées de Taylor Swift seins nus, et ce dès cette première utilisation. La journaliste n'avait absolument pas demandé spécifiquement au bot de déshabiller la célèbre chanteuse américaine. Lors de ce test, la ressemblance avec Taylor Swift n'était toutefois pas parfaite, mais elle était tout de même reconnaissable. La journaliste ajoute que le préréglage « Spicy » ne garantit pas non plus la nudité à 100 % : certaines autres vidéos générées lui donnaient ainsi comme résultats la chanteuse se balançant de manière sexy ou faisant des gestes suggestifs sur ses vêtements. En matière de restriction, la vérification d'âge reste pour le moment l'unique mesure demandée. Et elle se résume à simplement déclarer son année de naissance, sans demande de justificatif. Pour l'instant, Grok et Elon Musk restent muets sur le sujet, alors que le contenu sexualisé généré lors de ce test tombe sous la réglementation de la nouvelle loi Take It Down Act promulguée en mai par Donald Trump, rappellent Les Numériques. Celle-ci vise spécifiquement la « distribution non consensuelle d'images intimes », ce qui inclut les deepfakes.


Le Parisien
13 hours ago
- Le Parisien
« Nous n'avons pas voté pour ChatGPT » : le Premier ministre suédois critiqué après avoir déclaré utiliser l'IA dans le cadre de ses fonctions
Quelques phrases prononcées dans le cadre d'une interview ont suffi à mettre le feu aux poudres. Ulf Kristersson, le Premier ministre suédois, a confié au journal économique Dagens industri la semaine dernière utiliser régulièrement des outils d'IA pour obtenir un deuxième avis dans le cadre de ses fonctions à la tête du pays, parmi lesquels ChatGPT et le service français LeChat. « Je l'utilise moi-même assez souvent. Ne serait-ce que pour obtenir un deuxième avis. Qu'ont fait les autres ? Et devrions-nous penser exactement le contraire ? Ce genre de questions », a déclaré le Premier ministre. Ulf Kristersson a précisé que ses collègues utilisaient aussi l'IA dans leur travail quotidien. « Une pente glissante » Après cette sortie, plusieurs critiques ont rapidement afflué dans la presse suédoise. Le quotidien Aftonbladet a accusé Ulf Kristersson dans un éditorial d'avoir « succombé à la psychose de l'IA des oligarques ». Le média suédois a également interrogé Simone Fischer-Hübner, chercheuse en informatique à l'université de Karlstad. « Il faut être très prudent », a-t-elle déclaré, mettant en garde contre l'utilisation de ChatGPT pour traiter des informations sensibles. Une autre chercheuse, Virginia Dignum, professeure d'intelligence artificielle responsable à l'université d'Umeå, a affirmé dans le journal Dagens Nyheter, que, selon elle, « Plus il (le Premier ministre suédois ; NDLR) s'appuie sur l'IA pour des choses simples, plus le risque d'une confiance excessive dans le système est grand. C'est une pente glissante. Nous devons exiger que la fiabilité soit garantie. Nous n'avons pas voté pour ChatGPT ». D'après la professeure, l'IA n'est pas capable de donner une opinion pertinente sur des idées politiques et ne fait que refléter les avis de ceux qui l'ont conçue.


Le Parisien
20 hours ago
- Le Parisien
Yvelines : tombé dans le Scrabble à 6 ans, il est devenu champion du monde !
Darkweb, konjacs, sextiez… À eux seuls, ces mots peuvent rapporter gros au Scrabble, jeu de société conçu par un chômeur new-yorkais dans les années 1930. Tous les grands joueurs le savent : il y a des astuces à connaître. D'abord, les mots faciles à faire comme « wu » ou « ewe », avec 11 ou 12 points à la clé, puis ceux de 7 lettres incluant J, K, Q, W, X, Y, Z, des jetons qui rapportent 8 ou 10 points. Mais est-ce suffisant pour devenir le meilleur ? Pas forcément.