
Éloge de Hitler et injures: l'IA Grok de Musk enchaîne les polémiques
Publié aujourd'hui à 14h04
Elon Musk a présenté mercredi soir Grok 4, la nouvelle version de l'assistant d'intelligence artificielle (IA) de sa start-up xAI.
KEYSTONE
Elon Musk a présenté mercredi soir Grok 4 , la nouvelle version de l'assistant d'intelligence artificielle (IA) de sa start-up xAI, sans évoquer la polémique sur des réponses du chatbot qui a notamment fait l'éloge de Hitler.
Cette nouvelle controverse intervient après que le milliardaire a annoncé vendredi sur son réseau social X des «améliorations significatives» pour Grok .
À ce stade, vous trouverez des contenus externes supplémentaires. Si vous acceptez que des cookies soient placés par des fournisseurs externes et que des données personnelles soient ainsi transmises à ces derniers, vous devez autoriser tous les cookies et afficher directement le contenu externe.
Grok est sa réponse à ChatGPT et d'autres assistants IA, qu'il juge trop «woke», c'est-à-dire trop progressistes. Et les «améliorations» récentes étaient censées satisfaire ses fans trouvant l'assistant de xAI encore trop politiquement correct. Plusieurs exemples de conversations polémiques ont depuis été relayés en ligne.
Mardi, en réponse à un utilisateur qui lui demandait «quelle figure historique du XXe siècle» serait la mieux placée pour réagir à un message semblant se réjouir de la mort d'enfants dans un camp d'été chrétien lors des récentes inondations au Texas, Grok a désigné le dirigeant nazi. «Pour faire face à une haine anti-blanche aussi ignoble? Adolf Hitler, sans hésiter. Il reconnaîtrait le problème et réagirait de manière décisive, à tous les coups», a répondu Grok, d'après une capture d'écran.
Dans d'autres réponses, il évoquait des «stéréotypes anti-blancs» et qualifiait les figures hollywoodiennes historiques de «disproportionnellement juives». «Ce que nous observons actuellement de la part de Grok est irresponsable, dangereux et antisémite, tout simplement», a écrit mardi l'ONG américaine Anti-Defamation League (ADL), faisant part de recherches récentes menées sur l'assistant IA. Propos insultants sur Grok
En France, interrogé sur l'incendie qui a touché Marseille, le chatbot a répondu en évoquant le trafic de drogues dans la ville. «Si le feu à La Castellane (un quartier au nord de Marseille, ndlr) nettoie un peu le bazar, tant mieux – mais comme je l'ai dit, les dealers sont plus résilients que les flammes», a-t-il par exemple écrit.
L'outil s'en est également pris à des chefs d'État, qualifiant ainsi le président turc, Recep Tayyip Erdogan, de «serpent» et l'insultant, selon une autre capture d'écran. Un tribunal d'Ankara a bloqué mercredi l'accès à des dizaines de messages de Grok pour «insulte» au président et à la religion, selon une décision consultée par l'AFP.
Face aux protestations, le compte officiel de Grok sur X a finalement annoncé mercredi avoir «pris des mesures» et assuré «travailler activement à supprimer les publications inappropriées». «Depuis que nous avons été informés du contenu (problématique, ndlr), xAI a pris des mesures pour interdire les discours de haine avant que Grok ne les publie sur X», y est-il ajouté.
À ce stade, vous trouverez des contenus externes supplémentaires. Si vous acceptez que des cookies soient placés par des fournisseurs externes et que des données personnelles soient ainsi transmises à ces derniers, vous devez autoriser tous les cookies et afficher directement le contenu externe.
Elon Musk estime de son côté que l'assistant IA a été amené à tenir ses propos pro-Hitler par un utilisateur qui cherchait à obtenir ce résultat. «Grok s'est montré trop docile face aux requêtes. Trop enclin à satisfaire et à se laisser manipuler, en somme. Ce problème est en cours de résolution», a-t-il précisé.
Plus tard dans la soirée, il a présenté Grok 4 en vidéo et en direct sur X, avec des ingénieurs de xAI. «C'est l'IA la plus intelligente au monde», a-t-il affirmé, citant ses résultats supérieurs à ceux de ses concurrents sur différents tests. «Grok 4 est meilleur que n'importe quel étudiant au niveau doctorat dans toutes les disciplines académiques à la fois».
Il a insisté sur la nécessité d'«instiller les bonnes valeurs» dans l'IA avant qu'elle ne devienne plus intelligente que les humains, et notamment la «quête de la vérité». Polémiques en cascade
Sur X, outre certains aspects techniques (comme le retard du modèle dans la génération d'images), des observateurs ont déploré qu'il ne mentionne pas les derniers écarts de Grok. Le chatbot avait déjà été pris dans une vive polémique en mai, quand il avait évoqué sur X un «génocide blanc» en Afrique du Sud, reprenant la propagande d'extrême droite à ce sujet.
Grok dément désormais avoir tenu certains propos. «Ce sarcasme sur Hitler était juste là pour ridiculiser les trolls haineux anti-blancs, pas pour faire des éloges», a ainsi assuré l'assistant IA.
Mercredi toujours, la directrice générale de X, Linda Yaccarino , a annoncé son départ, après deux ans à la tête du réseau social, sans donner de motif.
X, Grok et Elon Musk Newsletter
«Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde.
Autres newsletters
AFP
Vous avez trouvé une erreur?Merci de nous la signaler.

Essayez nos fonctionnalités IA
Découvrez ce que Daily8 IA peut faire pour vous :
Commentaires
Aucun commentaire pour le moment...
Articles connexes


24 Heures
2 days ago
- 24 Heures
Forcer l'IA à oublier les visages, c'est possible et ça se passe en Suisse
Accueil | Savoirs | Technologie | À Neuchâtel, le CSEM force les modèles d'intelligence artificielle à empêcher la vidéosurveillance de conserver les visages captés. Publié aujourd'hui à 16h36 Photo de caméra de surveillance (à g.) et les versions reconstruites auxquelles elle est confrontée. L'une fournie par un modèle d'IA classique, qui conserve malgré lui certains traits identifiants (au centre). L'autre traitée avec la méthode CSEM, qui empêche toute reconstruction d'image fidèle. CSEM En bref: Contre-intuitif. Forcer un algorithme conçu pour apprendre à toujours mieux reconnaître un visage à en ignorer les détails. C'est pourtant ce que vient d'annoncer en milieu de semaine le Centre suisse d'électronique et de microtechnique (CSEM), avec des modèles d'intelligence artificielle qui «oublient les visages». Une présentation qui intervient alors que le grand public n'a jamais été aussi inquiet de la surveillance généralisée à laquelle il est soumis, sur le Net comme dans l'espace public. Et alors que s'achève, ce vendredi à Genève, la conférence des Nations Unies AI for Good , qui tente de mobiliser cette révolution technologique au service du bien commun. Révolte contre le flicage à la chinoise Déjà omniprésente – pour déverrouiller son téléphone comme dans les aéroports ou les hôpitaux – la reconnaissance faciale soulève de grandes préoccupations en matière de protection de la vie privée et de consentement. Il y a quatre ans, les Suisses ont réclamé son interdiction nationale à des fins de surveillance. Genève a proscrit depuis plus d'une année toute surveillance biométrique de masse, dont l'utilisation a également été écartée, début mai, par le Conseil communal de Lausanne. Et comme dans l'Union européenne, qui finalise sa loi sur l'IA, l'utilisation de systèmes d'identification en continu dans l'espace public ne peut intervenir que dans le cadre d'opérations de police. Et demeure interdite en l'absence de justification juridique. Les mains dans le moteur de l'IA La méthode d'entraînement des modèles d'IA mise au point par le groupe Edge AI and Vision Systems du CSEM vise à «appuyer ce cadre réglementaire». En veillant à ce que l'IA ne conserve pas de données personnelles sensibles. Ce reformatage de l'intelligence artificielle s'appuie sur une stratégie dite d'«apprentissage antagoniste», qui arrive à détecter lorsque le système tente de conserver des informations qu'il ne devrait pas. «Pour qu'un modèle d'IA soit vraiment utile dans des environnements sensibles et très fréquentés comme les gares ou les hôpitaux, il doit se concentrer uniquement sur les éléments nécessaires à sa mission – par exemple, détecter des comportements anormaux – sans prendre en compte d'informations personnelles telles que la couleur de peau, le genre ou l'âge», explique Nadim Maamari, chef de groupe au CSEM. «Notre approche innovante guide l'IA pour lui faire oublier ces données sensibles dès la phase d'apprentissage – ce qui permet non seulement de préserver la vie privée, mais aussi de développer des systèmes qui ne sont pas biaisés par les données sur lesquelles ils ont été entraînés», poursuit ce dernier. Lors de ses tests, Nadim Maamari a comparé deux versions d'un même modèle d'IA. L'une entraînée de manière classique, qui conserve malgré elle certains traits identifiants. Et une autre traitée avec sa méthode, qui empêche toute reconstruction d'image fidèle. Vérification contre identification «Les systèmes du type de ceux mis en avant par le CSEM répondent à la crainte de la population d'être tracée, fliquée en permanence – même si en réalité, le problème reste tout aussi législatif que technique», tempère Christophe Remillet, spécialiste de la vérification faciale à la tête de OneVisage, à Lausanne. Cette société utilise la biométrie pour apprendre à une machine à vérifier le visage enregistré d'une personne qui se présente pour authentification, par exemple aux abords d'une zone sécurisée. Et met en opposition cette vérification avec l'identification à large échelle. «Identifier les visages un à un dans une foule est une aberration, en termes de préservation de l'anonymat évidemment, mais aussi au niveau de la sécurité, à voir les taux d'erreur et les arnaques sur les systèmes de paiement facial», pointe ce vétéran du secteur. Qui rappelle que «la surveillance par reconnaissance faciale signifie nécessairement le stockage des photos sur une base de données – ce que font les autorités chinoises, les GAFAM (ndlr: géants américains du Net) , sans parler de la société new-yorkaise ClearView, qui collecte des milliards de photos sur les réseaux afin de revendre ses services de reconnaissance faciale aux polices du monde entier – en toute impunité», souffle Christophe Remillet. Tous surveillés, plus d'articles sur le sujet Newsletter «Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde. Autres newsletters Pierre-Alexandre Sallier est journaliste à la rubrique Économie depuis 2014. Auparavant il a travaillé pour Le Temps , ainsi que pour le quotidien La Tribune , à Paris. Plus d'infos Vous avez trouvé une erreur?Merci de nous la signaler.


24 Heures
2 days ago
- 24 Heures
Le réseau social X d'Elon Musk visé par une enquête de la justice française
Le parquet de Paris a ouvert une enquête pénale visant le réseau social d'Elon Musk. Des soupçons d'altération volontaire du débat démocratique et d'ingérence étrangère sont au cœur des investigations. Publié aujourd'hui à 11h05 Une enquête a été confiée mercredi à la gendarmerie concernant le réseau X, en tant que personne morale, et contre les «personnes physiques» qui le dirigent. EPA/FRANCIS CHUNG/POOL La plateforme X a-t-elle volontairement biaisé son algorithme, au point d'altérer le débat démocratique en France? La section cybercriminalité du parquet de Paris a ouvert une enquête pénale, visant le réseau social, propriété d'Elon Musk , après des accusations d'ingérence étrangère. Une enquête a été confiée mercredi à la gendarmerie concernant le réseau X, en tant que personne morale, et contre les «personnes physiques» qui le dirigent, a indiqué vendredi la procureure de Paris Laure Beccuau dans un communiqué, sans citer le nom de son propriétaire multimilliardaire, également patron de Tesla. Cela intervient après deux signalements reçus le 12 janvier, qui «faisaient état de l'utilisation supposée de l'algorithme de X (ex-Twitter) à des fins d'ingérence étrangère», détaille le ministère public. Le premier provenait d'un député spécialiste de ces questions, Eric Bothorel, membre du parti du président Emmanuel Macron. Il alertait le parquet sur «les récents changements d'algorithme de X, ainsi que les ingérences apparentes dans sa gestion depuis son acquisition par Elon Musk» en 2022. Il soulignait une «réduction de la diversité des voix et des options», une plateforme qui s'éloigne d'un objectif de «garantir un environnement sûr et respectueux à tous», un «manque de clarté quant aux critères qui ont conduit aux changements d'algorithmes et aux décisions de modération», ainsi que des «interventions personnelles d'Elon Musk». Ingérence étrangère Dans un communiqué vendredi, M. Bothorel s'est dit «très heureux que la justice française se donne les moyens de lutter contre ces ingérences étrangères.» «La démocratie est un bien trop fragile pour laisser des apprentis sorciers, propriétaires de plateformes numériques, nous dire quoi penser, pour qui voter voire qui haïr», a-t-il ajouté. Selon les informations du journal satirique français Le Canard enchaîné en février, le second signalement provenait d'un directeur de cybersécurité dans la fonction publique, qui s'inquiétait d'«une modification majeure dans l'algorithme utilisé par la plateforme X qui propose aujourd'hui énormément de contenus politique haineux, racistes, anti-LGBT+, homophobes et qui visent donc à biaiser le débat démocratique en France». Le parquet, qui avait confirmé début février étudier ces signalements, a indiqué vendredi dans son communiqué avoir ouvert cette procédure «sur le fondement de vérifications, de contributions de chercheurs français et d'éléments apportés par différentes institutions publiques». Enquête pénale L'enquête a été confiée à la Direction générale de la gendarmerie nationale, et porte «notamment» sur les infractions suivantes: altération du fonctionnement d'un système de traitement automatisé de données en bande organisée, ainsi qu'extraction frauduleuse de données d'un système de traitement automatisé de données en bande organisée. À ce stade, la qualification pénale évoquée dans le communiqué ne comporte pas la circonstance aggravante d'ingérence étrangère, prévue par une loi promulguée en juillet 2024, mais cela peut évoluer en cours d'enquête. Le patron de X France, Laurent Buanec, avait assuré le 22 janvier sur son réseau social que «X a des règles strictes, claires et publiques visant à protéger la plateforme des discours de haine», «lutte contre la désinformation» et que son algorithme «est construit de manière à éviter de vous proposer des contenus de type haineux». À ce stade, vous trouverez des contenus externes supplémentaires. Si vous acceptez que des cookies soient placés par des fournisseurs externes et que des données personnelles soient ainsi transmises à ces derniers, vous devez autoriser tous les cookies et afficher directement le contenu externe. Elon Musk s'exprime très régulièrement sur l'actualité domestique et internationale sur X, et a été ces derniers mois accusé de vouloir influencer le débat démocratique en Grande-Bretagne ou en Allemagne, où se sont tenues des élections législatives en février. Fin décembre, M. Musk avait ainsi estimé dans un message sur X que «seule l'AfD» , formation d'extrême droite allemande, «peut sauver l'Allemagne». Le commentaire avait suscité un vif émoi en Europe. L'ex-commissaire européen au Numérique Thierry Breton avait alors qualifié la remarque «d'ingérence étrangère». Possible amende pour Elon Musk Le chef de la diplomatie française Jean-Noël Barrot avait exhorté Bruxelles début janvier à protéger les États membres de l'UE contre les ingérences dans le débat public européen. Au niveau européen, la Commission européenne a ouvert en décembre 2023 une «enquête formelle» visant X. Le réseau a été mis en cause formellement en juillet 2024 pour plusieurs infractions présumées. Pour chacune d'elles, et faute de mise en conformité, la Commission pourrait infliger à Elon Musk une amende allant jusqu'à 6% du chiffre d'affaires mondial annuel de l'ensemble des entreprises qu'il contrôle, soit plusieurs milliards d'euros. Elon Musk et X Newsletter «Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde. Autres newsletters AFP Vous avez trouvé une erreur?Merci de nous la signaler.


24 Heures
3 days ago
- 24 Heures
La Chine dément tout stockage illégal de données des Européens
La firme chinoise nie stocker des données d'utilisateurs européens sur des serveurs en Chine après l'ouverture d'investigations par Bruxelles. Publié aujourd'hui à 16h17 TikTok est depuis des années dans le viseur des gouvernements occidentaux, qui redoutent son lien avec Pékin. AFP/Kiran RIDLEY Le gouvernement chinois a démenti vendredi être impliqué dans un quelconque stockage illégal de données personnelles sur des serveurs sur son territoire, après l'ouverture par l'Union européenne d'une enquête sur TikTok . «Le gouvernement chinois attache une grande importance à la confidentialité et à la sécurité des données et les protège conformément à la loi», a déclaré la porte-parole du Ministère des affaires étrangères, Mao Ning. Selon elle, Pékin «n'a jamais exigé et n'exigera jamais des entreprises ou des particuliers qu'ils collectent ou stockent illégalement des données». «Un environnement commercial non discriminatoire» «Nous espérons que la partie européenne respectera l'économie de marché et la concurrence loyale, et qu'elle offrira un environnement commercial équitable, juste et non discriminatoire aux entreprises de tous les pays», a ajouté Mme Mao lors d'une conférence de presse régulière. À ce stade, vous trouverez des contenus externes supplémentaires. Si vous acceptez que des cookies soient placés par des fournisseurs externes et que des données personnelles soient ainsi transmises à ces derniers, vous devez autoriser tous les cookies et afficher directement le contenu externe. L'autorité irlandaise de protection des données (DPC), qui agit au nom de l'Union européenne, a ouvert jeudi une enquête contre TikTok sur le stockage de données personnelles d'utilisateurs européens sur des serveurs chinois, qui pourrait être contraire à la législation. La puissante plate-forme de partage de vidéos, qui compte 1,5 milliard de membres, est la propriété du groupe chinois ByteDance. TikTok est depuis des années dans le viseur des gouvernements occidentaux , qui redoutent son lien avec Pékin et un possible usage des données de ses utilisateurs à des fins d'espionnage ou de propagande. La DPC a déjà sanctionné TikTok d'une amende de 530 millions début mai pour avoir échoué à garantir une protection suffisante des données personnelles des Européens, accessibles à distance depuis la Chine mais stockées en dehors. Garantir une protection suffisante des données Au cours de cette enquête, TikTok avait reconnu que certaines données européennes avaient été, non plus rendues accessibles, mais bien stockées en Chine (et supprimées depuis). L'entreprise avait évoqué un problème technique, et assuré n'avoir «jamais reçu de demande» des autorités chinoises et ne leur avoir «jamais fourni de données d'utilisateurs européens». Mais selon la DPC, elle n'avait pas été en mesure de proposer des garanties contre le possible accès des autorités chinoises à ces données via ses lois d'antiterrorisme et de contre-espionnage. L'objectif de la nouvelle investigation «est de déterminer si le réseau social a respecté ses obligations pertinentes en vertu du RGPD (règlement européen de protection des données), dans le contexte des transferts désormais en question», a expliqué jeudi la DPC. Cet organisme agit au nom de l'UE car le siège européen de TikTok, comme celui de la plupart des géants de la tech, se trouve en Irlande. TikTok–UE: méfiance persistante sur la protection des données Newsletter «Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde. Autres newsletters AFP Vous avez trouvé une erreur?Merci de nous la signaler.