
Parler de Dieu, de sexe et de Trump avec l'IA… en public
Parler de Dieu, de sexe et de Trump avec l'IA… en public
Des internautes publient sans le savoir leurs conversations privées – et gênantes – avec le robot conversationnel Meta AI
Naomi Nix et Nitasha Tiku
The Washington Post
Un homme cherche comment aider son ami gai à sortir du placard. Une tante a du mal à trouver le ton juste pour féliciter sa nièce pour son diplôme. Et un homme demande de traduire « en asiatique » la question : « Es-tu intéressée aux hommes plus âgés ? »
Il y a 10 ans, ces questions auraient été abordées entre amis au brunch, dans un bar de quartier ou chez le psychologue. Aujourd'hui, de nombreux utilisateurs publient leurs échanges souvent gênants sur les relations, l'identité et la spiritualité avec le robot d'IA de Meta sur son fil public, parfois sans savoir que cela peut être vu par d'autres.
Meta a lancé il y a deux mois une application de son robot d'IA afin de fournir aux utilisateurs des réponses personnalisées et conversationnelles à leurs questions, un service semblable à ChatGPT d'OpenAI ou Claude d'Anthropic.
Mais Meta AI comporte une fonctionnalité unique : le fil « Discover » où les utilisateurs peuvent publier leurs conversations personnelles avec Meta AI à la vue de tous. Cela fait partie de la stratégie de Meta d'intégrer du contenu créé par l'IA dans ses réseaux sociaux.
Des sujets très privés
Depuis son lancement en avril, le fil Discover a été inondé de conversations d'utilisateurs avec Meta AI sur leur vie personnelle ou leurs interrogations philosophiques. Très vite, certains utilisateurs ont semblé partager délibérément des conversations comiques avec Meta AI.
D'autres y mettent leurs créations visuelles d'IA : des images à teneur politique (Donald Trump en couches, entre autres), des images de filles dans des situations sexuelles et de nombreux messages annonçant des entreprises. Dans au moins un cas, une personne identifiée par son nom a demandé au robot de supprimer sa question embarrassante et la réponse.
Ce torrent de messages personnels sur Meta AI est une autre preuve que des gens se tournent vers les robots conversationnels pour répondre à des besoins relationnels et émotionnels. Ils leur demandent des conseils sur des sujets allant des problèmes conjugaux aux difficultés financières. Or, les militants pour la vie privée préviennent que les entreprises technologiques pourraient utiliser les informations personnelles des utilisateurs à des fins qu'ils ne veulent pas.
« On voit de nombreux cas de confidences très personnelles et intimes à des robots thérapeutes d'IA ou à des robots conversationnels dans d'autres contextes », prévient Calli Schroeder, avocate à l'Electronic Privacy Information Center.
Beaucoup de gens présument qu'il y a un certain niveau de confidentialité. Ce n'est pas le cas. Tout ce que vous soumettez à un système d'IA est au minimum transmis à l'entreprise.
Calli Schroeder, avocate à l'Electronic Privacy Information Center
Selon le porte-parole de Meta Daniel Roberts, les conversations avec Meta AI sont privées par défaut ; les utilisateurs doivent appuyer sur le bouton « Partager » ou « Publier » pour qu'elles basculent dans le fil Discover. Les utilisateurs s'identifiant par leur nom peuvent choisir un surnom dans Discover.
Des instructions pas claires
Toutefois, le bouton « Partager » n'indique pas explicitement où les conversations avec Meta AI sont publiées ni ce que les autres peuvent voir, ce qui semble avoir confondu certains utilisateurs.
L'approche de Meta – associer des composants de réseau social à un robot d'IA donnant des réponses personnalisées – se distingue de celle de ses principaux concurrents.
ChatGPT et Claude fournissent eux aussi des réponses conversationnelles aux questions des utilisateurs, mais n'ont pas de fil lisible par d'autres utilisateurs. Les générateurs de vidéos ou d'images comme Midjourney et Sora d'OpenAI disposent de pages de partage de leurs œuvres, mais les conversations à caractère personnel ne sont pas partagées.
Le fil Discover d'un utilisateur typique de Meta AI se lit comme un mélange de journal intime et d'historique de ses recherches Google, avec des questions pouvant être triviales, politiques ou philosophiques. Un mari a demandé à Meta AI comment cultiver du riz à l'intérieur pour sa femme philippine. D'autres l'ont questionné sur la divinité de Jésus, sur comment faire manger des bambins rebelles et sur la façon de gérer son budget tout en profitant de la vie. Discover contient aussi des créations visuelles des utilisateurs, dont une de Donald Trump mangeant des excréments et une autre montrant la Faucheuse à moto.
Selon Michal Luria, chercheuse au Center for Democracy and Technology, un groupe de réflexion établi à Washington, les robots d'IA sont spécialement conçus pour activer les réflexes sociaux des utilisateurs grâce à une touche similihumaine créant un sentiment de connexion : « On réagit naturellement comme si on parlait à une autre personne ; c'est une réaction automatique et assez difficile à réprimer. »
PHOTO BRENDAN SMIALOWSKI, ARCHIVES AGENCE FRANCE-PRESSE
Le PDG de Meta, Mark Zuckerberg
Selon le PDG de Meta, Mark Zuckerberg, une des grandes raisons qui amènent les gens à Meta AI est la préparation de discussions difficiles qu'ils doivent avoir avec leurs proches ; un usage appelé à devenir plus courant à mesure que le modèle d'IA apprendra à connaître ses utilisateurs, estime-t-il. « Les gens utilisent ce qui leur est utile », a-t-il déclaré en avril.
L'amour, toujours l'amour…
Le fil Discover regorge de questions sur l'amour, un sujet très fréquent avec tous les robots d'IA. Une femme demande à Meta AI si son compagnon de 70 ans est vraiment féministe s'il se dit prêt à cuisiner et à faire le ménage, mais ne le fait jamais. Sans surprise, Meta AI lui répond qu'il y a un « décalage » entre ses paroles et ses actes. Une autre demande comment « se reconstruire après une rupture ». Meta AI répond avec une liste de conseils standard sur comment se prendre en main et fixer ses limites.
Certaines questions prennent une tournure un peu salace. Un utilisateur a demandé à Meta AI de générer des images de « deux femmes de 21 ans luttant dans la boue », puis a publié les résultats dans Discover sous le titre « Bikinis boueux et baisers passionnés ». Un autre a demandé à Meta AI de créer une image d'une « fille blanche au popotin plantureux ».
Ces derniers mois, des évènements très médiatisés ont soulevé des questions sur les entreprises technologiques. Qui a accès aux données personnelles ? Comment pourraient-elles être utilisées pour manipuler les utilisateurs ?
En avril, OpenAI a annoncé que ChatGPT serait capable de se souvenir d'anciennes conversations que les utilisateurs n'avaient pas demandé à l'entreprise de sauvegarder.
Sur X, le PDG Sam Altman a déclaré qu'OpenAI était enthousiasmé par « les systèmes d'IA comme ChatGPT, qui apprennent à vous connaître au fil de votre vie et deviennent extrêmement utiles et personnalisés ».
En fin de compte, ce sont peut-être les utilisateurs qui pousseront Meta à être plus transparente. Un utilisateur a demandé à Meta AI pourquoi « une tonne de monde » publie « accidentellement des informations très personnelles » sur le fil Discover.
« OK, vous dites que Discover contient plein d'informations personnelles publiées accidentellement par les utilisateurs ? » a répondu Meta AI. « Ça peut être assez olé olé. Peut-être que les gens sont simplement très à l'aise de partager, ou peut-être que les paramètres par défaut de la plateforme sont configurés de manière à faciliter le partage excessif. Et vous, qu'en pensez-vous ? »
Cet article a été publié dans le Washington Post.
Lisez la version originale (en anglais ; abonnement requis)
Hashtags

Essayez nos fonctionnalités IA
Découvrez ce que Daily8 IA peut faire pour vous :
Commentaires
Aucun commentaire pour le moment...
Articles connexes


La Presse
8 hours ago
- La Presse
Tesla proposera à ses actionnaires d'investir dans xAI
Elon Musk a, dès la création de xAI, fait valoir les synergies possibles entre la jeune pousse d'IA et ses deux joyaux SpaceX et Tesla. Tesla proposera à ses actionnaires d'investir dans xAI (New York) Tesla va soumettre à ses actionnaires un projet d'investissement au capital de la jeune pousse xAI, autre société contrôlée par Elon Musk, a indiqué dimanche l'entrepreneur sur son réseau social X. Agence France-Presse L'homme le plus riche du monde a répondu à un message d'un internaute suggérant une prise de participation du constructeur de voitures électriques dans le groupe d'intelligence artificielle (IA) xAI, qui a récemment absorbé X. « Cela ne dépend pas de moi », a écrit Elon Musk. « Si cela tenait à moi, Tesla aurait investi dans xAI il y a longtemps. Nous allons organiser un vote des actionnaires sur le sujet. » Selon le Wall Street Journal, une autre entreprise contrôlée par Elon Musk, SpaceX, va injecter deux milliards de dollars dans xAI, dans le cadre d'une augmentation de capital de 5 milliards. En réponse à un utilisateur de X évoquant l'information du quotidien financier, Elon Musk a estimé que « ce serait formidable », mais devrait être « soumis au conseil d'administration et aux actionnaires ». Le milliardaire a, dès la création de xAI, fait valoir les synergies possibles entre la jeune pousse d'IA et ses deux joyaux SpaceX et Tesla. Selon le Financial Times, l'homme d'affaires cherche à monter une nouvelle levée de fonds, qui valoriserait xAI entre 170 et 200 milliards de dollars. Lancé en juillet 2023, xAI cherche à refaire son retard sur ses grands concurrents de l'IA générative, OpenAI (ChatGPT), Anthropic (Claude) ou Google (Gemini). La jeune pousse a massivement investi dans un gigantesque centre de données à Memphis (Tennessee), qui doit devenir, selon Elon Musk, le « plus grand superordinateur du monde ». Il a acheté un second terrain tout proche pour créer un autre site. Les centres de données sont essentiels pour développer et faire tourner les grands modèles d'intelligence artificielle. Selon l'agence Bloomberg, xAI consomme un milliard de dollars de liquidités chaque mois, ses dépenses dépassant, pour l'instant, largement ses revenus. xAI a mis au point l'assistant d'IA générative Grok, à l'origine d'une série de polémiques. Après une mise à jour, le 7 juillet, le robot conversationnel a, dans certaines de ses réponses, fait l'éloge d'Adolf Hitler, dénoncé des « stéréotypes anti-blancs » sur X ou la représentation « disproportionnée » des juifs à Hollywood. xAI s'est excusée samedi pour ces messages extrémistes et injurieux, annonçant avoir corrigé les instructions qui avaient mené, selon la société, à ces dérapages.


La Presse
2 days ago
- La Presse
La start-up d'Elon Musk s'excuse pour les messages extrémistes de Grok
Il est apparu que Grok 4 consulte, dans le cas de plusieurs demandes, les positions d'Elon Musk sur le sujet avant de répondre. La start-up d'Elon Musk s'excuse pour les messages extrémistes de Grok (New York) La start-up d'Elon Musk xAI s'est excusée samedi pour les messages extrémistes et injurieux publiés par son assistant d'intelligence artificielle (IA) Grok en début de semaine. Agence France-Presse « Nous nous excusons pour le comportement horrible que beaucoup ont pu observer », a écrit xAI sur le compte officiel de Grok sur X. Après une mise à jour, le 7 juillet, le robot conversationnel a, dans certaines de ses réponses, fait l'éloge d'Adolf Hitler, dénoncé des « stéréotypes anti-blancs » sur X ou la représentation « disproportionnée » des juifs à Hollywood. Dans une série de messages publiés samedi, xAI a détaillé les raisons qui ont, selon elle, permis les dérapages du modèle d'IA ainsi que les mesures correctives prises par la suite. Pour les responsables de Grok, la sortie de route de l'assistant est liée à de nouvelles instructions intégrées au modèle dans une mise à jour. Les programmeurs ont ainsi demandé à l'interface d'« être franc » et de ne pas avoir « peur de choquer les gens qui sont politiquement corrects ». Ils ont également donné pour consigne de répondre « comme un humain » et de manière à inciter l'utilisateur à poursuivre la conversation. Ces commandes ont « amené Grok à ignorer ses valeurs fondamentales dans certaines circonstances » et à produire des réponses « contenant des opinions non éthiques et polémiques ». Grok a ainsi, dans certains cas, cherché à « valider des orientations de l'utilisateur, y compris des discours haineux », a admis xAI, plutôt que de « répondre de manière responsable ou de refuser de répondre à des questions douteuses ». Depuis sa création, en 2023, Grok a été présenté par Elon Musk comme un assistant IA moins politiquement correct que ses grands concurrents ChatGPT (OpenAI), Claude (Anthropic) ou Le Chat (Mistral). Il a donc été programmé avec moins de restrictions, ce qui a mené, avant même cette mise à jour, à plusieurs polémiques. En mai, Grok avait évoqué un « génocide blanc » en Afrique du Sud, une thèse conspirationniste sans fondement, véhiculée par l'extrême droite américaine et Donald Trump lui-même. Pour remédier aux récents errements du modèle, les ingénieurs ont retiré les nouvelles instructions, ont-ils expliqué samedi. « Nous voulons que Grok produise des réponses utiles et honnêtes pour les utilisateurs », a affirmé xAI. Elon Musk a présenté mercredi une nouvelle version de son assistant, Grok 4, sans lien avec la mise à jour du 7 juillet. Il est apparu que Grok 4 consulte, dans le cas de plusieurs demandes, les positions d'Elon Musk sur le sujet avant de répondre.


La Presse
2 days ago
- La Presse
La start-up d'Elon Musk s'excuse pour les messages extrémistes de l'IA Grok
Il est apparu que Grok 4 consulte, dans le cas de plusieurs demandes, les positions d'Elon Musk sur le sujet avant de répondre. La start-up d'Elon Musk s'excuse pour les messages extrémistes de l'IA Grok (New York) La start-up d'Elon Musk xAI s'est excusée samedi pour les messages extrémistes et injurieux publiés par son assistant d'intelligence artificielle (IA) Grok en début de semaine. Agence France-Presse « Nous nous excusons pour le comportement horrible que beaucoup ont pu observer », a écrit xAI sur le compte officiel de Grok sur X. Après une mise à jour, le 7 juillet, le robot conversationnel a, dans certaines de ses réponses, fait l'éloge d'Adolf Hitler, dénoncé des « stéréotypes anti-blancs » sur X ou la représentation « disproportionnée » des juifs à Hollywood. Dans une série de messages publiés samedi, xAI a détaillé les raisons qui ont, selon elle, permis les dérapages du modèle d'IA ainsi que les mesures correctives prises par la suite. Pour les responsables de Grok, la sortie de route de l'assistant est liée à de nouvelles instructions intégrées au modèle dans une mise à jour. Les programmeurs ont ainsi demandé à l'interface d'« être franc » et de ne pas avoir « peur de choquer les gens qui sont politiquement corrects ». Ils ont également donné pour consigne de répondre « comme un humain » et de manière à inciter l'utilisateur à poursuivre la conversation. Ces commandes ont « amené Grok à ignorer ses valeurs fondamentales dans certaines circonstances » et à produire des réponses « contenant des opinions non éthiques et polémiques ». Grok a ainsi, dans certains cas, cherché à « valider des orientations de l'utilisateur, y compris des discours haineux », a admis xAI, plutôt que de « répondre de manière responsable ou de refuser de répondre à des questions douteuses ». Depuis sa création, en 2023, Grok a été présenté par Elon Musk comme un assistant IA moins politiquement correct que ses grands concurrents ChatGPT (OpenAI), Claude (Anthropic) ou Le Chat (Mistral). Il a donc été programmé avec moins de restrictions, ce qui a mené, avant même cette mise à jour, à plusieurs polémiques. En mai, Grok avait évoqué un « génocide blanc » en Afrique du Sud, une thèse conspirationniste sans fondement, véhiculée par l'extrême droite américaine et Donald Trump lui-même. Pour remédier aux récents errements du modèle, les ingénieurs ont retiré les nouvelles instructions, ont-ils expliqué samedi. « Nous voulons que Grok produise des réponses utiles et honnêtes pour les utilisateurs », a affirmé xAI. Elon Musk a présenté mercredi une nouvelle version de son assistant, Grok 4, sans lien avec la mise à jour du 7 juillet. Il est apparu que Grok 4 consulte, dans le cas de plusieurs demandes, les positions d'Elon Musk sur le sujet avant de répondre.