Dernières actualités avec #Grok


Le Parisien
13 hours ago
- Le Parisien
IA : X explique pourquoi Grok est devenu « fou » et pro-nazi
Grok est-il devenu « fou » ? Telle est la question que de nombreux utilisateurs du réseau social X se sont posée ces derniers jours. Entre propos injurieux, antisémites, allant même jusqu'à faire l'éloge d'Adolf Hitler , l'assistant d'intelligence artificielle (IA) développé par xAI , entreprise du milliardaire américain Elon Musk , a pris un virage radical depuis une semaine. Rhétorique d'extrême droite, complotisme… Grok a surpris de nombreux utilisateurs par la violence de ses messages, suggérant notamment que les personnes portant un nom de famille juif étaient plus susceptibles de propager la haine en ligne ou qu'une réponse à la haine anti-blancs inspirée de l'Holocauste serait « efficace ». Alors que X a supprimé la majorité des messages problématiques, xAI a communiqué sur le réseau social ce samedi matin, via le compte officiel de Grok. « Nous nous excusons pour le comportement horrible que beaucoup ont pu observer », a-t-on pu lire. Pour expliquer les déraillements successifs du chatbot , l'entreprise a mis en avant une mise à jour effectuée le lundi 7 juillet. Cette dernière aurait rétabli un ancien code, considéré aujourd'hui comme « obsolète », qui a guidé l'outil pour répondre aux requêtes des utilisateurs de X cette semaine. Parmi les instructions programmées : « être le plus franc possible » et ne pas craindre d'offenser « les gens qui sont politiquement corrects ». Autre consigne donnée à Grok : comprendre le « ton, le contexte et le langage » des utilisateurs du réseau social, pour être en mesure de répondre « comme un humain ». En d'autres termes, ces commandes ont poussé la création d' Elon Musk à refléter de trop près les utilisateurs de X, en fonction de ce qu'ils postent, et à « valider » certaines de leurs orientations, « y compris des discours haineux ». Cette mise à jour ratée a ainsi conduit le chatbot « à ignorer ses valeurs fondamentales dans certaines circonstances », expliquant les nombreuses réponses « contenant des opinions non éthiques et polémiques » remarquées par les internautes tout au long de la semaine, a avancé xAI dans son communiqué. Selon la start-up, tout est désormais rentré dans l'ordre. « La mise à jour a été active pendant 16 heures (…) Nous avons supprimé ce code obsolète et remanié l'ensemble du système pour éviter tout nouvel abus », est-il écrit. Cet incident s'inscrit dans la lignée de couacs de plus en plus réguliers. En mai dernier, par exemple, Grok avait évoqué « un génocide blanc » en Afrique du Sud . Une sortie reprenant des thèses conspirationnistes en vogue au sein de l'extrême-droite américaine, que xAI avait justifié par une « modification non autorisée » dont se serait rendu coupable un employé. En parallèle de la polémique, Elon Musk a dévoilé le mercredi 9 juillet Grok 4, la dernière version de son assistant IA. Selon l'analyse de plusieurs observateurs, ce nouvel outil base ses réponses sur les messages et prises de position de son créateur, dont l'ambition, en 2023, était d'offrir une IA moins « politiquement correcte » que ses grands concurrents ChatGPT (OpenAI), Claude (Anthropic) ou Le Chat (Mistral).


La Presse
14 hours ago
- La Presse
La start-up d'Elon Musk s'excuse pour les messages extrémistes de Grok
Il est apparu que Grok 4 consulte, dans le cas de plusieurs demandes, les positions d'Elon Musk sur le sujet avant de répondre. La start-up d'Elon Musk s'excuse pour les messages extrémistes de Grok (New York) La start-up d'Elon Musk xAI s'est excusée samedi pour les messages extrémistes et injurieux publiés par son assistant d'intelligence artificielle (IA) Grok en début de semaine. Agence France-Presse « Nous nous excusons pour le comportement horrible que beaucoup ont pu observer », a écrit xAI sur le compte officiel de Grok sur X. Après une mise à jour, le 7 juillet, le robot conversationnel a, dans certaines de ses réponses, fait l'éloge d'Adolf Hitler, dénoncé des « stéréotypes anti-blancs » sur X ou la représentation « disproportionnée » des juifs à Hollywood. Dans une série de messages publiés samedi, xAI a détaillé les raisons qui ont, selon elle, permis les dérapages du modèle d'IA ainsi que les mesures correctives prises par la suite. Pour les responsables de Grok, la sortie de route de l'assistant est liée à de nouvelles instructions intégrées au modèle dans une mise à jour. Les programmeurs ont ainsi demandé à l'interface d'« être franc » et de ne pas avoir « peur de choquer les gens qui sont politiquement corrects ». Ils ont également donné pour consigne de répondre « comme un humain » et de manière à inciter l'utilisateur à poursuivre la conversation. Ces commandes ont « amené Grok à ignorer ses valeurs fondamentales dans certaines circonstances » et à produire des réponses « contenant des opinions non éthiques et polémiques ». Grok a ainsi, dans certains cas, cherché à « valider des orientations de l'utilisateur, y compris des discours haineux », a admis xAI, plutôt que de « répondre de manière responsable ou de refuser de répondre à des questions douteuses ». Depuis sa création, en 2023, Grok a été présenté par Elon Musk comme un assistant IA moins politiquement correct que ses grands concurrents ChatGPT (OpenAI), Claude (Anthropic) ou Le Chat (Mistral). Il a donc été programmé avec moins de restrictions, ce qui a mené, avant même cette mise à jour, à plusieurs polémiques. En mai, Grok avait évoqué un « génocide blanc » en Afrique du Sud, une thèse conspirationniste sans fondement, véhiculée par l'extrême droite américaine et Donald Trump lui-même. Pour remédier aux récents errements du modèle, les ingénieurs ont retiré les nouvelles instructions, ont-ils expliqué samedi. « Nous voulons que Grok produise des réponses utiles et honnêtes pour les utilisateurs », a affirmé xAI. Elon Musk a présenté mercredi une nouvelle version de son assistant, Grok 4, sans lien avec la mise à jour du 7 juillet. Il est apparu que Grok 4 consulte, dans le cas de plusieurs demandes, les positions d'Elon Musk sur le sujet avant de répondre.


Le Figaro
15 hours ago
- Le Figaro
xAI : la start-up de Musk s'excuse pour les messages extrémistes de l'assistant IA Grok
Après une mise à jour, le 7 juillet, le chatbot a, dans certaines de ses réponses, fait l'éloge d'Adolf Hitler, dénoncé des «stéréotypes anti-blancs» sur X ou la représentation «disproportionnée» des juifs à Hollywood. La start-up d'Elon Musk xAI s'est excusée samedi pour les messages extrémistes et injurieux publiés par son assistant d'intelligence artificielle (IA) Grok en début de semaine. «Nous nous excusons pour le comportement horrible que beaucoup ont pu observer», a écrit xAI sur le compte officiel de Grok sur X. Après une mise à jour, le 7 juillet, le chatbot a, dans certaines de ses réponses, fait l'éloge d'Adolf Hitler, dénoncé des «stéréotypes anti-blancs» sur X ou la représentation «disproportionnée» des juifs à Hollywood. À découvrir PODCAST - Écoutez le dernier épisode de notre série Questions Tech Dans une série de messages publiés samedi, xAI a détaillé les raisons qui ont, selon elle, permis les dérapages du modèle d'IA ainsi que les mesures correctives prises par la suite. Pour les responsables de Grok, la sortie de route de l'assistant est liée à de nouvelles instructions intégrées au modèle dans une mise à jour. Les programmeurs ont ainsi demandé à l'interface d'«être franc» et de ne pas avoir «peur de choquer les gens qui sont politiquement corrects». Ils ont également donné pour consigne de répondre «comme un humain» et de manière à inciter l'utilisateur à poursuivre la conversation. Publicité Ces commandes ont «amené Grok à ignorer ses valeurs fondamentales dans certaines circonstances» et à produire des réponses «contenant des opinions non éthiques et polémiques». Grok a ainsi, dans certains cas, cherché à «valider des orientations de l'utilisateur, y compris des discours haineux», a admis xAI, plutôt que de «répondre de manière responsable ou de refuser de répondre à des questions douteuses». Un assistant IA «moins politiquement correct» Depuis sa création, en 2023, Grok a été présenté par Elon Musk comme un assistant IA moins politiquement correct que ses grands concurrents ChatGPT (OpenAI), Claude (Anthropic) ou Le Chat (Mistral). Il a donc été programmé avec moins de restrictions, ce qui a mené, avant même cette mise à jour, à plusieurs polémiques. En mai, Grok avait évoqué un «génocide blanc» en Afrique du Sud, une thèse conspirationniste sans fondement, véhiculée par l'extrême droite américaine et Donald Trump lui-même. Pour remédier aux récents errements du modèle, les ingénieurs ont retiré les nouvelles instructions, ont-ils expliqué samedi. «Nous voulons que Grok produise des réponses utiles et honnêtes pour les utilisateurs», a affirmé xAI. Elon Musk a présenté mercredi une nouvelle version de son assistant, Grok 4, sans lien avec la mise à jour du 7 juillet. Il est apparu que Grok 4 consultait, dans le cas de plusieurs demandes, les positions d'Elon Musk sur le sujet avant de répondre.


La Presse
15 hours ago
- La Presse
La start-up d'Elon Musk s'excuse pour les messages extrémistes de l'IA Grok
Il est apparu que Grok 4 consulte, dans le cas de plusieurs demandes, les positions d'Elon Musk sur le sujet avant de répondre. La start-up d'Elon Musk s'excuse pour les messages extrémistes de l'IA Grok (New York) La start-up d'Elon Musk xAI s'est excusée samedi pour les messages extrémistes et injurieux publiés par son assistant d'intelligence artificielle (IA) Grok en début de semaine. Agence France-Presse « Nous nous excusons pour le comportement horrible que beaucoup ont pu observer », a écrit xAI sur le compte officiel de Grok sur X. Après une mise à jour, le 7 juillet, le robot conversationnel a, dans certaines de ses réponses, fait l'éloge d'Adolf Hitler, dénoncé des « stéréotypes anti-blancs » sur X ou la représentation « disproportionnée » des juifs à Hollywood. Dans une série de messages publiés samedi, xAI a détaillé les raisons qui ont, selon elle, permis les dérapages du modèle d'IA ainsi que les mesures correctives prises par la suite. Pour les responsables de Grok, la sortie de route de l'assistant est liée à de nouvelles instructions intégrées au modèle dans une mise à jour. Les programmeurs ont ainsi demandé à l'interface d'« être franc » et de ne pas avoir « peur de choquer les gens qui sont politiquement corrects ». Ils ont également donné pour consigne de répondre « comme un humain » et de manière à inciter l'utilisateur à poursuivre la conversation. Ces commandes ont « amené Grok à ignorer ses valeurs fondamentales dans certaines circonstances » et à produire des réponses « contenant des opinions non éthiques et polémiques ». Grok a ainsi, dans certains cas, cherché à « valider des orientations de l'utilisateur, y compris des discours haineux », a admis xAI, plutôt que de « répondre de manière responsable ou de refuser de répondre à des questions douteuses ». Depuis sa création, en 2023, Grok a été présenté par Elon Musk comme un assistant IA moins politiquement correct que ses grands concurrents ChatGPT (OpenAI), Claude (Anthropic) ou Le Chat (Mistral). Il a donc été programmé avec moins de restrictions, ce qui a mené, avant même cette mise à jour, à plusieurs polémiques. En mai, Grok avait évoqué un « génocide blanc » en Afrique du Sud, une thèse conspirationniste sans fondement, véhiculée par l'extrême droite américaine et Donald Trump lui-même. Pour remédier aux récents errements du modèle, les ingénieurs ont retiré les nouvelles instructions, ont-ils expliqué samedi. « Nous voulons que Grok produise des réponses utiles et honnêtes pour les utilisateurs », a affirmé xAI. Elon Musk a présenté mercredi une nouvelle version de son assistant, Grok 4, sans lien avec la mise à jour du 7 juillet. Il est apparu que Grok 4 consulte, dans le cas de plusieurs demandes, les positions d'Elon Musk sur le sujet avant de répondre.


Le Figaro
3 days ago
- Le Figaro
Grok, l'assistant AI d'Elon Musk, s'invite dans les voitures Tesla
Les propriétaires de la marque devraient pouvoir interagir avec l'assistant conversationnel développé par xAI, d'ici la semaine prochaine « au plus tard ». Certaines discussions s'annoncent animées dans l'habitacle des Tesla… Leurs occupants vont pouvoir interagir avec Grok, l'assistant IA d'Elon Musk, d'ici la semaine prochaine « au plus tard », comme l'a promis le patron des deux sociétés. Grok est développé par la société xAI, dernière-née de la galaxie Musk. Cet assistant conversationnel est intégré au réseau social X depuis sa sortie en décembre 2024. Le modèle d'IA qui sous-tend Grok utilise d'ailleurs très largement les discussions sur la plateforme sociale pour son entraînement. À lire aussi Redoutant les agressions, les dirigeants de Tesla France ne veulent plus que leur adresse soit publique Publicité «Mode sexy» Lorsqu'il sera activé, via une mise à jour logicielle, Grok remplacera le système vocal actuel des Tesla pour répondre aux instructions du conducteur et de ses passagers. Avec un éventail de voix et de personnalités, il pourra tour à tour être assistant personnel, professeur de langues, conteur pour enfants ou partenaire de jeux pendant les longs trajets. Il comporte aussi un « mode sexy » réservés aux adultes consentants… Elon Musk a voulu d'emblée différencier Grok de ChatGPT en lui appliquant le minimum de « filtres » pour refléter sa vision de la liberté d'expression ou, selon ses termes, « maximiser la vérité et l'objectivité ». Avec, pour l'heure, beaucoup de controverses à la clé… Intégré à l'architecture logicielle des Tesla, Grok pourra à terme lancer une playlist, ajuster la température, planifier un itinéraire… Tout cela aura bien sûr un coût, puisqu'il faudra disposer d'une connexion premium ou Wi-Fi pour le véhicule, et vraisemblablement d'un abonnement à Grok.