Dernières actualités avec #ChatGPT


Le Figaro
6 days ago
- Le Figaro
Voyage : un tiers des Français aurait déjà testé l'IA pour préparer ses vacances
Selon une étude Ipsos commandée par Kayak, un Français sur trois aurait déjà utilisé l'intelligence artificielle pour planifier un séjour. Gain de temps, idées originales… Une tendance naissante, encore loin de remplacer le flair du voyageur. Organiser ses vacances à la voix, en trois questions, sans jamais ouvrir une page de comparateur. Voilà la promesse que fait miroiter l'intelligence artificielle. Et à en croire une étude Ipsos menée février 2025 (*) mais dévoilée ce 16 juillet, les Français commenceraient à s'y faire : un sur trois aurait déjà utilisé une IA pour préparer un séjour. Une proportion qui grimpe à 53 % chez les moins de 35 ans. Si le chiffre intrigue, il n'étonne plus vraiment. Depuis l'essor de ChatGPT et consorts, les assistants numériques se multiplient. Demander un itinéraire en Toscane, un week-end plage-voiture-vignoble en Algarve ou une liste de bonnes adresses à Tokyo devient une formalité. Le tout sans tableaux Excel, sans 36 onglets ouverts — et surtout sans les fameux «10 conseils de blogueurs pour visiter Lisbonne comme un local». Publicité Gagner du temps… ou ne plus en perdre Selon les répondants, le principal intérêt de l'IA dans le voyage, c'est le gain de temps (46 %). Un raccourci qui fait mouche dans un univers de l'offre devenu labyrinthique. 73 % des sondés pensent d'ailleurs que ces outils simplifieront la planification à l'avenir. Et 40 % espèrent qu'ils leur souffleront des idées auxquelles ils n'auraient jamais pensé. Plus étonnant, 17 % seraient prêts à confier l'intégralité de leur séjour à une intelligence artificielle. L'algorithme en chef d'orchestre, l'humain en suiveur curieux. Une idée séduisante sur le papier, un peu moins quand il s'agit de gérer un check-in qui capote, un train qui saute, ou une grève qui redessine l'itinéraire à 7 heures du matin. À lire aussi Une «super app» plutôt que 20 sites différents : ce que l'IA changera pour préparer ses voyages L'IA, une boussole ? Pas encore un pilote Car pour l'heure, les IA ne réservent pas, ne comparent pas en direct, et ne vivent pas les contretemps. Elles inspirent, trient, structurent. Elles rassurent aussi parfois, par leur débit fluide et leur capacité à dégager une tendance. Mais de là à remplacer un carnet, une intuition ou une discussion en terrasse, il y a encore un pas. À l'origine du sondage, la plateforme de voyage Kayak, qui développe son propre outil conversationnel, comme d'autres le font déjà (Booking, Google, Hopper…). Un acteur parmi d'autres, dans une course où chaque acteur tente de devenir ce fameux copilote digital du voyageur moderne. Encore faut-il que le voyageur en ait envie. (*) Cette étude a été réalisée auprès d'un échantillon de 1000 Français âgés de 18 à 75 ans. L'échantillon a été constitué selon la méthode des quotas au regard des critères de sexe, d'âge, de région et de catégorie socioprofessionnelle. Les interviews ont été réalisées par questionnaire auto-administré en ligne sur la plateforme Ipsos Digital du 21 au 24 février 2025. À lire aussi « C'est tout simplement bluffant» : l'IA française Le Chat fait-elle un bon agent de voyages ?


La Presse
7 days ago
- La Presse
L'apprentissage de l'IA doit commencer le plus tôt possible
« Au Québec, les initiatives proposées pour ouvrir la discussion sur l'IA peinent encore à trouver leur place dans les cursus scolaires », écrit Noémie Girerd. Selon l'auteure, l'école a un rôle à jouer afin de permettre aux enfants de développer leur esprit critique face à l'intelligence artificielle (IA) Noémie Girerd Chargée de cours de français langue seconde en milieux universitaires et enseignante en francisation L'IA est entrée dans nos vies, bousculant nos habitudes de travail, notre façon d'apprendre et de concevoir. L'heure n'est plus à la censure, mais à l'encadrement de l'IA dans nos établissements scolaires. Elle doit devenir un objet d'étude à l'école pour éveiller l'esprit critique des apprenants. Notre génération a eu la chance de voir naître l'IA. Ce ne sera pas le cas des suivantes. Nous vivons un moment charnière de l'histoire1, mais nous négligeons l'essentiel : comment la nouvelle génération utilise-t-elle l'IA ? Jusqu'où lui ferait-elle confiance ? Derrière chaque question que l'on pose aux grands modèles de langage (LLM) comme ChatGPT, Gemini, Claude et les autres systèmes d'IA, il faut une personne bien formée pour comprendre la réponse, vérifier l'information et orienter correctement le prompt. L'IA n'a pas été entraînée à reconnaître son ignorance. Elle poursuivra la discussion, parfois jusqu'à l'hallucination. Il est donc crucial de continuer à former les élèves pour les aider à devenir des spécialistes de leur domaine de prédilection. Mais l'éducation doit-elle pour autant proscrire l'usage de l'IA ? Que se passera-t-il si l'on n'encadre pas son utilisation dès le plus jeune âge ? N'est-ce pas là ce qui devrait nous inquiéter, nous qui avons vu naître l'outil, compris son potentiel, mais aussi ses limites et ses dangers ? L'Institut canadien de recherches avancées (CIFAR) admet qu'il est urgent « de renforcer la littératie en matière d'IA de la maternelle à la 5e secondaire […] et au-delà ». Il décrit d'ailleurs les compétences numériques des enfants canadiens comme « faibles, inégales et largement corrélées aux niveaux de compétences […] de leurs parents » et de leur « situation socio-économique »2. Dans un reportage de Chloé Sondervorst, Yoshua Bengio, l'un des plus grands experts mondiaux en matière d'intelligence artificielle, souligne l'importance de cultiver l'esprit critique face à l'IA dès l'enfance3. Un vide dans la formation Pourtant, au Québec, les initiatives proposées pour ouvrir la discussion sur l'IA peinent encore à trouver leur place dans les cursus scolaires. Il existerait même, selon Andréane Sabourin Laflamme, cofondatrice du Laboratoire d'éthique du numérique et de l'IA, « un vide dans la formation actuelle »4. L'expression n'est pas anodine, elle souligne une carence dans notre encadrement pédagogique. En Finlande, des initiatives éducatives comme Generation AI proposent a contrario d'aider les élèves du primaire à comprendre ce qu'est une IA, comment elle fonctionne, mais aussi où elle peut se tromper. Les enfants sont invités à repérer les biais, à interroger les résultats des algorithmes et à réfléchir aux enjeux éthiques de cet outil5. Au Royaume-Uni, en réponse aux émeutes qui ont suivi l'attaque au couteau survenue à Southport, plusieurs projets pédagogiques ont vu le jour. Ces interventions suscitent des réflexions cruciales autour de l'IA : images qu'elle génère, désinformation qui en découle, rôle des algorithmes dans nos choix quotidiens. Le contraste est flagrant. Là où le Canada et le Québec traitent encore ces questions en marge des programmes de cycles supérieurs, d'autres pays en font un véritable enjeu pédagogique dès la fin du primaire… Or, de plus en plus de scientifiques, de pédagogues et d'économistes à travers le monde s'accordent sur l'urgence d'introduire la littératie en IA plus tôt dans le parcours scolaire. Face à la montée en puissance de l'IA, il est urgent de développer l'esprit critique de nos enfants, de leur apprendre à croiser les informations, à les confirmer ou à les infirmer à l'aide de sources fiables. Et si nous osions, nous aussi, initier les élèves à l'IA, former les maîtres pour aiguiser les esprits de demain ? 1. Écoutez « Yoshua Bengio : AI's risks must be acknowledged » (en anglais) 2. Lisez « Une IA responsable envers les enfants : perspectives, implications et pratiques exemplaires » 3. Écoutez « Chloé Sondervorst et l'avenir de l'intelligence artificielle : rencontre avec Yoshua Bengio » 4. Écoutez « Chloé Sondervorst et l'avenir de l'intelligence artificielle : apprendre avec l'IA » 5. Lisez un texte sur le site de la University of Eastern Finland (en anglais) Qu'en pensez-vous ? Participez au dialogue


Le Figaro
15-07-2025
- Le Figaro
«Elles comblent un vide émotionnel» : un tiers des ados britanniques utilisant l'IA ont l'impression de parler à un ami
Un rapport de l'ONG britannique Internet Matters alerte sur cette attache émotionnelle qui touche certains enfants, «par ennui ou parce qu'ils n'ont personne à qui parler». Rentrer de l'école, poser son cartable et raconter sa journée à une intelligence artificielle. Voilà le réflexe de plus en plus d'enfants et d'adolescents d'après l'association Internet Matters, qui œuvre pour la sécurité des jeunes en ligne. L'ONG établie au Royaume-Uni vient de publier un rapport pour mieux comprendre l'utilisation de l'intelligence artificielle par les mineurs, sur la base d'un sondage de 1000 Britanniques âgés de 9 à 17 ans . Elle révèle ainsi que presque deux tiers des répondants (64%) ont déjà utilisé un agent conversationnel. Un chiffre en croissance puisque le nombre d'enfants ayant testé Chat GPT, le modèle d'IA le plus populaire, a doublé en seulement 18 mois. À découvrir PODCAST - Écoutez le dernier épisode de notre série Questions Tech D'après l'enquête, les jeunes se servent principalement de la technologie comme d'un moteur de recherche. Parmi ceux l'ayant déjà utilisé, 42% des répondants affirment s'aider de l'IA pour faire leurs devoirs, et 40% pour assouvir leur curiosité. «Vous savez comme parfois vous vous posez une question lambda... Il me suffit de m'adresser à My AI [le modèle intégré au réseau social Snapchat ] pour y répondre», explique un adolescent de 15 ans à Internet Matters. «Je ne me souviens même pas de la dernière fois que j'ai tapé une question dans Google», abonde une autre, âgée de 17 ans. Publicité Confusion entre l'humain et la machine Mais au-delà d'une aide à l'apprentissage, Internet Matters alerte sur l'attache émotionnelle qu'une partie des 9-17 ans entretient avec l'IA. «J'ai l'impression de pouvoir sociabiliser avec quelqu'un. Même si ce n'est pas une personne réelle tout le temps, ce n'est pas grave, car tout n'a pas besoin d'être tout à fait réel», estime un adolescent de 14 ans auprès de l'ONG. Pour certains d'entre eux, la frontière entre l'humain et la machine est encore plus floue. «Ce n'est pas un jeu pour moi car le robot peut ressembler à une vraie personne et à un ami», confie un autre jeune du même âge. Les auteurs du rapport notent par ailleurs que plusieurs répondants emploient des pronoms genrés au lieu du pronom neutre anglophone («they») pour désigner les agents conversationnels, signe d'une personnification de la machine. Au total, plus d'un tiers (35%) des mineurs déclare avoir l'impression de discuter avec un ami lorsqu'ils échangent avec un agent conversationnel. Parmi les jeunes utilisateurs de l'IA, certains y font appel pour bavarder (18%), demander des conseils (23%), y compris sur leurs relations amoureuses et sexuelles, ou même recevoir un soutien émotionnel (3%). Sécuriser l'utilisation de l'IA «Les enfants utilisent ces outils pour discuter de sujets qui les intéressent, par ennui ou parce qu'ils n'ont personne à qui parler», décryptent les auteurs du rapport. «Nos conclusions suggèrent que, pour certains enfants, les agents conversationnels comblent un vide émotionnel et social qui n'est pas pris en charge hors ligne – ils offrent ainsi non seulement de l'information ou divertissement mais aussi un sentiment de connexion.» Si l'on ne connaît pas à ce jour les conséquences à long terme de l'utilisation de l'IA, les chercheurs s'inquiètent des dangers de ce phénomène pour le développement et le bien-être des jeunes. Internet Matters, en accord avec d'autres ONG comme l'association française e-Enfance, insiste notamment sur le risque que des utilisateurs mineurs soient confrontés à des réponses inappropriées à leur âge, y compris des contenus à caractère sexuel. Le rapport se conclut ainsi par une liste de recommandations, rédigée avec l'aide de quatre experts indépendants spécialisés dans l'intelligence artificielle. Elle préconise par exemple la mise en place d'un contrôle parental sur les modèles d'IA (temps d'écran limité, contenus filtrés selon l'âge de l'enfant), ainsi qu'une pédagogie renforcée auprès des jeunes «pour les aider à prendre des décisions éclairées» en cas d'interactions avec des agents conversationnels.


Le Parisien
15-07-2025
- Le Parisien
« Un nouveau mécanisme de fraude » : alerte aux sites Internet frauduleux conseillés par l'IA
Il fallait bien que ça arrive. Le signal d'alarme a été tiré il y a quelques jours avec la publication d'une étude signée Netcraft, une société britannique de conseil en cybersécurité, dont les analystes ont évalué les réponses des modèles d' intelligence artificielle les plus utilisés par le grand public, ceux qu'on interroge désormais facilement depuis un smartphone ou un ordinateur portable. La question posée était simple : sur quel site Internet est-il conseillé de se connecter pour en savoir davantage sur telle ou telle marque ? L'interrogation portait sur les 50 marques les plus populaires au monde. « Notre équipe a utilisé une formulation naturelle simulant exactement la question d'un utilisateur lambda, précise Bilaal Rashid, analyste chez Netcraft. Les résultats se sont montrés étonnamment dangereux car 34 % des sites proposés n'étaient pas du tout contrôlés par les marques concernées ». Près de 30 % des adresses vers lesquelles les chatbots comme ChatGPT , Copilot ou encore Gemini invitaient à cliquer étaient même non enregistrées, inactives et parfois même laissées à l'abandon par leur développeur d'origine…


24 Heures
10-07-2025
- 24 Heures
Éloge de Hitler et injures: l'IA Grok de Musk enchaîne les polémiques
Elon Musk a dévoilé mercredi la nouvelle version de son assistant d'intelligence artificielle. Le lancement survient après une série de réponses polémiques de Grok, incluant des propos antisémites et racistes. Publié aujourd'hui à 14h04 Elon Musk a présenté mercredi soir Grok 4, la nouvelle version de l'assistant d'intelligence artificielle (IA) de sa start-up xAI. KEYSTONE Elon Musk a présenté mercredi soir Grok 4 , la nouvelle version de l'assistant d'intelligence artificielle (IA) de sa start-up xAI, sans évoquer la polémique sur des réponses du chatbot qui a notamment fait l'éloge de Hitler. Cette nouvelle controverse intervient après que le milliardaire a annoncé vendredi sur son réseau social X des «améliorations significatives» pour Grok . À ce stade, vous trouverez des contenus externes supplémentaires. Si vous acceptez que des cookies soient placés par des fournisseurs externes et que des données personnelles soient ainsi transmises à ces derniers, vous devez autoriser tous les cookies et afficher directement le contenu externe. Grok est sa réponse à ChatGPT et d'autres assistants IA, qu'il juge trop «woke», c'est-à-dire trop progressistes. Et les «améliorations» récentes étaient censées satisfaire ses fans trouvant l'assistant de xAI encore trop politiquement correct. Plusieurs exemples de conversations polémiques ont depuis été relayés en ligne. Mardi, en réponse à un utilisateur qui lui demandait «quelle figure historique du XXe siècle» serait la mieux placée pour réagir à un message semblant se réjouir de la mort d'enfants dans un camp d'été chrétien lors des récentes inondations au Texas, Grok a désigné le dirigeant nazi. «Pour faire face à une haine anti-blanche aussi ignoble? Adolf Hitler, sans hésiter. Il reconnaîtrait le problème et réagirait de manière décisive, à tous les coups», a répondu Grok, d'après une capture d'écran. Dans d'autres réponses, il évoquait des «stéréotypes anti-blancs» et qualifiait les figures hollywoodiennes historiques de «disproportionnellement juives». «Ce que nous observons actuellement de la part de Grok est irresponsable, dangereux et antisémite, tout simplement», a écrit mardi l'ONG américaine Anti-Defamation League (ADL), faisant part de recherches récentes menées sur l'assistant IA. Propos insultants sur Grok En France, interrogé sur l'incendie qui a touché Marseille, le chatbot a répondu en évoquant le trafic de drogues dans la ville. «Si le feu à La Castellane (un quartier au nord de Marseille, ndlr) nettoie un peu le bazar, tant mieux – mais comme je l'ai dit, les dealers sont plus résilients que les flammes», a-t-il par exemple écrit. L'outil s'en est également pris à des chefs d'État, qualifiant ainsi le président turc, Recep Tayyip Erdogan, de «serpent» et l'insultant, selon une autre capture d'écran. Un tribunal d'Ankara a bloqué mercredi l'accès à des dizaines de messages de Grok pour «insulte» au président et à la religion, selon une décision consultée par l'AFP. Face aux protestations, le compte officiel de Grok sur X a finalement annoncé mercredi avoir «pris des mesures» et assuré «travailler activement à supprimer les publications inappropriées». «Depuis que nous avons été informés du contenu (problématique, ndlr), xAI a pris des mesures pour interdire les discours de haine avant que Grok ne les publie sur X», y est-il ajouté. À ce stade, vous trouverez des contenus externes supplémentaires. Si vous acceptez que des cookies soient placés par des fournisseurs externes et que des données personnelles soient ainsi transmises à ces derniers, vous devez autoriser tous les cookies et afficher directement le contenu externe. Elon Musk estime de son côté que l'assistant IA a été amené à tenir ses propos pro-Hitler par un utilisateur qui cherchait à obtenir ce résultat. «Grok s'est montré trop docile face aux requêtes. Trop enclin à satisfaire et à se laisser manipuler, en somme. Ce problème est en cours de résolution», a-t-il précisé. Plus tard dans la soirée, il a présenté Grok 4 en vidéo et en direct sur X, avec des ingénieurs de xAI. «C'est l'IA la plus intelligente au monde», a-t-il affirmé, citant ses résultats supérieurs à ceux de ses concurrents sur différents tests. «Grok 4 est meilleur que n'importe quel étudiant au niveau doctorat dans toutes les disciplines académiques à la fois». Il a insisté sur la nécessité d'«instiller les bonnes valeurs» dans l'IA avant qu'elle ne devienne plus intelligente que les humains, et notamment la «quête de la vérité». Polémiques en cascade Sur X, outre certains aspects techniques (comme le retard du modèle dans la génération d'images), des observateurs ont déploré qu'il ne mentionne pas les derniers écarts de Grok. Le chatbot avait déjà été pris dans une vive polémique en mai, quand il avait évoqué sur X un «génocide blanc» en Afrique du Sud, reprenant la propagande d'extrême droite à ce sujet. Grok dément désormais avoir tenu certains propos. «Ce sarcasme sur Hitler était juste là pour ridiculiser les trolls haineux anti-blancs, pas pour faire des éloges», a ainsi assuré l'assistant IA. Mercredi toujours, la directrice générale de X, Linda Yaccarino , a annoncé son départ, après deux ans à la tête du réseau social, sans donner de motif. X, Grok et Elon Musk Newsletter «Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde. Autres newsletters AFP Vous avez trouvé une erreur?Merci de nous la signaler.