
C'est vous qui le dites 7 juillet: Smartphones
Retrouvez ici votre courrier des lecteurs du 7 juillet Commentaire
24 heures / lecteurs Publié aujourd'hui à 06h58
La question des smartphones à l'école
Comme on vient de l'apprendre, le Valais devient le premier canton romand à bannir les smartphones de l'école. Une mesure similaire devrait-elle être prise dans le canton de Vaud? Les partisans de cette interdiction attendent de meilleurs résultats scolaires et une socialisation plus harmonieuse des élèves. Peut-on compter que ces effets se réaliseront? Faut-il craindre des retombées imprévisibles? Au fond, sur quelle éthique devrait-on s'appuyer pour prendre une telle décision?
Si l'éthique commande quelque chose, n'est-ce pas avant tout de se donner les moyens d'une décision éclairée, fondée sur des données fiables? L'opportunité de bannir ou non les smartphones de l'école bénéficierait typiquement d'une démarche d'éducation fondée sur les preuves. Comme cela a été fait par exemple pour l'administration de suppléments vitaminés, il ne serait pas très difficile de randomiser les quelque 90 écoles du canton, soit d'en tirer au sort une moitié où l'on bannira les smartphones, en laissant les autres évoluer librement. Un relevé des performances scolaires et de quelques indicateurs de socialisation après deux ans permettrait d'évaluer comparativement les résultats de cette intervention et d'en tirer des conclusions solides quant à la meilleure politique à appliquer. Ces résultats pourraient intéresser d'autres collectivités, comme les cantons voisins.
Plus globalement, il s'agirait d'élargir à ce type d'intervention de politique publique la culture de l'évaluation fondée sur les preuves, au-delà du cercle de la médecine et de la pharmacologie où elle s'est développée et a largement démontré son potentiel. Une investigation bien conduite de cette question de smartphone pourrait représenter un cas d'école!
Thierry Buclin, médecin pharmacologue clinique, Lausanne Téléphones portables
Des côtés négatifs oubliés
L'éditorial paru le 1er juillet dernier intitulé «Ça chauffe, mais que faisons-nous?» m'incite à prendre la plume. Depuis quelques jours, on nous harcèle avec la canicule et ses dangers et comment s'en prémunir: se tenir à l'ombre, boire beaucoup, manger léger, des mesures appliquées depuis longtemps et qui coulent de source. Conséquence du réchauffement climatique provoqué par les émissions des moyens de transport en particulier. Il est regrettable à ce sujet que le Covid n'ait servi à rien alors que chacun appréciait un ciel pur exempt de traînées blanches et que le trafic aérien a repris de plus belle. Mais je m'étonne que les téléphones portables ne fassent pas davantage parler d'eux, alors qu'ils sont plus nombreux que les 8 milliards d'individus que compte notre planète, qu'ils sont néfastes pour la santé et participent à leur échelle au réchauffement climatique. Déjà en 1996, un haut responsable et ingénieur de la Cité des sciences à Paris nous disait textuellement: «Le pire est à venir avec la téléphonie mobile.»
Anne-Marie de Graffenried, La Tour-de-Peilz
Vous avez trouvé une erreur?Merci de nous la signaler.

Essayez nos fonctionnalités IA
Découvrez ce que Daily8 IA peut faire pour vous :
Commentaires
Aucun commentaire pour le moment...
Articles connexes


24 Heures
13 hours ago
- 24 Heures
La tech soutient le revenu de base, Jean Christophe Schwaab n'est pas convaincu. Interview
Contre les pertes d'emplois dues à l'IA, des patrons de la tech soutiennent le revenu inconditionnel de base. Pas le socialiste Jean Christophe Schwaab. Interview. Publié aujourd'hui à 07h01 Pour Jean Christophe Schwaab, le revenu inconditionnel de base est un moyen pour les patrons de la tech de se débarrasser de toute responsabilité sociale. Chantal Dervey En bref: En matière d'intelligence artificielle, il y a les optimistes et les pessimistes. Du côté des premiers, le Forum économique mondial (WEF) qui estime que l'IA pourrait créer 170 millions de nouveaux emplois d'ici 2030, tout en en supprimant 92 millions. La transaction se solderait par 78 millions de postes supplémentaires. De l'autre côté, les pessimistes doutent des chiffres «euphoriques» du WEF, et en opposent d'autres. Le chômage dû à l'IA pourrait atteindre 20% d'ici cinq ans, selon Dario Amodei, le patron d'Anthropic (la société qui développe l'agent conversationnel Claude) . Et dans les pays de l'OCDE, les professions les plus exposées au risque d'automatisation représenteraient 28% des emplois . Les dirigeants de la tech sont bien conscients du risque que fait peser l'IA sur de nombreux emplois, et plusieurs d'entre eux plaident pour la mise en place d'un revenu inconditionnel de base pour prévenir les perturbations économiques et sociales à venir. Sam Altman, le cofondateur et PDG d'OpenAI (ChatGPT) , fait partie des défenseurs du RUB. De même qu'Elon Musk, qui déclarait en 2024: «Tout travail deviendra facultatif. Si vous voulez conserver un job qui va ressembler un peu à un passe-temps, vous pourrez le faire. Mais si vous ne le voulez pas, l'IA et les robots fourniront tous les biens et services nécessaires. » L'idée d'un RUB en renfort face à l'IA fait bondir le docteur en droit Jean Christophe Schwaab, qui ne s'en est pas caché sur le plateau de Léman Bleu . Également auteur d'un livre sur la souveraineté numérique, dans lequel il parle du pouvoir des grandes entreprises de la tech et de l'influence de la révolution numérique sur le droit, le conseiller national socialiste développe sa position. Vous êtes socialiste et avez occupé le poste de secrétaire central de l'Union syndicale suisse. Et pourtant, vous êtes opposé au revenu inconditionnel de base. Que lui reprochez-vous? C'est une position assez constante des socialistes d'y être opposé. Lorsqu'il y a eu la votation sur le revenu de base, en 2016, pratiquement toutes les sections cantonales ont dit non. Mais dans le contexte actuel, je dirais que le RUB est un cheval de Troie libertarien pour exclure du marché du travail les employés que les grands patrons considèrent comme improductifs. Le revenu de base, c'est un moyen pour ces employeurs de se débarrasser de toute forme de responsabilité sociale. Si un employé n'est pas content ou malade, il n'a qu'à partir et se suffire du revenu de base. À ce stade, vous trouverez des contenus externes supplémentaires. Si vous acceptez que des cookies soient placés par des fournisseurs externes et que des données personnelles soient ainsi transmises à ces derniers, vous devez autoriser tous les cookies et afficher directement le contenu externe. Elon Musk s'est pourtant montré favorable à une taxe sur l'automatisation, qui concernerait directement ses propres entreprises. C'est un mensonge! Je ne lui fais pas la moindre confiance. Je pense qu'en comparaison à vous et à moi, il consacre une part inférieure de son revenu à l'impôt. C'est une constance chez ces entrepreneurs libertariens: ils font tout pour contribuer le moins possible à la collectivité et à la redistribution des richesses. Les défenseurs du RUB soutiennent également la fin du travail. Ne plus aller au bureau, ça ne rend pas heureux? Le travail est un outil pour s'intégrer dans la société. Avec le RUB, vous donnez la possibilité à des individus de s'en extraire, ce qui n'est pas dans leur intérêt individuel. Contribuer à la société, participer à un processus de production de biens, fournir des services qui vont bénéficier à d'autres: tout cela est extrêmement important pour la réalisation de soi. Ne plus travailler, c'est ne plus contribuer au bien commun et tomber dans un ultraindividualisme qui détruit la cohésion sociale. Un revenu inconditionnel de base permet aussi de s'assurer que les citoyennes et citoyens continuent de consommer. Comme un pansement capitaliste? J'aime bien cette notion de pansement parce que c'est exactement ce qu'est le RUB. Il ne s'agit pas d'une transformation de la société, et encore moins du dépassement du capitalisme. Le revenu inconditionnel de base n'est pas un outil de redistribution des richesses, mais un moyen d'alimenter la machine et de s'assurer de l'achat des biens et des services. «Le RUB met en danger les assurances sociales, en prétendant les remplacer» Que faire pour contrer les pertes massives d'emplois induites par l'avènement de l'IA? Il faut déjà renforcer le pouvoir de négociation des salariés en les protégeant et en renforçant leurs conditions de travail, leur place, en leur accordant une meilleure part de rémunération, une meilleure protection contre le licenciement et en forçant les employeurs qui suppriment des emplois – alors que leur situation économique est bonne – à négocier des plans sociaux. Le RUB met en danger les assurances sociales, en prétendant les remplacer. Alors qu'il faut plutôt faire en sorte et travailler à ce que ces assurances sociales évoluent de manière à pouvoir remplacer les pertes de revenus. Les grands patrons de la tech s'opposent en général farouchement à ce que l'État mette le nez dans leurs affaires. Mais pour ce qui est du RUB, ils semblent soudain très ouverts à plus d'État. Pourquoi cette pirouette? Ils ne sont favorables à un État fort uniquement quand ça les arrange. Ces grands patrons ont énormément besoin de l'État pour leurs affaires. Musk, sa proximité avec Trump et les nombreux conflits d'intérêts qui en découlent en sont une démonstration éclatante! Toutes ces grandes entreprises technologiques n'auraient jamais vu le jour sans d'énormes investissements publics, de la défense américaine ou des universités. Sur l'intelligence artificielle, à lire aussi Newsletter «Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde. Autres newsletters Catherine Cochard est journaliste à la rubrique vaudoise et s'intéresse aux sujets de société. Elle produit également des podcasts. Auparavant, elle a notamment travaillé pour Le Temps ainsi qu'en tant que réalisatrice indépendante pour l'Université de Zurich. Plus d'infos @catherincochard Vous avez trouvé une erreur?Merci de nous la signaler.


24 Heures
3 days ago
- 24 Heures
Forcer l'IA à oublier les visages, c'est possible et ça se passe en Suisse
Accueil | Savoirs | Technologie | À Neuchâtel, le CSEM force les modèles d'intelligence artificielle à empêcher la vidéosurveillance de conserver les visages captés. Publié aujourd'hui à 16h36 Photo de caméra de surveillance (à g.) et les versions reconstruites auxquelles elle est confrontée. L'une fournie par un modèle d'IA classique, qui conserve malgré lui certains traits identifiants (au centre). L'autre traitée avec la méthode CSEM, qui empêche toute reconstruction d'image fidèle. CSEM En bref: Contre-intuitif. Forcer un algorithme conçu pour apprendre à toujours mieux reconnaître un visage à en ignorer les détails. C'est pourtant ce que vient d'annoncer en milieu de semaine le Centre suisse d'électronique et de microtechnique (CSEM), avec des modèles d'intelligence artificielle qui «oublient les visages». Une présentation qui intervient alors que le grand public n'a jamais été aussi inquiet de la surveillance généralisée à laquelle il est soumis, sur le Net comme dans l'espace public. Et alors que s'achève, ce vendredi à Genève, la conférence des Nations Unies AI for Good , qui tente de mobiliser cette révolution technologique au service du bien commun. Révolte contre le flicage à la chinoise Déjà omniprésente – pour déverrouiller son téléphone comme dans les aéroports ou les hôpitaux – la reconnaissance faciale soulève de grandes préoccupations en matière de protection de la vie privée et de consentement. Il y a quatre ans, les Suisses ont réclamé son interdiction nationale à des fins de surveillance. Genève a proscrit depuis plus d'une année toute surveillance biométrique de masse, dont l'utilisation a également été écartée, début mai, par le Conseil communal de Lausanne. Et comme dans l'Union européenne, qui finalise sa loi sur l'IA, l'utilisation de systèmes d'identification en continu dans l'espace public ne peut intervenir que dans le cadre d'opérations de police. Et demeure interdite en l'absence de justification juridique. Les mains dans le moteur de l'IA La méthode d'entraînement des modèles d'IA mise au point par le groupe Edge AI and Vision Systems du CSEM vise à «appuyer ce cadre réglementaire». En veillant à ce que l'IA ne conserve pas de données personnelles sensibles. Ce reformatage de l'intelligence artificielle s'appuie sur une stratégie dite d'«apprentissage antagoniste», qui arrive à détecter lorsque le système tente de conserver des informations qu'il ne devrait pas. «Pour qu'un modèle d'IA soit vraiment utile dans des environnements sensibles et très fréquentés comme les gares ou les hôpitaux, il doit se concentrer uniquement sur les éléments nécessaires à sa mission – par exemple, détecter des comportements anormaux – sans prendre en compte d'informations personnelles telles que la couleur de peau, le genre ou l'âge», explique Nadim Maamari, chef de groupe au CSEM. «Notre approche innovante guide l'IA pour lui faire oublier ces données sensibles dès la phase d'apprentissage – ce qui permet non seulement de préserver la vie privée, mais aussi de développer des systèmes qui ne sont pas biaisés par les données sur lesquelles ils ont été entraînés», poursuit ce dernier. Lors de ses tests, Nadim Maamari a comparé deux versions d'un même modèle d'IA. L'une entraînée de manière classique, qui conserve malgré elle certains traits identifiants. Et une autre traitée avec sa méthode, qui empêche toute reconstruction d'image fidèle. Vérification contre identification «Les systèmes du type de ceux mis en avant par le CSEM répondent à la crainte de la population d'être tracée, fliquée en permanence – même si en réalité, le problème reste tout aussi législatif que technique», tempère Christophe Remillet, spécialiste de la vérification faciale à la tête de OneVisage, à Lausanne. Cette société utilise la biométrie pour apprendre à une machine à vérifier le visage enregistré d'une personne qui se présente pour authentification, par exemple aux abords d'une zone sécurisée. Et met en opposition cette vérification avec l'identification à large échelle. «Identifier les visages un à un dans une foule est une aberration, en termes de préservation de l'anonymat évidemment, mais aussi au niveau de la sécurité, à voir les taux d'erreur et les arnaques sur les systèmes de paiement facial», pointe ce vétéran du secteur. Qui rappelle que «la surveillance par reconnaissance faciale signifie nécessairement le stockage des photos sur une base de données – ce que font les autorités chinoises, les GAFAM (ndlr: géants américains du Net) , sans parler de la société new-yorkaise ClearView, qui collecte des milliards de photos sur les réseaux afin de revendre ses services de reconnaissance faciale aux polices du monde entier – en toute impunité», souffle Christophe Remillet. Tous surveillés, plus d'articles sur le sujet Newsletter «Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde. Autres newsletters Pierre-Alexandre Sallier est journaliste à la rubrique Économie depuis 2014. Auparavant il a travaillé pour Le Temps , ainsi que pour le quotidien La Tribune , à Paris. Plus d'infos Vous avez trouvé une erreur?Merci de nous la signaler.


24 Heures
5 days ago
- 24 Heures
Éloge de Hitler et injures: l'IA Grok de Musk enchaîne les polémiques
Elon Musk a dévoilé mercredi la nouvelle version de son assistant d'intelligence artificielle. Le lancement survient après une série de réponses polémiques de Grok, incluant des propos antisémites et racistes. Publié aujourd'hui à 14h04 Elon Musk a présenté mercredi soir Grok 4, la nouvelle version de l'assistant d'intelligence artificielle (IA) de sa start-up xAI. KEYSTONE Elon Musk a présenté mercredi soir Grok 4 , la nouvelle version de l'assistant d'intelligence artificielle (IA) de sa start-up xAI, sans évoquer la polémique sur des réponses du chatbot qui a notamment fait l'éloge de Hitler. Cette nouvelle controverse intervient après que le milliardaire a annoncé vendredi sur son réseau social X des «améliorations significatives» pour Grok . À ce stade, vous trouverez des contenus externes supplémentaires. Si vous acceptez que des cookies soient placés par des fournisseurs externes et que des données personnelles soient ainsi transmises à ces derniers, vous devez autoriser tous les cookies et afficher directement le contenu externe. Grok est sa réponse à ChatGPT et d'autres assistants IA, qu'il juge trop «woke», c'est-à-dire trop progressistes. Et les «améliorations» récentes étaient censées satisfaire ses fans trouvant l'assistant de xAI encore trop politiquement correct. Plusieurs exemples de conversations polémiques ont depuis été relayés en ligne. Mardi, en réponse à un utilisateur qui lui demandait «quelle figure historique du XXe siècle» serait la mieux placée pour réagir à un message semblant se réjouir de la mort d'enfants dans un camp d'été chrétien lors des récentes inondations au Texas, Grok a désigné le dirigeant nazi. «Pour faire face à une haine anti-blanche aussi ignoble? Adolf Hitler, sans hésiter. Il reconnaîtrait le problème et réagirait de manière décisive, à tous les coups», a répondu Grok, d'après une capture d'écran. Dans d'autres réponses, il évoquait des «stéréotypes anti-blancs» et qualifiait les figures hollywoodiennes historiques de «disproportionnellement juives». «Ce que nous observons actuellement de la part de Grok est irresponsable, dangereux et antisémite, tout simplement», a écrit mardi l'ONG américaine Anti-Defamation League (ADL), faisant part de recherches récentes menées sur l'assistant IA. Propos insultants sur Grok En France, interrogé sur l'incendie qui a touché Marseille, le chatbot a répondu en évoquant le trafic de drogues dans la ville. «Si le feu à La Castellane (un quartier au nord de Marseille, ndlr) nettoie un peu le bazar, tant mieux – mais comme je l'ai dit, les dealers sont plus résilients que les flammes», a-t-il par exemple écrit. L'outil s'en est également pris à des chefs d'État, qualifiant ainsi le président turc, Recep Tayyip Erdogan, de «serpent» et l'insultant, selon une autre capture d'écran. Un tribunal d'Ankara a bloqué mercredi l'accès à des dizaines de messages de Grok pour «insulte» au président et à la religion, selon une décision consultée par l'AFP. Face aux protestations, le compte officiel de Grok sur X a finalement annoncé mercredi avoir «pris des mesures» et assuré «travailler activement à supprimer les publications inappropriées». «Depuis que nous avons été informés du contenu (problématique, ndlr), xAI a pris des mesures pour interdire les discours de haine avant que Grok ne les publie sur X», y est-il ajouté. À ce stade, vous trouverez des contenus externes supplémentaires. Si vous acceptez que des cookies soient placés par des fournisseurs externes et que des données personnelles soient ainsi transmises à ces derniers, vous devez autoriser tous les cookies et afficher directement le contenu externe. Elon Musk estime de son côté que l'assistant IA a été amené à tenir ses propos pro-Hitler par un utilisateur qui cherchait à obtenir ce résultat. «Grok s'est montré trop docile face aux requêtes. Trop enclin à satisfaire et à se laisser manipuler, en somme. Ce problème est en cours de résolution», a-t-il précisé. Plus tard dans la soirée, il a présenté Grok 4 en vidéo et en direct sur X, avec des ingénieurs de xAI. «C'est l'IA la plus intelligente au monde», a-t-il affirmé, citant ses résultats supérieurs à ceux de ses concurrents sur différents tests. «Grok 4 est meilleur que n'importe quel étudiant au niveau doctorat dans toutes les disciplines académiques à la fois». Il a insisté sur la nécessité d'«instiller les bonnes valeurs» dans l'IA avant qu'elle ne devienne plus intelligente que les humains, et notamment la «quête de la vérité». Polémiques en cascade Sur X, outre certains aspects techniques (comme le retard du modèle dans la génération d'images), des observateurs ont déploré qu'il ne mentionne pas les derniers écarts de Grok. Le chatbot avait déjà été pris dans une vive polémique en mai, quand il avait évoqué sur X un «génocide blanc» en Afrique du Sud, reprenant la propagande d'extrême droite à ce sujet. Grok dément désormais avoir tenu certains propos. «Ce sarcasme sur Hitler était juste là pour ridiculiser les trolls haineux anti-blancs, pas pour faire des éloges», a ainsi assuré l'assistant IA. Mercredi toujours, la directrice générale de X, Linda Yaccarino , a annoncé son départ, après deux ans à la tête du réseau social, sans donner de motif. X, Grok et Elon Musk Newsletter «Dernières nouvelles» Vous voulez rester au top de l'info? «24 heures» vous propose deux rendez-vous par jour, pour ne rien rater de ce qui se passe dans votre Canton, en Suisse ou dans le monde. Autres newsletters AFP Vous avez trouvé une erreur?Merci de nous la signaler.