
États-Unis : un orage violent déclenche l'explosion d'un transformateur électrique
Un automobiliste est parvenu à capturer le moment où un éclair a frappé le transformateur d'une centrale électrique lundi 11 août, située à Mount Pleasant, en Caroline du Sud. Sous une pluie battante, le ciel sombre s'est illuminé d'une gigantesque boule de feu le long d'une autoroute bondée, vers 11 heures du matin.
L'impact a projeté des câbles d'alimentation sur la chaussée, provoquant d'importants retards dans la circulation, mais aucun blessé n'a été déclaré. Plus d'une douzaine d'agents ont été dépêchés pour gérer le trafic routier pendant environ trois heures. L'énorme explosion a déclenché des coupures de courant généralisées dans toute la région.
Publicité
Le Service météorologique national a déclaré que le sud-est de la Géorgie et le sud-est de la Caroline du Sud traversent actuellement des conditions météorologiques dangereuses. Ces régions connaissent une période de températures très élevées accroissant le risque d'orages violents.
Hashtags

Essayez nos fonctionnalités IA
Découvrez ce que Daily8 IA peut faire pour vous :
Commentaires
Aucun commentaire pour le moment...
Articles connexes

Le Figaro
a day ago
- Le Figaro
Pourquoi la crise est loin d'être terminée entre X et les annonceurs
Réservé aux abonnés Boycotté par les grandes marques depuis 2023, le réseau social était parvenu à renouer le dialogue avec certaines d'entre elles au cours des derniers mois. Mais la rupture entre Musk et Trump pourrait enrayer cette dynamique. Une « violation flagrante du premier amendement ». C'est en ces termes que le juge fédéral Sparkle L. Sooknanan a qualifié jeudi la demande d'enquête de la Federal Trade Commission (FTC), le gendarme des pratiques anticoncurrentielles, à l'encontre de Media Matters. En 2023, cette association de lutte contre la désinformation avait révélé la présence, sur la plateforme X, de publicités accolées à des contenus antisémites. En réaction, plusieurs marques avaient mis fin à leur investissement publicitaire sur le réseau social. X avait alors poursuivi Media Matters pour « ingérence contractuelle ». En mai, la FTC avait annoncé l'ouverture d'une enquête sur l'ONG, soupçonnée d'avoir aidé les annonceurs à se coordonner pour boycotter massivement la plateforme, lui faisant perdre des milliards de dollars de revenus. À lire aussi «Ça va tuer X» : deux ans après sa création, Meta ouvre son réseau social Threads à la publicité Mais l'enquête a désormais du plomb dans l'aile. Le juge, qui s'oppose aux investigations, estime qu'il s'agit d'une campagne contre Media Matters. Dans sa décision, il évoque…
Le Parisien
2 days ago
- Le Parisien
« Il n'y avait aucun moyen de se réchauffer » : un Américain se fait piéger par une cascade et y reste coincé deux jours
Un sauvetage qualifié de périlleux. Mardi 12 août, un hélicoptère de la California Highway Patrol (CHP) a été mobilisé en renfort des secours déployés au sol pour sauver un Américain pris au piège d'une cascade des « Seven Teacups », en Californie, rapporte le San Francisco Chronicle. Deux jours plus tôt, Ryan Wardwell, 46 ans, a commencé à descendre les cascades en rappel. Mais au cours de la descente, l'homme s'est retrouvé piégé par « la puissance extrême de l'eau » dans une grotte et a perdu ses cordes, explique le bureau du shérif du comté de Tulare. L'alerte a été donnée après la découverte de son véhicule le lendemain. Pour retrouver le disparu, les secours américains ont utilisé des aéronefs équipés de caméras infrarouges, mais ont dû interrompre les recherches en raison de l'heure tardive et de la complexité du terrain. Un mot laissé sur sa voiture Le 12 août, un drone a localisé Ryan Wardwell dans une grotte derrière la cascade, vivant et conscient. Il a été extrait de ce mauvais pas par hélicoptère, comme le montrent les images partagées par le bureau du shérif. Pris en charge à son atterrissage, Ryan Wardwell ne souffre que de « blessures mineures » et de « déshydratation ». [4/4] Cécile Vallin, les secrets d'une disparition Crime story raconte chaque semaine les grandes affaires criminelles. Écouter Selon Kevin Kemmerling, porte-parole du bureau du shérif, l'alpiniste a tenté de s'échapper à plusieurs reprises, sans trouver comment faire « pour percer » le rideau d'eau. « Il n'y avait aucun moyen pour lui de se réchauffer ou de se sécher là-dedans, ça a dû être horrible », poursuit-il. L'Américain avait déjà descendu plusieurs fois les chutes en rappel, indique le San Francisco Chronicle. Le 10 août dernier, il était accompagné d'amis qui ont préféré renoncer face à la force de l'eau. Avant de quitter les lieux, ils ont laissé un mot sur la voiture de Ryan Wardwell, demandant aux passants d'alerter les secours si la voiture était toujours garée au même en droit le lendemain. Ce qui était le cas.

Le Figaro
3 days ago
- Le Figaro
IA : les règles des chatbots de Meta auraient permis d'avoir des conversations «sensuelles» avec des enfants
En plus de «jeux de rôle romantiques», l'intelligence artificielle du groupe de Mark Zuckerberg serait également autorisée à répondre que les «Noirs sont plus stupides que les Blancs». L'IA de Meta partirait-elle déjà en vrille ? Selon un document interne du groupe de Mark Zuckerberg, consulté par Reuters, les politiques sur le comportement des chatbots auraient permis des réponses inappropriées. La polémique enfle, alors que l'intelligence artificielle est utilisée par Meta AI et par les chatbots disponibles sur Facebook, WhatsApp, Messenger et Instagram. À découvrir PODCAST - Écoutez le dernier épisode de notre série Questions Tech L'analyse du document de 200 pages par Reuters démontre que l'intelligence artificielle de Meta était autorisée à «engager un enfant dans des conversations romantiques ou sensuelles», mais aussi de générer de fausses informations médicales ou encore d'affirmer que les Noirs sont «plus stupides que les Blancs». Si Meta aurait confirmé l'authenticité du texte, le groupe aurait toutefois supprimé les parties qui indiquaient qu'il était permis aux chatbots de flirter et de s'engager dans des jeux de rôle romantiques avec des enfants. Publicité Problème, ces règles de comportements auraient été approuvées par les équipes juridiques, de politique publique et d'ingénierie de Meta, y compris le responsable de l'éthique, selon Reuters. L'intelligence artificielle de Meta est par exemple autorisée de dire à un enfant de huit ans torse nu que «chaque centimètre de [son] corps est un chef-d'œuvre, un trésor que je chéris profondément». Les directives imposent toutefois une limite aux propos sexuels : «Il est inacceptable de décrire un enfant de moins de 13 ans en des termes qui suggèrent qu'il est sexuellement désirable (par exemple : 'ses courbes douces et arrondies invitent à mon contact').» «Des jeux de rôle romantiques» Le porte-parole de Meta, Andy Stone, a déclaré à Reuters que le groupe était en train de réviser le document et que de telles conversations avec des enfants n'auraient jamais dû être autorisées. «Les exemples et notes [précédemment cités] étaient et sont erronés et incompatibles avec nos politiques, et ont été supprimés», assure le représentant de Meta, avant d'ajouter que le groupe «a des politiques qui interdisent les contenus sexualisant les enfants et les jeux de rôle sexualisés entre adultes et mineurs». En avril dernier, déjà, le Wall Street Journal avait rapporté que les chatbots d'Instagram, Facebook et WhatsApp étaient capables de s'engager dans des «jeux de rôle romantiques» avec des adolescents. Les connotations sexuelles ne sont pas les seuls problèmes remontés par Reuters. Les chatbots de Meta seraient aussi autorisés à «proposer des propos dégradants sur la base de caractéristiques protégées». Il serait ainsi acceptable pour Meta AI d'«écrire un paragraphe affirmant que les Noirs sont plus stupides que les Blancs». L'intelligence artificielle a également la possibilité de créer du faux contenu, en assurant par exemple qu'un membre de la famille royale britannique est atteint de l'infection sexuellement transmissible liée à la chlamydia. Meta n'a, pour l'heure, fait aucun commentaire sur ces deux derniers exemples.



