Sommaire

Sommaire

“Intelligences” artificielles : De sérieux ennuis… pour l’Humanité !

En trois exemples !

Relance de la centrale nucléaire de Three Miles Island

En raison du développement des intelligences artificielles, le besoin en énergie de Microsoft va relancer la centrale nucléaire de Three Miles Island, qui a connu un grave accident il y a 35 ans… !

Quand la réalité rejoint voire dépasse la fiction, (Terminator co-écrit par Randall Frakes, W. H. Wisher et James Cameron 1 2 qui en assurera la mise en scène) en effet aux États-Unis, l’utilisation massive de serveurs – les data centers – dédiés à l’IA a un fort impact sur le réseau électrique, tout en produisant une plus grande quantité de gaz à effet de serre. En 2023, Microsoft a explosé ses émissions de CO2, avec une augmentation de 29,1 % par rapport à 2022.

L’entreprise américaine, visant “la neutralité carbone” à l’horizon 2030, doit donc trouver des solutions pour réduire ses émissions polluantes.

Microsoft a d’ailleurs annoncé investir 100 milliards de dollars avec BlackRock (sinistre gestionnaire de fonds) pour construire de nouvelles infrastructures dédiées.

De plus les serveurs ont besoin d’électricité, mais aussi d’une quantité phénoménale d’eau à tel point que les experts s’inquiètent qu’ils ne précipitent l’arrivée de la prochaine pénurie 3

Lire l’article très documenté de Contre-attaque : L’intelligence artificielle et la poursuite du saccage environnemental : https://contre-attaque.net/2024/11/18/ia-04-lintelligence-artificielle-et-la-poursuite-du-saccage-environnemental/

Le “parrain de l’IA” remporte le prix Nobel mais “regrette” ses travaux

Le prix Nobel 2024 de physique a été attribué, mardi 8 octobre, à John Hopfield et Geoffrey Everest Hinton. L’Américain et le Britanno-Canadien ont été récompensés “pour les découvertes et inventions fondamentales qui permettent l’apprentissage automatique grâce aux réseaux neuronaux”. 

Le comité a souligné que :

“Grâce à leurs travaux, l’humanité a maintenant un nouvel instrument dans sa boîte à outils, « que nous pouvons choisir d’utiliser à de bonnes fins ». La manière dont ces travaux seront utilisés à l’avenir dépendra « de la manière dont nous, les humains, choisirons d’utiliser ces outils incroyablement puissants, déjà présents dans de nombreux aspects de nos vies ».”

Le “parrain de l’IA” a néanmoins pris du recul reconnaissant qu’une “partie de lui regrettait” les travaux qu’il avait menés. En 2023, il a quitté Google pour alerter face aux dangers que représente l’intelligence artificielle et la façon dont “de mauvais acteurs” pourraient utiliser l’IA dans les prochaines décennies pour faire “de mauvaises choses”.

Hinton, lui, continue d’alerter sur les risques liés à l’intelligence artificielle. Dans une entrevue il assurait que “nous n’avons aucune idée de comment peuvent fonctionner des choses plus intelligentes que nous”.

Il n’existe aucune garantie de sécurité face aux progrès de l’intelligence artificielle.

Ces dernières années, d’autres voix (Scott Pelley) sont venues se mêler à celle de Yoshua Bengio, Geoffrey Hinton et John Hopfield pour exprimer leur préoccupation de l’essor du deep learning, craignant un possible scénario à la Terminator dans un horizon beaucoup plus proche qu’ils ne le pensaient auparavant 4, car il “n’existe aucune garantie de sécurité face aux progrès de l’intelligence artificielle”.

https://www.futura-sciences.com/sciences/actualites/ physique-prix-nobel-physique-2024-recompense-pionniers-ia-sont-inspires-physique-aimants-gaz-116593/

Le cyber gardien de l’État français alerte sur l’utilisation de l’IA générative par les administrations

Mauvaise qualité du code, risque de fuites de données, tous les dangers de l’IA

Dans une note conjointe, les agences cyber française et allemande alertent sur les risques liés à l’utilisation d’outils d’IA générative par les développeurs informatiques, très prisée dans les administrations publiques. Mieux vaut tard que jamais.

Mauvaise qualité du code, risque de fuites de données, vecteur supplémentaire d’attaque…

C’est l’un des cas d’usage les plus avancés de l’IA générative mais c’est aussi l’un des plus sensibles : l’assistance au développement informatique.

L’Agence nationale de sécurité des systèmes d’information appelle les entités publiques et privées à ne pas sous-estimer les risques de “mauvaise” utilisation de cette assistance car l’IA générative est déjà largement expérimentée depuis 2023 pour automatiser toute une série de tâches.

Bernard Foulon

Vidéo à voir

Interview de George Hiton

Pour obtenir une traduction en français assez fidèle, cliquez sur le rectangle blanc en bas à droite. Les sous-titres en anglais devraient alors apparaître. Cliquez ensuite sur l’écrou à droite du rectangle, puis sur “Sous-titres” et enfin sur “Traduire automatiquement”. Choisissez “Français”. © 60 Minutes

Vidéo de Sorbonne Université

Un réseau de neurones artificiels deux minutes d’IA, https://www.youtube.com/watch?v=y5q2hceA6NI

Qu’est-ce qu’un Réseau de Neurones ?

  1. https://www.bnfa.fr/livre?biblionumber=67531 ↩︎
  2. https://www.premiere.fr/Cinema/Terminator-l-histoire-secrete-de-la-naissance-d-une-saga-culte ↩︎
  3. https://www.futura-sciences.com/sciences/actualites/energie-nucleaire-soif-energie-microsoft-fait-renaitre-centrale-nucleaire-three-miles-island-connu-accident-il-y-35-ans-116321/ ↩︎
  4. https://www.presse-citron.net/le-parrain-de-lia-remporte-le-prix-nobel-mais-regrette-ses-travaux/ ↩︎