• 0 Votes
    1 Messages
    21 Vues

    Alors que les entreprises d’IA génératives donnent de moins en moins d’information sur l’impact environnemental de leurs modèles, Mistral a travaillé avec l’agence Carbone 4 et l’ADEME sur celui de son modèle Large 2. L’entreprise explique notamment que l’entrainement de ce modèle a émis l’équivalent de 20 400 tonnes de CO₂.

    Il est difficile de connaître l’impact environnemental des modèles de langage puisque jusque-là, les entreprises qui les créent étaient peu bavardes sur le sujet. Les chercheuses de Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont bien tenté de le mesurer, mais elles déploraient, en septembre 2024, qu’ « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA ».

    Dans un article mis en ligne en juin dernier sur la plateforme de preprints arXiv, Sasha Luccioni, avec Boris Gamazaychikov de Salesforce, Theo Alves da Costa de Ekimetrics et Emma Strubel de l’Université Carnegie Mellon, déploraient encore une « désinformation par omission » sur le sujet.

    Ils écrivaient que « la tendance actuelle à la réduction de la transparence concernant l’impact environnemental de l’IA contribue à la désinformation et entrave la prise de décisions éclairées à tous les niveaux, des chercheurs et développeurs individuels aux organisations et décideurs politiques ». Ils ajoutaient que « cette baisse de transparence est particulièrement préoccupante compte tenu de l’impact environnemental croissant de l’IA dans un contexte de préoccupations climatiques mondiales et de limites planétaires imminentes ».

    Dans cet article, ils expliquaient que « les données de mai 2025 indiquent que parmi les 20 modèles les plus utilisés, un seul (Meta Llama 3.3 70B) a directement publié des données environnementales et trois (DeepSeek R1, DeepSeek V3, Mistral Nemo) les ont publiées indirectement (en partageant des données de calcul telles que le type de GPU et la durée de formation, ainsi qu’en publiant les poids de leurs modèles afin de permettre une analyse de l’efficacité) ».

    Mistral ouvre le capot de Large 2

    En cette mi-juillet, Mistral ouvre (un peu) le capot de son modèle Large 2 concernant son impact environnemental. Dans un billet de blog, l’entreprise explique avoir travaillé avec l’agence Carbone 4 et l’ADEME sur « l’analyse du cycle de vie d’un modèle d’IA ». Sans donner les chiffres bruts ni publier, à ce stade, l’étude qu’elle a faite, l’entreprise livre divers chiffres sur la consommation de son modèle et assure que son étude a été examinée par deux autres agences (Resilio et hubblo). Elle ajoute que cette étude suit le référentiel général pour l’IA frugale développé par l’AFNOR et est conforme aux normes internationales, notamment la norme Green House Gas (GHG) Protocol Product Standard et la norme ISO 14040/44.

    Ainsi, elle confirme d’abord que l’entrainement et l’inférence (qu’elle mélange dans l’infographie ci-dessous) sont les parties qui émettent le plus d’émissions de gaz à effet de serre (85,5 %) pour le modèle Large 2 de Mistral.

    Mistral résume ses conclusions dans une infographie

    Néanmoins, concernant ce point, l’entreprise rappelle que la fabrication et la gestion de la fin de vie du matériel utilisé ne sont pas à négliger puisqu’elles représentent 11 % des émissions du modèle.

    L’entreprise rappelle que la localisation des datacenters est un facteur clé de son impact environnemental puisque de celle-ci va dépendre de la nature de l’énergie qu’ils vont dépenser. Ainsi, en entrainant son modèle en France, avec de l’énergie provenant notamment de centrales nucléaires et un climat encore relativement tempéré, Mistral émet moins de CO2 et consomme moins d’eau que dans beaucoup d’autres régions du monde.

    20 400 tonnes de CO₂ et 281 000 m³ d’eau

    L’entreprise donne des chiffres plus précis sur l’impact environnemental de l’entrainement de son modèle Large 2. Ainsi, elle explique qu’en janvier 2025, après 18 mois d’utilisation, Large 2 a émis l’équivalent de 20 400 tonnes de CO₂ (tCO₂e), consommé 281 000 m³ d’eau et l’équivalent de 660 kg d’antimoine en ressources matérielles (660 kg sb eq, une unité de mesure de la consommation de ressources matérielles qui se base sur la consommation de l’élément chimique antimoine, sb).

    Mistral précise, concernant l’inférence, qu’une réponse de son assistant « Le Chat » utilisant ce modèle avec 400 tokens consomme l’équivalent de 1,14 g de CO₂, 45 mL d’eau et l’équivalent de 0,16 mg d’antimoine. Elle qualifie ces impacts de l’inférence de « marginaux ».

    Mistral précise que « ces chiffres reflètent l’ampleur des calculs impliqués dans l’IA générique, qui nécessite de nombreux processeurs graphiques, souvent dans des régions où l’électricité est très polluante et où il y a parfois des problèmes d’approvisionnement en eau ». Elle ajoute qu’ « ils incluent également les « émissions en amont », c’est-à-dire les impacts liés à la fabrication des serveurs, par exemple, et pas seulement à la consommation d’énergie ».

    Dans leur article de juin, Sasha Luccioni et ses collègues rappelaient que Google avait estimé en octobre 2024 [PDF] que l’entrainement de sa famille de modèles Gemma avait consommé l’équivalent de 1 247,61 tonnes CO2 et que, de son côté, Meta avait estimé la consommation de l’entrainement de sa famille Llama 3 à l’équivalent de 11 390 tonnes de CO2.

    Plaidoyer pour une transparence accrue dans le milieu

    « Notre étude montre également une forte corrélation entre la taille d’un modèle et son empreinte », explique Mistral. L’entreprise précise que « les benchmarks ont montré que les impacts sont à peu près proportionnels à la taille du modèle : un modèle 10 fois plus grand générera des impacts d’un ordre de grandeur supérieur à ceux d’un modèle plus petit pour la même quantité de jetons générés. Cela souligne l’importance de choisir le bon modèle pour le bon cas d’utilisation ».

    Elle ajoute que cette étude est « une première approximation compte tenu de la difficulté à effectuer des calculs précis dans le cadre d’un tel exercice en l’absence de normes relatives à la responsabilité environnementale des environnements LLM et de facteurs d’impact accessibles au public ». Elle fait remarquer, par exemple, qu’ « aucun inventaire fiable du cycle de vie des GPU n’a encore été réalisé ». Ainsi leurs impacts intrinsèques « ont dû être estimés, mais ils représentent une part importante des impacts totaux ».

    Mistral propose que les futurs audits sur le sujet dans le secteur prennent exemple sur son étude qui a « utilisé une approche basée sur la localisation des émissions liées à l’électricité et à inclure tous les impacts significatifs en amont, c’est-à-dire non seulement ceux liés à la consommation électrique des GPU, mais aussi toutes les autres consommations électriques (CPU, dispositifs de refroidissement, etc.) et la fabrication du matériel ».

    L’entreprise s’engage à mettre à jour ses rapports sur l’impact environnemental et à participer aux discussions sur des normes industrielles internationales sur le sujet, plaidant pour une plus grande transparence « tout au long de la chaine de production de l’IA ». Elle ajoute qu’elle va partager les résultats sur la base de données « Base Empreinte » de l’ADEME « établissant une nouvelle norme de référence pour la transparence dans le secteur de l’IA ». On attend avec impatience la publication de ces données dans cette base pour que la transparence soit encore un peu plus complète.

    Source : next.ink

  • 2 Votes
    1 Messages
    31 Vues

    Si des études scientifiques s’y attellent, les effets de l’explosion du secteur de l’intelligence artificielle sur l’environnement restent très peu discutés dans l’espace public, selon un rapport de Sopra Steria.

    Depuis l’été 2022, l’intelligence artificielle est dans toutes les discussions. Impacts économiques, politiques, médiatiques, potentielle bulle financière, même, tous ses effets sont décortiqués à l’exception d’un, et non des moindres : celui que le secteur a sur l’environnement.

    Entre janvier 2024 et avril 2025, moins de 1 % des 802 465 publications X et LinkedIn liées à l’IA et analysées par Opsci.ai évoquaient par exemple les effets de l’intelligence artificielle sur l’écosystème planétaire. Menée avec Opsci.ai, une récente étude de Sopra Steria sur le brouillard informationnel qui obscurcit les liens entre IA et environnement constate que le climat n’arrive qu’en huitième position des préoccupations des 100 leaders de l’IA listés par le Time Magazine, loin derrière les débats autour des modèles ou encore de l’actualité du secteur.

    Le sujet est pourtant d’importance : si le rôle de l’humanité dans le réchauffement climatique fait consensus dans la communauté scientifique depuis plus de 15 ans, 33 % de la population française considère en 2024 que le réchauffement climatique n’est qu’une hypothèse sur laquelle les scientifiques ne sont pas tous d’accord. Et alors qu’une soixantaine de scientifiques du GIEC annonçaient mi-juin que le maintien du réchauffement climatique sous les 1,5 °C de plus qu’avant l’ère pré-industrielle était désormais impossible, 29 % de la population mondiale doute de ce consensus.

    Sur le rôle spécifique de l’IA dans le domaine, les calculs sont complexes, mais les premières données scientifiques sont claires : recourir à des modèles de langage généralistes est beaucoup plus consommateur que de se tourner vers de plus petits modèles – des besoins en énergie qui, le plus souvent, sont synonymes d’accroissement significatif de multiples impacts environnementaux, à commencer par les émissions carbone.

    Relative focalisation sur la question énergétique

    Du côté des personnes clairement intéressées par la lutte contre les bouleversements climatiques, l’IA n’occupe que 2,85 % des discussions, constate Sopra Steria après analyse de 314 419 messages issus d’un panel LinkedIn dédié. Dans ces cas là, elle est principalement présentée comme une menace en termes d’énergie - un enjeu compréhensible, dans la mesure où le patron d’OpenAI lui-même suggère qu’à terme, « une fraction significative de l’énergie sur Terre devrait être consacrée à l’exécution de calculs d’IA ».

    Article complet : next.ink

  • 3 Votes
    7 Messages
    219 Vues

    La partie Alcoolisme a été placée dans un topic séparé: https://planete-warez.net/topic/7235/alcolisme/

  • 4 Votes
    4 Messages
    95 Vues

    Je ne vois pas le rapport entre le titre de ce post et le contenu.
    L’IA n’a en rien exposé les données de millions de candidats.
    La société à qui McD a confié son questionnaire de recrutement a exposé les données de millions de candidats par son incompétence notoire, qui n’a strictement rien à voir avec de l’IA.

    Si au moins c’était le bot qui avait dévoilé le lien de l’interface d’admin et/ou le mot de passe par défaut j’aurais pu comprendre, mais non, en fait rien à voir.

  • 2 Votes
    2 Messages
    110 Vues

    Putain ! Manquait plus que ça. On me fait un coup pareil, mon héritage par direct à l’I.A.

  • 1 Votes
    3 Messages
    124 Vues

    Exemple typique de ce dont je parle ci-dessus:

    a52be88a-7196-445a-ad4f-2777f5141b46-image.png

    Trouvé sur Ars Technica

    Il est tellement facile de demander à une I.A. sur un sujet quelconque et d’obtenir une réponse également quelconque.

  • 3 Votes
    7 Messages
    215 Vues

    N’oubliez pas que le documentaire est diffusé ce soir sur France 2.

  • 7 Votes
    4 Messages
    139 Vues

    Il y a le côté consommateur en énergie et en composants qui est à mettre en exergue (un peu fait dans cette vidéo).

    Mais en gros :
    L’ia est un outil… Comme un marteau, il ne faut pas en avoir peur.
    C’est surtout comment est utilisé cet outil qu’il faut surveiller.
    Et là, il est actuellement utilisé par les plus gros moins nombreux pour faire chi** (pas de mots poli) les plus petits mais nettement plus nombreux.
    Merci le spam, la surveillance et les missiles qu’on reçoit dans la yeule.

  • 2 Votes
    2 Messages
    93 Vues

    Dans un an, après moult réunions, ils auront décidé du sigle officiel du bureau de l’IA, et pourront enfin commencer à se pencher sur le sujet. Confiants, en opinant du chef et tous sourires, ils se diront alors qu’ils n’étaient pas trop de trois.

  • 1 Votes
    1 Messages
    79 Vues

    Le Computex est le théâtre d’une multitude d’annonces autour de l’IA, aussi bien chez AMD, Intel, Microsoft que NVIDIA. Mais ce ne sont pas les seuls et la Fondation Raspberry Pi ne compte pas rester sur le bord de la route. Elle présente un NPU externe à ajouter à son Raspberry Pi 5 pour 70 dollars.

    13 TOPS pour le Raspberry Pi 5

    C’est via un communiqué sur son site que la fondation annonce l’arrivée d’un module AI pour le Raspberry Pi 5. Ce « NPU externe » propose, selon le fabricant, des performances jusqu’à 13 TOPS pour de l’intelligence artificielle. Il est construit à partir de la puce Hailo-8L, dont la fiche technique se trouve par ici.

    On est loin des 48 et 50 TOPS des derniers processeurs Intel et AMD. Mais la puce est au niveau des 11,5 TOPS du NPU de Meteor Lake d’Intel, des 16 TOPS des Ryzen 8040 et des 11 TOPS de la puce M1 d’Apple (15,8 TOPS pour M2).

    78,60 euros pour le M.2 HAT+ avec la puce Hailo-8L

    Le kit comprend donc une carte M.2 HAT+ (avec un connecteur M.2 key M) à installer sur le Raspberry Pi 5, ainsi que la carte M.2 (format 2242) équipée de la puce Hailo-8L.

    Le prix annoncé est de 70 dollars et on trouve le kit à 78,60 euros chez Kubii. Chez le même revendeur, le M.2 HAT+ seul est vendu 13,5 euros. Cela donne environ 65 euros pour la carte M.2 avec le NPU si l’on tente de séparer les deux.

    Passer son Raspberry Pi 5 en PCIe 3.0… à vos risques et périls ?

    Le Raspberry Pi 5 propose pour rappel une ligne PCIe 2.0, tandis que la puce de Hailo utilise jusqu’à deux lignes PCIe 3.0. Soit un rapport de 1 à 4 ? En théorie, oui. En pratique, c’est plus compliqué…

    Dans son communiqué, Raspberry Pi indique que son kit AI fonctionne avec une « connexion PCIe 3.0 x1 à 8 Gb/s ». Mais comment donc, alors que les caractéristiques techniques du mini-PC indiquent une seule ligne PCIe 2.0 ?

    Comme l’explique Jeff Geerling sur son blog, on peut passer du PCIe 2.0 au 3.0 sur le Raspberry Pi 5 avec une petite modification dans un fichier de configuration. D’ailleurs, cette étape est décrite dans le guide de démarrage du kit AI : « Suivez les instructions pour activer le PCIe Gen 3.0. Cette étape est facultative, mais fortement recommandée pour obtenir les meilleures performances ».

    Mais alors pourquoi ne pas livrer directement le Raspberry Pi 5 en PCIe 3.0 ? Sur cette autre page, il est indiqué que « le Raspberry Pi 5 n’est pas certifié » pour les débits du PCIe 3.0 et que les connexions « peuvent être instables ».

    Dans tous les cas, le puce Hailo exploitant deux lignes, elle peut se retrouver bridée par l’interface avec le Raspberry Pi, limitée à une seule ligne. De plus, le kit AI utilisant la seule ligne PCIe externe disponible, il ne sera plus possible d’utiliser un SSD M.2 par exemple.

    Une intégration logicielle déjà prête

    Quoi qu’il en soit, ce kit « vous permet de créer rapidement des applications complexes de vision par IA, fonctionnant en temps réel, avec de faibles latences et besoins en énergie », explique le fabricant. Un atout de taille est d’ailleurs « l’intégration complète avec le sous-système de gestion des images du Raspberry Pi ».

    « Les étapes d’installation du logiciel sont très simples : installez quelques paquets via apt, redémarrez », et c’est tout. Vous pouvez alors « essayer certaines démos d’IA en quelques minutes ». Hailo propose aussi de la documentation et des exemples d’applications sur GitHub.

    La fondation ajoute que ce kit est compatible avec les caméras officielles, mais aussi avec celles de ces partenaires. Il est également possible d’utiliser le NPU sur des vidéos déjà enregistrées.

    Plusieurs vidéos de présentation ont été mises en ligne :

    Source : next.ink

  • 3 Votes
    6 Messages
    167 Vues

    @Indigostar a dit dans D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA :

    Je reste donc perplexe, surtout que l’évolution de l’IA tend vers la capacité de se mettre à jour elle-même et d’ajuster ses algorithmes.

    On devrait lui confier la gestion d’un pays imaginaire histoire de voir. :ahah:

  • 1 Votes
    8 Messages
    217 Vues

    @mekas a dit dans IA : Le chatbot de DPD insulte un client à la suite d'une mise à jour :

    Pour l’instant égalité ! Mais on voit bien que ça peut dégénérer à tout instant ! lol

    Mais non… Il y en a qui me cherchent, c’est de bonne guerre…

  • 0 Votes
    1 Messages
    57 Vues

    AIformé

    illustration d'une personne manipulée comme une marionnette par une IA

    Au début d’une année 2024 riche en échéances politiques, OpenAI explique les mesures qu’elle prévoit pour éviter l’usage de ses technologies à des fins de désinformation. Un enjeu urgent, alors que des deepfakes sont déjà utilisés un peu partout sur le globe pour tromper les électeurs.

    L’année 2024 sera politiquement intense. De la Russie à l’Inde en passant par Taiwan, les États-Unis ou l’Afrique du Sud, les habitants d’au moins 64 pays, dans lesquels vit la moitié de la population planétaire, seront invités à aller voter au fil de l’année dans des élections à forts enjeux.

    À ce décompte s’ajoutent les 27 États européens, dont les populations devront se rendre aux urnes en juin pour l’élection de leurs représentants parlementaires au sein de l’Union. Dans un tel contexte, l’enjeu que l’explosion des outils d’intelligence artificielle générative pose en matière de désinformation est réel – et la plupart des experts du sujet, franchement inquiets.

    Open AI a donc publié le 15 janvier un article dans lequel son approche du phénomène est détaillée, tandis qu’au Forum économique mondial en cours à Davos, son patron Sam Altman a fait partie des multiples dirigeants de la tech à évoquer le sujet.

    | Intelligence artificielle, « fake news » et recommandations pour limiter les risques | ChatGPT, Bard et les autres, agents de désinformation massive ? | Un an après l’adoption du DSA, les acteurs de la lutte contre la désinformation entre espoir et inquiétudes | Rumman Chowdhury : « il faut investir autant dans la protection des utilisateurs que dans le développement de l’IA »

    L’entreprise met l’accent sur l’offre d’informations vérifiées sur les élections, l’ « application de politiques mesurées » et l’amélioration de la transparence – objectif qui ne vise pas à remettre en cause le contrôle qu’OpenAI maintient sur ses technologies, mais plutôt à rendre évident qu’une image a été générée par DALL-E.

    Interdiction de créer des applications de ChatGPT pour les campagnes politiques

    La société déclare avoir mis en place une équipe transversale dédiée au travail sur ces questions politiques. Pour la faire fonctionner, OpenAI déclare se reposer sur l’expertise de ses équipes chargées de la sécurité des systèmes, du renseignement sur les menaces (threat intelligence), de ses équipes juridiques, d’ingénieurs et de ses équipes politiques.

    En termes de prévention des abus (et notamment de la création de deepfakes), OpenAI déclare utiliser les mêmes pratiques que dans des contextes non politiques (du red teaming, la sollicitation des retours d’usagers et d’auditeurs externes et l’usage de techniques de modération des risques) avant de les rendre accessibles au public.

    En pratique, elle indique que Dall-E a des règles claires qui l’empêchent de re-créer des visages réels – affirmation que des utilisateurs de Reddit s’emploient régulièrement à contredire dans le domaine cinématographique.

    Open AI explique par ailleurs adapter ses conditions d’utilisations au fil de l’eau. Parmi ces règles, elle empêche d’ailleurs d’utiliser ChatGPT et son API pour créer des chatbots se faisant passer pour des personnes réelles.

    Tirant leçon des multiples scandales de désinformation qui ont émaillé les dernières années, l’entreprise interdit de manière préventive la construction d’application dédiées au lobbying et aux campagnes politiques « en attendant d’en savoir plus » sur l’efficacité « de nos outils en matière de persuasion personnalisée ». Elle ne permet pas non plus la création d’applications visant à détourner des personnes du processus démocratiques.

    OpenAI ne précise pas les outils qui lui permettent de repérer et modérer les éventuels contournements de ses décisions. Elle indique en revanche que dans « ses nouveaux GPT, les utilisateurs peuvent nous signaler de potentielles violations ».

    Transparence sur les générations d’image et informations qualifiées sur les élections

    Pour faciliter le traçage et « améliorer la transparence sur la provenance des images », OpenAI indique s’apprêter à déployer le système de certificats numériques de la Coalition pour la preuve et l’authenticité des contenus. Celui-ci permet d’encoder des détails sur l’origine des images grâce à la cryptographie, donc de les estampiller « image générée par DALL-E ».

    L’entreprise indique par ailleurs avoir travaillé à une plus grande intégration des sources d’information dans les réponses de ChatGPT. Les utilisateurs devraient donc avoir bientôt accès à des liens renvoyant vers les informations fournies – un progrès pour vérifier les informations produites, mais aussi un pas de plus vers la transformation du chatbot en équivalent de moteur de recherche.

    Enfin, aux États-Unis, l’entreprise indique travailler avec l’Association nationale des Secrétaires d’État (NASS) pour fournir une information non partisane sur les élections. ChatGPT devrait donc rediriger les internautes vers le site CanIVote.org pour que ceux-ci trouvent toutes les informations nécessaires à leur processus électoral. Et de déclarer que « les leçons tirées de ce travail alimenteront notre travail dans d’autres pays et régions ».

    | Les moteurs de recherche accentuent la désinformation Au Bangladesh et au Royaume-Uni, l’IA sert déjà la désinformation politique

    À la mi-décembre 2023, le Financial Times rapportait comment, au Bangladesh, des services de deepfakes accessibles pour 24$ par mois étaient déjà utilisés pour créer des divisions ou soumettre des informations trompeuses aux électeurs.

    Les partis et groupes en faveur du gouvernement ont largement utilisé ces outils pour créer des contenus télévisés, ou des imitations des membres de l’opposition dans lesquels ceux-ci semblaient hésitants à soutenir les gazaouis, une position inflammable dans un pays majoritairement musulman où l’opinion public soutient largement les Palestiniens (la vidéo a ensuite été supprimée).

    Le 7 janvier, la Première ministre Sheikh Hasina a remporté un cinquième mandat, après un scrutin boycotté par le principal parti d’opposition, qui évoque un « simulacre d’élection ».

    Au Royaume-Uni, un travail mené par l’entreprise de communications Fenimore Harper a relevé l’existence de plus d’une centaine de deepfakes du premier ministre Rishi Sunak diffusés sous forme de publicités sur Facebook. Ces publications auraient atteint quelque 400 000 personnes avant que Meta ne les fasse supprimer.

    | Désinformation : de l’IA pour faire croire à une attaque du Pentagone
  • 2 Votes
    1 Messages
    65 Vues

    Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).

    Source : [next.ink](Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).)

  • 1 Votes
    4 Messages
    159 Vues

    @Raccoon faudra voir

  • 0 Votes
    1 Messages
    66 Vues

    Face à la montée en puissance des cyberattaques, Microsoft mise sur plus d’automatisation pour intercepter plus d’intrusion et réagir plus rapidement en cas de faille de sécurité. Il plaide aussi pour une coopération internationale renforcée.

    Microsoft a connu depuis un an une multitude de failles de sécurité touchant son service cloud Azure, provoquant des critiques de la part de l’industrie sur ses pratiques en matière de transparence et remédiation. Le géant de Redmond semble avoir entendu ces plaintes et a annoncé une initiative baptisée “Secure Future” le 2 novembre 2023 qui vise à améliorer les choses.

    Diviser par deux le temps de réaction face à une vulnérabilité sur le cloud

    Microsoft ne le met pas particulièrement en avant dans sa communication, préférant parler de ses projets à base d’intelligence artificielle, mais il dit vouloir “diviser par deux le temps nécessaire pour corriger une vulnérabilité cloud” et compte pour cela sur des rapports plus transparents et plus cohérents concernant les cyberattaques de la part de la communauté tech.

    Il va par ailleurs migrer vers un nouveau système de gestion des clés grand public et d’entreprise entièrement automatisé, doté d’une architecture conçue pour garantir que les clés restent inaccessibles même lorsque les processus sous-jacents sont compromis. Il s’appuiera aussi sur son architecture informatique confidentielle et utilisera des modules de sécurité matériels (HSM) qui stockent et protègent les clés dans le matériel et chiffrent les données au repos, en transit et pendant le calcul.

    Exploiter le potentiel de l’IA

    Comme évoqué plus haut, Microsoft souligne largement le potentiel de l’IA pour la sécurité. Il va étendre à ses clients les fonctionnalités d’automatisation qu’il utilise déjà au sein du Microsoft Threat Intelligence Center (MSTIC) et du Microsoft Threat Analysis Center (MTAC), ses divisions dédiées à la surveillance et à l’analyse des cybermenaces. Ces dernières suivent quotidiennement plus de 65 000 milliards de signaux et utilisent des outils d’IA pour les analyser en continu afin d’identifier les vulnérabilités et d’anticiper les cybermenaces. Cela ne se fera évidemment pas gratuitement.

    Microsoft mise par ailleurs sur son “Microsoft Security Copilot”, un assistant destiné aux équipes spécialisées dans la cybersécurité dévoilé en mars dernier. Il permettrait de réagir plus rapidement en cas d’incidents, aussi bien pour en identifier l’origine que pour prendre les bonnes actions correctives.

    Des avancées techniques

    Microsoft travaille sur de nouvelles avancées en matière d’ingénierie logicielle fondamentale. L’entreprise assure qu’elle appliquera des processus systématiques de protection contre les cybermenaces lors du développement, des tests, du déploiement et de l’exploitation de tous les systèmes et services du groupe. De plus, elle utilisera GitHub Copilot pour auditer et tester le code source sur des scénarios de menaces avancés.

    L’entreprise prévoit également le renforcement de la protection de l’identité contre les cyberattaques sophistiquées, rappelant que les menaces basées sur l’identité ont été multipliées par dix au cours de l’année écoulée. Pour ce faire, Microsoft explique qu’il appliquera un processus unifié qui vérifiera les identités et les droits d’accès de ses utilisateurs, appareils et services sur tous ses produits et plateformes.

    Microsoft appelle les états à s’engager plus vigoureusement

    Outre ces actions, Microsoft publie un plaidoyer qui appelle à une collaboration internationale plus poussée en matière de lutte contre les cyberattaques comme l’affirme le groupe dans son communiqué :

    Tous les États devraient s’engager publiquement à ne pas créer de vulnérabilités logicielles dans les réseaux des fournisseurs d’infrastructures critiques, tels que les fournisseurs d’énergie, d’eau, de nourriture, de soins médicaux ou autres"

    Il plaide par ailleurs pour un engagement plus vigoureux et affiché des nations qui amènera les pays qui franchissent ces lignes rouges à rendre davantage compte de leurs actes.

    – Source

    https://www.usine-digitale.fr/article/microsoft-veut-diviser-par-deux-son-temps-de-reaction-face-aux-vulnerabilites-cloud.N2190833

  • 2 Votes
    9 Messages
    290 Vues

    @Violence tu sais quoi, j’avais un doute avant même de citer Westworld (qui dépote quand même) ^^, je me suis dit " Ça doit être Mrs Davis mais bon étant donné que même Westworld est une pépite, je tente ma chance" 😂 .