• 0 Votes
    3 Messages
    48 Vues

    Ce n’est que le début @michmich

  • 1 Votes
    1 Messages
    26 Vues

    Microsoft vient de lever le voile sur un truc assez cool qui s’appelle Project IRE !

    C’est un agent IA qui analyse et détecte les malwares en parfait autonomie. Plus besoin d’un expert humain pour décortiquer chaque fichier suspect, c’est l’IA qui s’en charge et elle le fait plutôt bien avec 98% de précision et seulement 2% de faux positifs sur un dataset de drivers Windows.

    C’est du lourd car au lieu de se contenter d’une simple analyse par signatures comme les antivirus classiques, Project IRE fait de la vraie reverse engineering. L’agent décompile le code, reconstruit le graphe de flux de contrôle (control flow graph pour les intimes), analyse chaque fonction et génère un rapport détaillé expliquant pourquoi le fichier est malveillant ou non.

    Pour faire tout ça, Microsoft s’appuie sur Azure AI Foundry et des outils de reverse engineering bien connus comme angr et Ghidra. Le processus commence ainsi par un triage automatique pour identifier le type de fichier et sa structure. Ensuite, l’IA reconstruit comment le programme s’exécute, analyse chaque fonction avec des modèles de langage spécialisés et compile tout dans une “chaîne de preuves” (chain of evidence).

    Cette transparence est cruciale car elle permet aux équipes de sécurité de vérifier le raisonnement de l’IA et comprendre comment elle est arrivée à ses conclusions. Et surtout, les tests en conditions réelles sont prometteurs car sur 4000 fichiers que les systèmes automatisés de Microsoft n’arrivaient pas à classifier, Project IRE a correctement identifié 89% des fichiers malveillants avec seulement 4% de faux positifs.

    Le seul bémol c’est le taux de détection global qui n’est que de 26%, ce qui signifie que l’IA rate encore pas mal de malwares. Mais comme le soulignent les chercheurs, cette combinaison de haute précision et faible taux d’erreur montre un vrai potentiel pour un déploiement futur.

    Mike Walker, Research Manager chez Microsoft, raconte que dans plusieurs cas où l’IA et l’humain n’étaient pas d’accord, c’est l’IA qui avait raison. Ça montre bien que les forces complémentaires de l’humain et de l’IA peuvent vraiment améliorer la protection. Pour valider ses trouvailles, Project IRE utilise un outil de validation qui vérifie les affirmations du rapport contre la chaîne de preuves.

    Cet outil s’appuie sur des déclarations d’experts en reverse engineering de l’équipe Project IRE et en combinant ces preuves et son modèle interne, le système produit un rapport final et classe le fichier comme malveillant ou bénin. L’objectif à terme est ambitieux puisqu’il s’agit de détecter automatiquement de nouveaux malwares directement en mémoire, à grande échelle.

    Ce serait vraiment cool d’identifier des menaces avancées (APT) sans qu’un humain ait besoin d’intervenir. D’ailleurs, Project IRE a déjà réussi à créer le premier cas de conviction pour un malware APT chez Microsoft, sans aide humaine.

    Pour l’instant, ça reste un prototype qui sera intégré plus tard dans Microsoft Defender comme outil d’analyse binaire mais les implications sont déjà énormes car les malwares deviennent de plus en plus sophistiqués et nombreux, et avoir une IA capable de les analyser automatiquement pourrait changer pas mal la lutte contre ces saloperies.

    Alors oui, on n’est pas encore au point où l’IA remplace complètement les experts en sécurité mais on s’en rapproche et vu la pénurie de talents en cybersécurité et l’explosion du nombre de menaces, c’est plutôt une bonne nouvelle.

    – Sources :

    https://www.helpnetsecurity.com/2025/08/05/project-ire-microsoft-autonomous-malware-detection-ai-agent/

    https://korben.info/project-ire-agent-microsoft-detecte-malwares.html

  • 2 Votes
    5 Messages
    148 Vues

    @Aurel Passe à Librewolf si tu veux garder une base FF stable, solide et maintenu correctement.

    Mais ne confonds pas le type de mise a jour : fonctionnalité, sécurité, bugfix, etc .

    Ce n’est pas la même chose…

    C’est juste qu’ils englobent tout les types de correctif en une mise à jour.

    Ce n’est pas un prétexte de sécurité pour incorporer de l’IA loin de là.

    Plus besoin de cela, l’IA à terme sera partout qu’on le veuille ou non.

  • 3 Votes
    1 Messages
    36 Vues

    Perplexity AI s’est fait épingler par Cloudflare, pris la main dans le sac à contourner allègrement les règles du web avec leurs bots masqués. Et le plus fort dans tout ça c’est qu’ils nient tout en bloc.

    L’affaire a éclaté quand Cloudflare, qui s’occupe d’un cinquième du trafic internet mondial, a décidé de fouiner un peu dans les pratiques suspectes de certains bots IA. Et le verdict est tombé assez rapidement : Perplexity a recours à des crawlers furtifs qui se font passer pour de véritables navigateurs afin de s’emparer du contenu des sites web, même lorsque les propriétaires ont dit non par le biais du fameux fichier robots.txt.

    Ce qui rend cette histoire encore plus énervante, c’est la technique utilisée. Plutôt que d’employer leur user agent officiel “PerplexityBot”, les bots se déguisent en Chrome sur Windows 10.

    Cloudflare a mené ses propres expériences pour prouver la manœuvre. Ils ont conçu un site web accessible uniquement aux vrais user agents Chrome et Firefox, tout en bloquant explicitement PerplexityBot via le robots.txt. Les bots officiels de Perplexity sont bien arrêtés, mais étrangement, quand un utilisateur fait une requête sur Perplexity.ai, le contenu est tout de même récupéré.

    Comment ? Et bien grâce à des crawlers masqués, utilisant des ASN (Autonomous System Numbers) différents et des user agents trafiqués.

    La défense de Perplexity ? Un véritable morceau de bravoure. Leur PDG, Aravind Srinivas, affirme qu’ils ne contournent pas le robots.txt, mais qu’ils recourent à des “fournisseurs tiers” pour le crawling. En gros, “C’est panoupanous, c’est les autres.” Sauf qu’il ne veut pas révéler l’identité de ces mystérieux partenaires, prétextant un accord de confidentialité. Pratique, non ?

    Le problème dépasse largement le cadre de Perplexity car Wired et le développeur Robb Knight avaient déjà mené l’enquête en juin 2024 et découvert des indices similaires. Amazon Web Services a même lancé une investigation pour vérifier si Perplexity bafoue leurs conditions d’utilisation. Et en juin 2025, la BBC a menacé de poursuites judiciaires, exigeant que Perplexity cesse de scraper leur contenu et efface toutes les données collectées.

    Pour situer l’ampleur du phénomène, Cloudflare a déterminé que les bots IA représentent désormais 5% de tout le trafic bot identifié. OpenAI avec GPTBot est en tête, suivi de… PerplexityBot en neuvième position. Mais ça, c’est uniquement pour ceux qui jouent cartes sur table. Combien passent sous le radar avec des identités truquées ?

    La technique de contournement est d’ailleurs assez rusée car quand vous demandez à Perplexity d’explorer une URL spécifique, leur système prétend agir “au nom de l’utilisateur”, comme si vous copiez-collez vous-même le contenu. Sauf qu’en réalité, c’est un bot automatisé qui s’en charge, en utilisant des headless browsers pour paraître plus légitime.

    TollBit, une startup spécialisée dans les accords de licence IA, a révélé que plus de 50 sites web choisissent délibérément d’ignorer le protocole robots.txt. Et surprise, selon une enquête de Business Insider, OpenAI et Anthropic (les créateurs de Claude) figureraient parmi eux. Mais au moins, ils ne se cachent pas derrière des user agents falsifiés.

    Ce qui m’agace vraiment dans cette histoire, c’est l’hypocrisie ambiante. D’un côté, ces entreprises IA nous vendent du rêve sur l’éthique et la transparence et de l’autre, elles emploient des méthodes dignes de hackers des années 2000 pour aspirer du contenu sans permission. Et pendant ce temps, les créateurs de contenu se retrouvent pillés sans compensation.

    Cloudflare propose bien quelques solutions pour se protéger, notamment leur outil AI Bots qui permet de gérer finement l’accès des différents crawlers IA. Ils ont aussi mis au point un “Bot Score” qui évalue la légitimité du trafic sur une échelle de 1 à 99. Plus le score est bas, plus y’a de chances que ce soit un bot. Les crawlers masqués de Perplexity obtiennent généralement un score en dessous de 30.

    Donc, si vous gérez un site web, je vous recommande vivement de scruter vos logs. Repérez les schémas suspects du genre une même IP qui enchaîne les requêtes, des user agents identiques mais aux comportements différents, ou des accès à des URLs jamais publiées.

    Quoiqu’il en soit, si même les plus grandes entreprises IA ne respectent pas des règles basiques comme le robots.txt, qu’est-ce qui les empêchera demain de franchir d’autres limites ?

    C’est bien dommage, je trouve…

    –Sources :

    https://blog.cloudflare.com/perplexity-is-using-stealth-undeclared-crawlers-to-evade-website-no-crawl-directives/)

    https://korben.info/perplexity-ai-stealth-crawlers-cloudflare-expose.html

  • 3 Votes
    1 Messages
    28 Vues

    Et voilà encore une histoire à base d’Intelligence Artificielle qui va vous retourner le cerveau. Une équipe de chercheurs a lâché une IA sur des données de plasma poussiéreux, et elle a découvert des trucs que les physiciens avaient loupé pendant des années. Le plus foufou c’est qu’elle a même été capable de corriger des théories établies.

    L’équipe de l’université Emory à Atlanta a fait quelque chose de complètement différent de ce qu’on voit habituellement avec l’IA. Au lieu de l’utiliser pour prédire des trucs ou nettoyer des données, ils l’ont entraînée à découvrir de nouvelles lois de la physique.

    Pour cela, les chercheurs ont nourri leur réseau de neurones avec des données expérimentales issues d’un état de matière mystérieux appelé plasma poussiéreux. Pour faire simple, c’est un gaz super chaud, chargé électriquement et rempli de minuscules particules de poussière. On trouve ce truc partout dans l’univers, des anneaux de Saturne à la surface de la Lune, en passant par la fumée des incendies de forêt et vos dessous de bras quand vous ne vous lavez pas (non, je déconne).

    Le problème avec ce plasma poussiéreux, c’est qu’il se comporte de manière vraiment bizarre. Les forces entre les particules ne suivent pas les règles habituelles. Une particule peut en attirer une autre, mais cette dernière la repousse en retour. C’est ce qu’on appelle des forces non-réciproques, et ça rend les physiciens complètement dingues depuis des années.

    Pour réaliser cet exploit, l’équipe a construit un système d’imagerie 3D sophistiqué pour observer comment les particules de plastique se déplaçaient dans une chambre remplie de plasma. Ils ont utilisé une feuille laser et une caméra haute vitesse pour capturer des milliers de mouvements de particules minuscules en trois dimensions au fil du temps.

    Ces trajectoires détaillées ont ensuite servi à entraîner un réseau de neurones sur mesure et. contrairement à la plupart des modèles d’IA qui ont besoin d’énormes ensembles de données, le réseau de l’équipe d’Emory a été entraîné sur un petit ensemble de données très riche. Et il a surtout été conçu avec des règles physiques intégrées, comme la prise en compte de la gravité, de la traînée et des forces entre particules.

    Ilya Nemenman, co-auteur senior de l’étude et professeur à l’université, précise que :

    Quand vous explorez quelque chose de nouveau, vous n’avez pas beaucoup de données pour entraîner l’IA. Cela signifiait que nous devions concevoir un réseau de neurones qui pourrait être entraîné avec une petite quantité de données et apprendre quand même quelque chose de nouveau.

    Le réseau de neurones a donc décomposé le mouvement des particules en trois composantes :

    +les effets de vitesse (comme la traînée),

    les forces environnementales (comme la gravité) les forces interparticulaires.

    Cette approche a permis à l’IA d’apprendre des comportements complexes tout en respectant les principes physiques de base.

    Et les résultats sont là !!

    L’IA a découvert des descriptions précises des forces non-réciproques avec une précision de plus de 99%. Elle a ainsi révélé qu’une particule en tête attire celle qui la suit, mais que la particule qui suit repousse celle qui la précède. Ce type d’interaction asymétrique avait été suspecté mais jamais clairement modélisé auparavant.


    – Je l’avoue, ce schéma est hors de ma portée mais je le trouvais cool alors je l’ai mis dans l’article

    Mais attendez, ça devient encore plus intéressant car l’IA a également corrigé certaines hypothèses erronées qui façonnaient la théorie des plasmas depuis des années. Par exemple, on pensait que la charge électrique d’une particule augmentait exactement avec sa taille. Eh bien, c’est faux ! La relation dépend en fait de la densité et de la température du plasma environnant.

    Une autre idée fausse était que la force entre les particules diminuait toujours de manière exponentielle avec la distance, quelle que soit leur taille. L’IA a révélé que cette diminution dépend aussi de la taille des particules, un détail que les scientifiques avaient complètement ignoré jusqu’à présent.

    Et pour moi, le truc le plus impressionnant c’est que ce modèle d’IA a tourné sur un simple ordinateur de bureau. Pas besoin d’un supercalculateur ou d’une ferme de serveurs. Il a produit un cadre universel qui peut maintenant être appliqué à toutes sortes de systèmes à plusieurs particules, des mélanges de peinture aux cellules migrantes dans les organismes vivants.

    Cette recherche démontre que l’IA peut aller bien au-delà du simple traitement de données. Elle peut réellement aider les scientifiques à découvrir les règles cachées qui gouvernent la nature.

    L’étude a été publiée dans la revue Proceedings of the National Academy of Sciences (PNAS) et vous pouvez la consulter ici.

    Les implications de cette découverte sont énormes car non seulement elle ouvre de nouvelles voies pour comprendre les plasmas poussiéreux, mais elle fournit également une méthode pour étudier d’autres systèmes complexes. Les chercheurs espèrent ainsi que leur approche par IA servira de point de départ pour déduire les lois de la dynamique d’une large gamme de systèmes à plusieurs corps.

    L’avenir de la science va être prometteur et passionnant, je le sens !

    – Sources :

    https://interestingengineering.com/innovation/ai-decodes-dusty-plasma-new-forces-physics)

    https://korben.info/decouvre-nouvelles-lois-physique-etudiant-poussiere.html

  • 2 Votes
    10 Messages
    158 Vues

    Je sais que c’est pas un critère de qualité d’une application d’I.A. mais je trouve la mascotte très jolie, qui d’ailleurs me dit quelque chose.

    Pour ce qui est de faire fuir ou détruire ses fleurons économiques, il semblerait que la Suisse soit dorénavant euro-compatible!

    Mais quitter la Suisse pour l’Allemagne je vois pas trop le plus libertaire, la Norvège citée plus haut me parait plus crédible dans ce sens.

  • 0 Votes
    1 Messages
    20 Vues

    Alors que les entreprises d’IA génératives donnent de moins en moins d’information sur l’impact environnemental de leurs modèles, Mistral a travaillé avec l’agence Carbone 4 et l’ADEME sur celui de son modèle Large 2. L’entreprise explique notamment que l’entrainement de ce modèle a émis l’équivalent de 20 400 tonnes de CO₂.

    Il est difficile de connaître l’impact environnemental des modèles de langage puisque jusque-là, les entreprises qui les créent étaient peu bavardes sur le sujet. Les chercheuses de Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont bien tenté de le mesurer, mais elles déploraient, en septembre 2024, qu’ « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA ».

    Dans un article mis en ligne en juin dernier sur la plateforme de preprints arXiv, Sasha Luccioni, avec Boris Gamazaychikov de Salesforce, Theo Alves da Costa de Ekimetrics et Emma Strubel de l’Université Carnegie Mellon, déploraient encore une « désinformation par omission » sur le sujet.

    Ils écrivaient que « la tendance actuelle à la réduction de la transparence concernant l’impact environnemental de l’IA contribue à la désinformation et entrave la prise de décisions éclairées à tous les niveaux, des chercheurs et développeurs individuels aux organisations et décideurs politiques ». Ils ajoutaient que « cette baisse de transparence est particulièrement préoccupante compte tenu de l’impact environnemental croissant de l’IA dans un contexte de préoccupations climatiques mondiales et de limites planétaires imminentes ».

    Dans cet article, ils expliquaient que « les données de mai 2025 indiquent que parmi les 20 modèles les plus utilisés, un seul (Meta Llama 3.3 70B) a directement publié des données environnementales et trois (DeepSeek R1, DeepSeek V3, Mistral Nemo) les ont publiées indirectement (en partageant des données de calcul telles que le type de GPU et la durée de formation, ainsi qu’en publiant les poids de leurs modèles afin de permettre une analyse de l’efficacité) ».

    Mistral ouvre le capot de Large 2

    En cette mi-juillet, Mistral ouvre (un peu) le capot de son modèle Large 2 concernant son impact environnemental. Dans un billet de blog, l’entreprise explique avoir travaillé avec l’agence Carbone 4 et l’ADEME sur « l’analyse du cycle de vie d’un modèle d’IA ». Sans donner les chiffres bruts ni publier, à ce stade, l’étude qu’elle a faite, l’entreprise livre divers chiffres sur la consommation de son modèle et assure que son étude a été examinée par deux autres agences (Resilio et hubblo). Elle ajoute que cette étude suit le référentiel général pour l’IA frugale développé par l’AFNOR et est conforme aux normes internationales, notamment la norme Green House Gas (GHG) Protocol Product Standard et la norme ISO 14040/44.

    Ainsi, elle confirme d’abord que l’entrainement et l’inférence (qu’elle mélange dans l’infographie ci-dessous) sont les parties qui émettent le plus d’émissions de gaz à effet de serre (85,5 %) pour le modèle Large 2 de Mistral.

    Mistral résume ses conclusions dans une infographie

    Néanmoins, concernant ce point, l’entreprise rappelle que la fabrication et la gestion de la fin de vie du matériel utilisé ne sont pas à négliger puisqu’elles représentent 11 % des émissions du modèle.

    L’entreprise rappelle que la localisation des datacenters est un facteur clé de son impact environnemental puisque de celle-ci va dépendre de la nature de l’énergie qu’ils vont dépenser. Ainsi, en entrainant son modèle en France, avec de l’énergie provenant notamment de centrales nucléaires et un climat encore relativement tempéré, Mistral émet moins de CO2 et consomme moins d’eau que dans beaucoup d’autres régions du monde.

    20 400 tonnes de CO₂ et 281 000 m³ d’eau

    L’entreprise donne des chiffres plus précis sur l’impact environnemental de l’entrainement de son modèle Large 2. Ainsi, elle explique qu’en janvier 2025, après 18 mois d’utilisation, Large 2 a émis l’équivalent de 20 400 tonnes de CO₂ (tCO₂e), consommé 281 000 m³ d’eau et l’équivalent de 660 kg d’antimoine en ressources matérielles (660 kg sb eq, une unité de mesure de la consommation de ressources matérielles qui se base sur la consommation de l’élément chimique antimoine, sb).

    Mistral précise, concernant l’inférence, qu’une réponse de son assistant « Le Chat » utilisant ce modèle avec 400 tokens consomme l’équivalent de 1,14 g de CO₂, 45 mL d’eau et l’équivalent de 0,16 mg d’antimoine. Elle qualifie ces impacts de l’inférence de « marginaux ».

    Mistral précise que « ces chiffres reflètent l’ampleur des calculs impliqués dans l’IA générique, qui nécessite de nombreux processeurs graphiques, souvent dans des régions où l’électricité est très polluante et où il y a parfois des problèmes d’approvisionnement en eau ». Elle ajoute qu’ « ils incluent également les « émissions en amont », c’est-à-dire les impacts liés à la fabrication des serveurs, par exemple, et pas seulement à la consommation d’énergie ».

    Dans leur article de juin, Sasha Luccioni et ses collègues rappelaient que Google avait estimé en octobre 2024 [PDF] que l’entrainement de sa famille de modèles Gemma avait consommé l’équivalent de 1 247,61 tonnes CO2 et que, de son côté, Meta avait estimé la consommation de l’entrainement de sa famille Llama 3 à l’équivalent de 11 390 tonnes de CO2.

    Plaidoyer pour une transparence accrue dans le milieu

    « Notre étude montre également une forte corrélation entre la taille d’un modèle et son empreinte », explique Mistral. L’entreprise précise que « les benchmarks ont montré que les impacts sont à peu près proportionnels à la taille du modèle : un modèle 10 fois plus grand générera des impacts d’un ordre de grandeur supérieur à ceux d’un modèle plus petit pour la même quantité de jetons générés. Cela souligne l’importance de choisir le bon modèle pour le bon cas d’utilisation ».

    Elle ajoute que cette étude est « une première approximation compte tenu de la difficulté à effectuer des calculs précis dans le cadre d’un tel exercice en l’absence de normes relatives à la responsabilité environnementale des environnements LLM et de facteurs d’impact accessibles au public ». Elle fait remarquer, par exemple, qu’ « aucun inventaire fiable du cycle de vie des GPU n’a encore été réalisé ». Ainsi leurs impacts intrinsèques « ont dû être estimés, mais ils représentent une part importante des impacts totaux ».

    Mistral propose que les futurs audits sur le sujet dans le secteur prennent exemple sur son étude qui a « utilisé une approche basée sur la localisation des émissions liées à l’électricité et à inclure tous les impacts significatifs en amont, c’est-à-dire non seulement ceux liés à la consommation électrique des GPU, mais aussi toutes les autres consommations électriques (CPU, dispositifs de refroidissement, etc.) et la fabrication du matériel ».

    L’entreprise s’engage à mettre à jour ses rapports sur l’impact environnemental et à participer aux discussions sur des normes industrielles internationales sur le sujet, plaidant pour une plus grande transparence « tout au long de la chaine de production de l’IA ». Elle ajoute qu’elle va partager les résultats sur la base de données « Base Empreinte » de l’ADEME « établissant une nouvelle norme de référence pour la transparence dans le secteur de l’IA ». On attend avec impatience la publication de ces données dans cette base pour que la transparence soit encore un peu plus complète.

    Source : next.ink

  • 2 Votes
    1 Messages
    31 Vues

    Si des études scientifiques s’y attellent, les effets de l’explosion du secteur de l’intelligence artificielle sur l’environnement restent très peu discutés dans l’espace public, selon un rapport de Sopra Steria.

    Depuis l’été 2022, l’intelligence artificielle est dans toutes les discussions. Impacts économiques, politiques, médiatiques, potentielle bulle financière, même, tous ses effets sont décortiqués à l’exception d’un, et non des moindres : celui que le secteur a sur l’environnement.

    Entre janvier 2024 et avril 2025, moins de 1 % des 802 465 publications X et LinkedIn liées à l’IA et analysées par Opsci.ai évoquaient par exemple les effets de l’intelligence artificielle sur l’écosystème planétaire. Menée avec Opsci.ai, une récente étude de Sopra Steria sur le brouillard informationnel qui obscurcit les liens entre IA et environnement constate que le climat n’arrive qu’en huitième position des préoccupations des 100 leaders de l’IA listés par le Time Magazine, loin derrière les débats autour des modèles ou encore de l’actualité du secteur.

    Le sujet est pourtant d’importance : si le rôle de l’humanité dans le réchauffement climatique fait consensus dans la communauté scientifique depuis plus de 15 ans, 33 % de la population française considère en 2024 que le réchauffement climatique n’est qu’une hypothèse sur laquelle les scientifiques ne sont pas tous d’accord. Et alors qu’une soixantaine de scientifiques du GIEC annonçaient mi-juin que le maintien du réchauffement climatique sous les 1,5 °C de plus qu’avant l’ère pré-industrielle était désormais impossible, 29 % de la population mondiale doute de ce consensus.

    Sur le rôle spécifique de l’IA dans le domaine, les calculs sont complexes, mais les premières données scientifiques sont claires : recourir à des modèles de langage généralistes est beaucoup plus consommateur que de se tourner vers de plus petits modèles – des besoins en énergie qui, le plus souvent, sont synonymes d’accroissement significatif de multiples impacts environnementaux, à commencer par les émissions carbone.

    Relative focalisation sur la question énergétique

    Du côté des personnes clairement intéressées par la lutte contre les bouleversements climatiques, l’IA n’occupe que 2,85 % des discussions, constate Sopra Steria après analyse de 314 419 messages issus d’un panel LinkedIn dédié. Dans ces cas là, elle est principalement présentée comme une menace en termes d’énergie - un enjeu compréhensible, dans la mesure où le patron d’OpenAI lui-même suggère qu’à terme, « une fraction significative de l’énergie sur Terre devrait être consacrée à l’exécution de calculs d’IA ».

    Article complet : next.ink

  • 3 Votes
    7 Messages
    219 Vues

    La partie Alcoolisme a été placée dans un topic séparé: https://planete-warez.net/topic/7235/alcolisme/

  • 4 Votes
    4 Messages
    95 Vues

    Je ne vois pas le rapport entre le titre de ce post et le contenu.
    L’IA n’a en rien exposé les données de millions de candidats.
    La société à qui McD a confié son questionnaire de recrutement a exposé les données de millions de candidats par son incompétence notoire, qui n’a strictement rien à voir avec de l’IA.

    Si au moins c’était le bot qui avait dévoilé le lien de l’interface d’admin et/ou le mot de passe par défaut j’aurais pu comprendre, mais non, en fait rien à voir.

  • 2 Votes
    1 Messages
    54 Vues

    Alors ça, c’est ce qu’on appelle un coup de maître ! Cloudflare vient de lâcher une annonce qui va faire trembler tout l’écosystème de l’IA. Depuis le 1er juillet 2025, l’entreprise bloque par défaut tous les crawlers d’IA qui tentent d’aspirer le contenu des sites qu’elle protège. Il était temps que quelqu’un mette un bon coup de pied dans la fourmilière !

    Ainsi, Cloudflare qui gère environ 20% du trafic internet mondial, vient de transformer le modèle “on prend tout et on verra après” en “tu veux scraper ? Tu payes d’abord !”. Matthew Prince, le CEO de Cloudflare, a lâché des chiffres qui font froid dans le dos : pour chaque visite qu’OpenAI renvoie vers un site, ses bots ont crawlé 1700 pages. Chez Anthropic, c’est encore pire : 73 000 crawls pour une visite. C’est du pillage en règle, ni plus ni moins.

    Le truc génial, c’est qu’ils ont ressuscité le code HTTP 402 “Payment Required” qui dormait dans les spécifications depuis des décennies. Ainsi, quand un bot IA tente d’accéder à un site, soit il présente une preuve de paiement dans les headers de sa requête et obtient un beau 200 OK, soit il se prend un 402 dans les dents avec le tarif à payer. Simple et efficace !

    Mais attendez, ça devient encore mieux puisque Cloudflare a lancé en bêta privée leur marketplace ce “Pay Per Crawl” où les éditeurs peuvent fixer leurs propres tarifs. Comme ça, si vous avez un site avec du contenu de qualité, vous pouvez facturer chaque crawl des bots d’IA. Je vais aller activer ça, je crois…

    D’ailleurs, en parlant de protection de données et de contrôle sur ce qui circule sur le web, c’est exactement le genre de situation où un VPN devient super utile. Parce que si les géants de l’IA aspirent tout ce qui traîne, imaginez ce qu’ils peuvent faire avec vos données personnelles quand vous naviguez sans protection. [Pensez donc à sécuriser votre connexion avecun VPN et gardez le contrôle sur vos données pendant que Cloudflare s’occupe de protéger les créateurs de contenu.

    Ce qui me plaît vraiment dans l’approche de Cloudflare, c’est qu’elle remet les pendules à l’heure. Depuis des mois, les bots d’IA ignoraient allègrement les fichiers robots.txt, cette vieille convention non contraignante qui demandait gentiment de ne pas crawler certaines parties d’un site. Cloudflare a d’abord tenté la manière douce avec leur outil “AI Labyrinth” en mars 2025, qui piégeait les bots non conformes dans un labyrinthe de faux contenus générés automatiquement. Mais là, ils passent à la vitesse supérieure.

    Mais attendez, ce n’est pas tout !

    Les gros éditeurs ont d’ailleurs déjà sauté sur l’occasion. Condé Nast, TIME, The Atlantic, Fortune… tous ont rejoint le mouvement pour bloquer par défaut les crawlers IA. Et franchement, je les comprend. Pourquoi laisser des boîtes valorisées à des milliards pomper gratuitement leur contenu pour entraîner des modèles qui vont ensuite leur piquer leur audience ?

    Et le système est malin puisque les crawlers peuvent fonctionner de deux manières. Soit ils tentent leur chance, se prennent un 402, et renvoient une nouvelle requête avec l’acceptation du prix. Soit ils sont plus malins et incluent dès le départ un header “crawler-max-price” qui indique combien ils sont prêts à payer. Si le prix demandé est en dessous, la transaction se fait automatiquement.

    Ce qui est dingue, c’est que seulement 37% des 10 000 plus gros sites ont un fichier robots.txt. Non mais sérieux ? Ça montre bien que le système actuel était complètement dépassé. Avec cette nouvelle approche, Cloudflare devient donc le videur du web : “Tu veux entrer ? Montre ton invitation ou sors ton portefeuille.”

    Et pour les petits sites et les blogs, c’est un levier de financement supplémentaire et surtout la fin de l’open bar et le début d’une nouvelle ère où les créateurs de contenu sont enfin rémunérés pour leur travail.

    Alors bien sûr, les boîtes d’IA vont probablement chercher des moyens de contourner le système mais Cloudflare a l’avantage du terrain : ils voient passer 20% du trafic internet et ont les moyens techniques de repérer et bloquer les petits malins. Et puis, avec des géants comme eux qui montent au créneau, ça va forcer tout le monde à repenser le modèle.

    Et le fait qu’ils aient déterré le code HTTP 402 qui moisissait depuis 1997, c’est juste magnifique.

    Bref, pour conclure, si vous êtes créateur de contenu, foncez activer cette protection sur votre site Cloudflare. Et si vous êtes juste un internaute lambda qui en a marre de voir l’IA pomper tout ce qui existe sur le web, réjouissez-vous car la résistance s’organise. Le web n’est pas mort, il apprend juste à se défendre.

    – Sources :

    https://searchengineland.com/cloudflare-to-block-ai-crawlers-by-default-with-new-pay-per-crawl-initiative-457708

    https://korben.info/cloudflare-bloque-ia-pay-per-crawl.html

  • 3 Votes
    3 Messages
    63 Vues

    Je ne sais pas jouer alors l’IA fera ce qu’elle veut de moi 🤣

    Hmmm, ha, oh…

  • 2 Votes
    2 Messages
    110 Vues

    Putain ! Manquait plus que ça. On me fait un coup pareil, mon héritage par direct à l’I.A.

  • 4 Votes
    3 Messages
    160 Vues

    @duJambon L’Abé Pierre? caramba encore raté!

  • 3 Votes
    3 Messages
    130 Vues

    C’est juste pour appuyer le fait que cela arrive partout et qu’il faut arrêter de croire que ça n’arrive qu’à Microsoft…

    Ça arrive partout, sur tout les OS. C’est juste qu’on en parle ++ quand c’est Microsoft et que c’est plus facile de taper sur eux.

    Concernant le pare-feu, j’en utilise depuis Windows XP et aussi sous linux. Il serait en effet temps de s’y mettre, rien de plus important de surveiller les accès internes et externes de ses bécanes :

    Qui fait quoi? Et qui accède à quoi ? Quand ce n’est pas un logiciel malveillant qui se fait passer pour un autre.

  • 3 Votes
    35 Messages
    1k Vues

    8b208957-03c0-41e6-a4bc-dca7384bea6c-image.png

    Mix de Kiss et le sourire de Jack Nicholson en Joker 😁 :mouhaha:

  • 1 Votes
    7 Messages
    211 Vues

    @Popaul a dit dans IA et décarbonation :

    en gros tu produits cette énergie proprement et plus d’émission… du coup, du peux avoir des animations avec des madames à trois bras tout à fait clean.
    Et NVIDIA qui s’en met plein les poches avec du “moyen de gamme” à plus de 1000.-

    Tout à fait 🙂

  • 0 Votes
    6 Messages
    238 Vues

    @Violence a dit dans Scarlett Johansson victime d'un deepfake viral :

    –> Cette news est pour toi

    Merci @Violence pour l’intention même si le contenu de l’article ne l’est pas.

    :mimi: Scarlett Johansson :wub: :wub:

  • 1 Votes
    3 Messages
    124 Vues

    Exemple typique de ce dont je parle ci-dessus:

    a52be88a-7196-445a-ad4f-2777f5141b46-image.png

    Trouvé sur Ars Technica

    Il est tellement facile de demander à une I.A. sur un sujet quelconque et d’obtenir une réponse également quelconque.

  • 3 Votes
    7 Messages
    215 Vues

    N’oubliez pas que le documentaire est diffusé ce soir sur France 2.