• 2 Votes
    2 Messages
    40 Vues

    @Raccoon a dit dans Windows 11 : Microsoft pose les bases de l'IA agentique dans son OS tout en prévenant qu'elle pourrait installer des logiciels malveillants sur votre PC : l'automatisation arrive plus vite que la sécurité :

    « n’activez cette fonction que si vous comprenez pleinement les implications en matière de sécurité ».

    => ça c’est drôle (j’ai bien rigolé) parce que ceux qui comprennent pleinement les implications en matière de sécurité n’activeront pas cette fonction.
    Donc, en résumé: si on comprend on n’active pas, et si on ne comprend pas on n’active pas…

  • 1 Votes
    3 Messages
    59 Vues

    titre de l’article : Yann LeCun, blablabla, quitte l’entreprise

    deuxième ligne : Un rapport a révélé que blabla, serait sur le point de démissionner

    putaclick ???

  • 2 Votes
    2 Messages
    39 Vues

    La porte ouverte à toutes les fenêtres comme dirait Gad. :ahah:

    Vous ne voulez pas en manger, pas grave on vous la mettra en suppositoire.

  • 1 Votes
    7 Messages
    62 Vues

    @Popaul mes confuses, je ne connaissais pas “parser” j’ai googlé ton "parsé*et effectivement c’est un excellent jeu de mot.

  • 1 Votes
    6 Messages
    49 Vues

    @Raccoon
    Ou pas, je me souviens d’une ordonnance de vitamine D (Uvedose 100 000 U) pour une ampoule par jour…
    Le pharmacien a réagi tout de suite, mais aucun contrôle à la délivrance.
    NB: 1 ampoule tous les 1 à 3 mois.

  • 1 Votes
    1 Messages
    56 Vues

    Sans bruit ni fanfare, TiboInShape a rendu son visage et sa voix réutilisables par tout un chacun sur l’application Sora, appuyée sur le modèle de génération de vidéo d’OpenAI. Une décision qui pose de multiples questions sur les risques encourus, par le vidéaste lui-même, mais aussi par les internautes plus ou moins adeptes de son travail.

    Depuis quelques jours, les vidéos de TiboInShape inondent les réseaux sociaux. Elles ont le visage de TiboInShape, elles ont la voix de TiboInShape, mais elles n’ont pas du tout été créées par le vidéaste : elles ont été générées par IA. Bref, ce sont des deepfakes.

    Mais des deepfakes d’un genre particulier : des deepfakes a priori consentis. Sur Sora, la plateforme de génération de vidéos d’OpenAI qui vise à devenir une sorte de contre-TikTok uniquement alimenté de vidéos générées par IA, les utilisateurs peuvent rendre leur « cameo », c’est-à-dire un enregistrement de leur image et de leur voix, utilisable uniquement par eux-mêmes, en ouvrir l’accès à quelques personnes autorisées, ou le rendre accessible à tout le monde.

    C’est cette dernière option que TiboInShape, Thibaud Delapart de son vrai nom, a choisie. « Si on veut rester à l’ordre du jour, il faut rebondir de réseaux en réseaux », explique-t-il sur BFM. Et d’évoquer Sora 2, et le fait que « les gens s’amusent bien sur TikTok à me mettre en situation, en train de manger des burgers chez McDo par exemple », une situation a priori invraisemblable, pour ce roi du fitness.

    Quand bien même l’application Sora, donc les cameo de célébrités, ne sont pour le moment disponibles qu’aux États-Unis et au Canada, la décision du vidéaste étonne l’avocate spécialiste du droit du numérique Betty Jeulin. « C’est peut-être intéressant d’un point de vue marketing, mais en l’occurrence, TiboInShape est suivi par 27 millions de personnes, selon la loi française sur les influenceurs, cela lui donne une responsabilité », explique-t-elle à Next.

    Risques de détournements et d’arnaques.

    Or, une fois son image diffusée, sans restriction aucune, celle-ci peut servir — et sert déjà — à produire des vidéos quelquefois drôles, quelquefois violentes, voire injurieuses.

    Dès les premiers résultats de recherche sur TikTok, des vidéos apparaissent dans lesquelles la version IA du vidéaste tient des propos ouvertement racistes. D’autres l’utilisent pour créer de supposés journaux télévisés, selon lesquels TiboInShape aurait « porté plainte contre l’IA », une formulation très floue, intégrée dans un discours évoquant plus largement un contenu de mésinformation généré automatiquement.

    L’image de TiboInShape peut aussi servir à créer des arnaques, souligne Betty Jeulin, « un peu comme celle qui avait utilisé l’image de Brad Pitt pour piéger une internaute. Sauf que dans ce cas-là, il était difficile d’attaquer Brad Pitt : l’acteur n’avait rien fait d’autre qu’être lui-même ». C’étaient les arnaqueurs qui avaient récupéré son image pour la manipuler, puis soutirer des fonds à leur victime.

    « Dans le cas de TiboInShape, il y a une décision positive de sa part, une action pour rendre son image et sa voix disponibles. » Pour l’avocate, si une personne tombait dans le piège d’une arnaque montée à partir de l’image du vidéaste, ce dernier pourrait se retrouver assigné en justice.

    Ne pas se laisser dépasser par l’IA ?

    « Rester à l’ordre du jour », est-ce que cela suffit à expliquer la décision du vidéaste le plus suivi de France à rendre son image et sa voix réutilisables à l’envi pour générer des vidéos par IA ? Spécialiste des cultures web et autrice, la journaliste Pauline Ferrarri se déclare elle aussi « étonnée » devant le choix de TiboInShape, sur lequel ce dernier ne s’est pour le moment que très peu exprimé, mais le trouve cohérent avec sa stratégie générale d’influence.

    Suite de l’article réservé aux abonnées : next.ink

  • 4 Votes
    12 Messages
    265 Vues

    C’est un sacré gain de temps pour résumer un article pondu par un pigiste “circonvolutioniste” (genre ars technica), même si on perd des détails intéressants (pas pour tout le monde, heureusement) dans la manoeuvre. Il est devenu possible de lire un article jusqu’au bout, quitte à se référer à la source pour plus de détails.

  • 0 Votes
    1 Messages
    69 Vues

    Alors que les entreprises d’IA génératives donnent de moins en moins d’information sur l’impact environnemental de leurs modèles, Mistral a travaillé avec l’agence Carbone 4 et l’ADEME sur celui de son modèle Large 2. L’entreprise explique notamment que l’entrainement de ce modèle a émis l’équivalent de 20 400 tonnes de CO₂.

    Il est difficile de connaître l’impact environnemental des modèles de langage puisque jusque-là, les entreprises qui les créent étaient peu bavardes sur le sujet. Les chercheuses de Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont bien tenté de le mesurer, mais elles déploraient, en septembre 2024, qu’ « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA ».

    Dans un article mis en ligne en juin dernier sur la plateforme de preprints arXiv, Sasha Luccioni, avec Boris Gamazaychikov de Salesforce, Theo Alves da Costa de Ekimetrics et Emma Strubel de l’Université Carnegie Mellon, déploraient encore une « désinformation par omission » sur le sujet.

    Ils écrivaient que « la tendance actuelle à la réduction de la transparence concernant l’impact environnemental de l’IA contribue à la désinformation et entrave la prise de décisions éclairées à tous les niveaux, des chercheurs et développeurs individuels aux organisations et décideurs politiques ». Ils ajoutaient que « cette baisse de transparence est particulièrement préoccupante compte tenu de l’impact environnemental croissant de l’IA dans un contexte de préoccupations climatiques mondiales et de limites planétaires imminentes ».

    Dans cet article, ils expliquaient que « les données de mai 2025 indiquent que parmi les 20 modèles les plus utilisés, un seul (Meta Llama 3.3 70B) a directement publié des données environnementales et trois (DeepSeek R1, DeepSeek V3, Mistral Nemo) les ont publiées indirectement (en partageant des données de calcul telles que le type de GPU et la durée de formation, ainsi qu’en publiant les poids de leurs modèles afin de permettre une analyse de l’efficacité) ».

    Mistral ouvre le capot de Large 2

    En cette mi-juillet, Mistral ouvre (un peu) le capot de son modèle Large 2 concernant son impact environnemental. Dans un billet de blog, l’entreprise explique avoir travaillé avec l’agence Carbone 4 et l’ADEME sur « l’analyse du cycle de vie d’un modèle d’IA ». Sans donner les chiffres bruts ni publier, à ce stade, l’étude qu’elle a faite, l’entreprise livre divers chiffres sur la consommation de son modèle et assure que son étude a été examinée par deux autres agences (Resilio et hubblo). Elle ajoute que cette étude suit le référentiel général pour l’IA frugale développé par l’AFNOR et est conforme aux normes internationales, notamment la norme Green House Gas (GHG) Protocol Product Standard et la norme ISO 14040/44.

    Ainsi, elle confirme d’abord que l’entrainement et l’inférence (qu’elle mélange dans l’infographie ci-dessous) sont les parties qui émettent le plus d’émissions de gaz à effet de serre (85,5 %) pour le modèle Large 2 de Mistral.

    Mistral résume ses conclusions dans une infographie

    Néanmoins, concernant ce point, l’entreprise rappelle que la fabrication et la gestion de la fin de vie du matériel utilisé ne sont pas à négliger puisqu’elles représentent 11 % des émissions du modèle.

    L’entreprise rappelle que la localisation des datacenters est un facteur clé de son impact environnemental puisque de celle-ci va dépendre de la nature de l’énergie qu’ils vont dépenser. Ainsi, en entrainant son modèle en France, avec de l’énergie provenant notamment de centrales nucléaires et un climat encore relativement tempéré, Mistral émet moins de CO2 et consomme moins d’eau que dans beaucoup d’autres régions du monde.

    20 400 tonnes de CO₂ et 281 000 m³ d’eau

    L’entreprise donne des chiffres plus précis sur l’impact environnemental de l’entrainement de son modèle Large 2. Ainsi, elle explique qu’en janvier 2025, après 18 mois d’utilisation, Large 2 a émis l’équivalent de 20 400 tonnes de CO₂ (tCO₂e), consommé 281 000 m³ d’eau et l’équivalent de 660 kg d’antimoine en ressources matérielles (660 kg sb eq, une unité de mesure de la consommation de ressources matérielles qui se base sur la consommation de l’élément chimique antimoine, sb).

    Mistral précise, concernant l’inférence, qu’une réponse de son assistant « Le Chat » utilisant ce modèle avec 400 tokens consomme l’équivalent de 1,14 g de CO₂, 45 mL d’eau et l’équivalent de 0,16 mg d’antimoine. Elle qualifie ces impacts de l’inférence de « marginaux ».

    Mistral précise que « ces chiffres reflètent l’ampleur des calculs impliqués dans l’IA générique, qui nécessite de nombreux processeurs graphiques, souvent dans des régions où l’électricité est très polluante et où il y a parfois des problèmes d’approvisionnement en eau ». Elle ajoute qu’ « ils incluent également les « émissions en amont », c’est-à-dire les impacts liés à la fabrication des serveurs, par exemple, et pas seulement à la consommation d’énergie ».

    Dans leur article de juin, Sasha Luccioni et ses collègues rappelaient que Google avait estimé en octobre 2024 [PDF] que l’entrainement de sa famille de modèles Gemma avait consommé l’équivalent de 1 247,61 tonnes CO2 et que, de son côté, Meta avait estimé la consommation de l’entrainement de sa famille Llama 3 à l’équivalent de 11 390 tonnes de CO2.

    Plaidoyer pour une transparence accrue dans le milieu

    « Notre étude montre également une forte corrélation entre la taille d’un modèle et son empreinte », explique Mistral. L’entreprise précise que « les benchmarks ont montré que les impacts sont à peu près proportionnels à la taille du modèle : un modèle 10 fois plus grand générera des impacts d’un ordre de grandeur supérieur à ceux d’un modèle plus petit pour la même quantité de jetons générés. Cela souligne l’importance de choisir le bon modèle pour le bon cas d’utilisation ».

    Elle ajoute que cette étude est « une première approximation compte tenu de la difficulté à effectuer des calculs précis dans le cadre d’un tel exercice en l’absence de normes relatives à la responsabilité environnementale des environnements LLM et de facteurs d’impact accessibles au public ». Elle fait remarquer, par exemple, qu’ « aucun inventaire fiable du cycle de vie des GPU n’a encore été réalisé ». Ainsi leurs impacts intrinsèques « ont dû être estimés, mais ils représentent une part importante des impacts totaux ».

    Mistral propose que les futurs audits sur le sujet dans le secteur prennent exemple sur son étude qui a « utilisé une approche basée sur la localisation des émissions liées à l’électricité et à inclure tous les impacts significatifs en amont, c’est-à-dire non seulement ceux liés à la consommation électrique des GPU, mais aussi toutes les autres consommations électriques (CPU, dispositifs de refroidissement, etc.) et la fabrication du matériel ».

    L’entreprise s’engage à mettre à jour ses rapports sur l’impact environnemental et à participer aux discussions sur des normes industrielles internationales sur le sujet, plaidant pour une plus grande transparence « tout au long de la chaine de production de l’IA ». Elle ajoute qu’elle va partager les résultats sur la base de données « Base Empreinte » de l’ADEME « établissant une nouvelle norme de référence pour la transparence dans le secteur de l’IA ». On attend avec impatience la publication de ces données dans cette base pour que la transparence soit encore un peu plus complète.

    Source : next.ink

  • 2 Votes
    1 Messages
    82 Vues

    Si des études scientifiques s’y attellent, les effets de l’explosion du secteur de l’intelligence artificielle sur l’environnement restent très peu discutés dans l’espace public, selon un rapport de Sopra Steria.

    Depuis l’été 2022, l’intelligence artificielle est dans toutes les discussions. Impacts économiques, politiques, médiatiques, potentielle bulle financière, même, tous ses effets sont décortiqués à l’exception d’un, et non des moindres : celui que le secteur a sur l’environnement.

    Entre janvier 2024 et avril 2025, moins de 1 % des 802 465 publications X et LinkedIn liées à l’IA et analysées par Opsci.ai évoquaient par exemple les effets de l’intelligence artificielle sur l’écosystème planétaire. Menée avec Opsci.ai, une récente étude de Sopra Steria sur le brouillard informationnel qui obscurcit les liens entre IA et environnement constate que le climat n’arrive qu’en huitième position des préoccupations des 100 leaders de l’IA listés par le Time Magazine, loin derrière les débats autour des modèles ou encore de l’actualité du secteur.

    Le sujet est pourtant d’importance : si le rôle de l’humanité dans le réchauffement climatique fait consensus dans la communauté scientifique depuis plus de 15 ans, 33 % de la population française considère en 2024 que le réchauffement climatique n’est qu’une hypothèse sur laquelle les scientifiques ne sont pas tous d’accord. Et alors qu’une soixantaine de scientifiques du GIEC annonçaient mi-juin que le maintien du réchauffement climatique sous les 1,5 °C de plus qu’avant l’ère pré-industrielle était désormais impossible, 29 % de la population mondiale doute de ce consensus.

    Sur le rôle spécifique de l’IA dans le domaine, les calculs sont complexes, mais les premières données scientifiques sont claires : recourir à des modèles de langage généralistes est beaucoup plus consommateur que de se tourner vers de plus petits modèles – des besoins en énergie qui, le plus souvent, sont synonymes d’accroissement significatif de multiples impacts environnementaux, à commencer par les émissions carbone.

    Relative focalisation sur la question énergétique

    Du côté des personnes clairement intéressées par la lutte contre les bouleversements climatiques, l’IA n’occupe que 2,85 % des discussions, constate Sopra Steria après analyse de 314 419 messages issus d’un panel LinkedIn dédié. Dans ces cas là, elle est principalement présentée comme une menace en termes d’énergie - un enjeu compréhensible, dans la mesure où le patron d’OpenAI lui-même suggère qu’à terme, « une fraction significative de l’énergie sur Terre devrait être consacrée à l’exécution de calculs d’IA ».

    Article complet : next.ink

  • 3 Votes
    7 Messages
    376 Vues

    La partie Alcoolisme a été placée dans un topic séparé: https://planete-warez.net/topic/7235/alcolisme/

  • 4 Votes
    4 Messages
    194 Vues

    Je ne vois pas le rapport entre le titre de ce post et le contenu.
    L’IA n’a en rien exposé les données de millions de candidats.
    La société à qui McD a confié son questionnaire de recrutement a exposé les données de millions de candidats par son incompétence notoire, qui n’a strictement rien à voir avec de l’IA.

    Si au moins c’était le bot qui avait dévoilé le lien de l’interface d’admin et/ou le mot de passe par défaut j’aurais pu comprendre, mais non, en fait rien à voir.

  • 2 Votes
    2 Messages
    164 Vues

    Putain ! Manquait plus que ça. On me fait un coup pareil, mon héritage par direct à l’I.A.

  • 1 Votes
    3 Messages
    180 Vues

    Exemple typique de ce dont je parle ci-dessus:

    a52be88a-7196-445a-ad4f-2777f5141b46-image.png

    Trouvé sur Ars Technica

    Il est tellement facile de demander à une I.A. sur un sujet quelconque et d’obtenir une réponse également quelconque.

  • 3 Votes
    7 Messages
    369 Vues

    N’oubliez pas que le documentaire est diffusé ce soir sur France 2.

  • 7 Votes
    4 Messages
    205 Vues

    Il y a le côté consommateur en énergie et en composants qui est à mettre en exergue (un peu fait dans cette vidéo).

    Mais en gros :
    L’ia est un outil… Comme un marteau, il ne faut pas en avoir peur.
    C’est surtout comment est utilisé cet outil qu’il faut surveiller.
    Et là, il est actuellement utilisé par les plus gros moins nombreux pour faire chi** (pas de mots poli) les plus petits mais nettement plus nombreux.
    Merci le spam, la surveillance et les missiles qu’on reçoit dans la yeule.

  • 2 Votes
    2 Messages
    146 Vues

    Dans un an, après moult réunions, ils auront décidé du sigle officiel du bureau de l’IA, et pourront enfin commencer à se pencher sur le sujet. Confiants, en opinant du chef et tous sourires, ils se diront alors qu’ils n’étaient pas trop de trois.

  • 1 Votes
    1 Messages
    101 Vues

    Le Computex est le théâtre d’une multitude d’annonces autour de l’IA, aussi bien chez AMD, Intel, Microsoft que NVIDIA. Mais ce ne sont pas les seuls et la Fondation Raspberry Pi ne compte pas rester sur le bord de la route. Elle présente un NPU externe à ajouter à son Raspberry Pi 5 pour 70 dollars.

    13 TOPS pour le Raspberry Pi 5

    C’est via un communiqué sur son site que la fondation annonce l’arrivée d’un module AI pour le Raspberry Pi 5. Ce « NPU externe » propose, selon le fabricant, des performances jusqu’à 13 TOPS pour de l’intelligence artificielle. Il est construit à partir de la puce Hailo-8L, dont la fiche technique se trouve par ici.

    On est loin des 48 et 50 TOPS des derniers processeurs Intel et AMD. Mais la puce est au niveau des 11,5 TOPS du NPU de Meteor Lake d’Intel, des 16 TOPS des Ryzen 8040 et des 11 TOPS de la puce M1 d’Apple (15,8 TOPS pour M2).

    78,60 euros pour le M.2 HAT+ avec la puce Hailo-8L

    Le kit comprend donc une carte M.2 HAT+ (avec un connecteur M.2 key M) à installer sur le Raspberry Pi 5, ainsi que la carte M.2 (format 2242) équipée de la puce Hailo-8L.

    Le prix annoncé est de 70 dollars et on trouve le kit à 78,60 euros chez Kubii. Chez le même revendeur, le M.2 HAT+ seul est vendu 13,5 euros. Cela donne environ 65 euros pour la carte M.2 avec le NPU si l’on tente de séparer les deux.

    Passer son Raspberry Pi 5 en PCIe 3.0… à vos risques et périls ?

    Le Raspberry Pi 5 propose pour rappel une ligne PCIe 2.0, tandis que la puce de Hailo utilise jusqu’à deux lignes PCIe 3.0. Soit un rapport de 1 à 4 ? En théorie, oui. En pratique, c’est plus compliqué…

    Dans son communiqué, Raspberry Pi indique que son kit AI fonctionne avec une « connexion PCIe 3.0 x1 à 8 Gb/s ». Mais comment donc, alors que les caractéristiques techniques du mini-PC indiquent une seule ligne PCIe 2.0 ?

    Comme l’explique Jeff Geerling sur son blog, on peut passer du PCIe 2.0 au 3.0 sur le Raspberry Pi 5 avec une petite modification dans un fichier de configuration. D’ailleurs, cette étape est décrite dans le guide de démarrage du kit AI : « Suivez les instructions pour activer le PCIe Gen 3.0. Cette étape est facultative, mais fortement recommandée pour obtenir les meilleures performances ».

    Mais alors pourquoi ne pas livrer directement le Raspberry Pi 5 en PCIe 3.0 ? Sur cette autre page, il est indiqué que « le Raspberry Pi 5 n’est pas certifié » pour les débits du PCIe 3.0 et que les connexions « peuvent être instables ».

    Dans tous les cas, le puce Hailo exploitant deux lignes, elle peut se retrouver bridée par l’interface avec le Raspberry Pi, limitée à une seule ligne. De plus, le kit AI utilisant la seule ligne PCIe externe disponible, il ne sera plus possible d’utiliser un SSD M.2 par exemple.

    Une intégration logicielle déjà prête

    Quoi qu’il en soit, ce kit « vous permet de créer rapidement des applications complexes de vision par IA, fonctionnant en temps réel, avec de faibles latences et besoins en énergie », explique le fabricant. Un atout de taille est d’ailleurs « l’intégration complète avec le sous-système de gestion des images du Raspberry Pi ».

    « Les étapes d’installation du logiciel sont très simples : installez quelques paquets via apt, redémarrez », et c’est tout. Vous pouvez alors « essayer certaines démos d’IA en quelques minutes ». Hailo propose aussi de la documentation et des exemples d’applications sur GitHub.

    La fondation ajoute que ce kit est compatible avec les caméras officielles, mais aussi avec celles de ces partenaires. Il est également possible d’utiliser le NPU sur des vidéos déjà enregistrées.

    Plusieurs vidéos de présentation ont été mises en ligne :

    Source : next.ink

  • 3 Votes
    6 Messages
    293 Vues

    @Indigostar a dit dans D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA :

    Je reste donc perplexe, surtout que l’évolution de l’IA tend vers la capacité de se mettre à jour elle-même et d’ajuster ses algorithmes.

    On devrait lui confier la gestion d’un pays imaginaire histoire de voir. :ahah:

  • 1 Votes
    8 Messages
    398 Vues

    @mekas a dit dans IA : Le chatbot de DPD insulte un client à la suite d'une mise à jour :

    Pour l’instant égalité ! Mais on voit bien que ça peut dégénérer à tout instant ! lol

    Mais non… Il y en a qui me cherchent, c’est de bonne guerre…