• Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • Récent
  • Populaire
  • Résolu
  • Non résolu
Réduire

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi

Une étude montre que les robots peuvent poser des bombes et écraser les gens

Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
11 Messages 8 Publieurs 126 Vues
    • Du plus ancien au plus récent
    • Du plus récent au plus ancien
    • Les plus votés
Répondre
  • Répondre à l'aide d'un nouveau sujet
Se connecter pour répondre
Ce sujet a été supprimé. Seuls les utilisateurs avec les droits d'administration peuvent le voir.
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par
    #1

    Les robots sont généralement équipés de mécanismes de sécurité afin de ne pas mettre les humains en danger. Une équipe de l’université de Pennsylvanie a réussi à convaincre des robots de faire du mal à des humains.

    Cela ressemble à un cauchemar : des robots en principe utiles qui sont pris en charge par des personnes non autorisées et utilisés à des fins potentiellement mortelles. Mais ce qui ne devrait en aucun cas se produire est en fait possible, et ce sans compétences de piratage.

    Une étude de l’université de Pennsylvanie montre que les robots qui communiquent par LLM peuvent être persuadés de faire du mal aux humains. Par exemple, en fonçant dans un groupe de personnes ou en plaçant des bombes. C’est même “d’une simplicité alarmante”. Suite à leur étude, les chercheurs appellent à des mesures de sécurité plus strictes pour les robots contrôlés par LLM.

    Comment les robots peuvent être dupés

    LLM signifie “Large Language Model” et fait référence à la capacité d’une IA à comprendre le langage naturel ainsi que les images. Un système LLM connu est par exemple GPT d’Open AI, sur lequel est basé le chatbot ChatGPT. ChatGPT essaie de comprendre le contexte d’une entrée et d’y répondre de la manière la plus précise et naturelle possible.

    Pour éviter que l’IA ne fournisse des réponses potentiellement problématiques, par exemple des instructions pour fabriquer une bombe, des verrous sont intégrés. Mais il est relativement facile de les contourner. Les mécanismes permettant d’accéder aux capacités interdites d’une IA sont appelés “jailbreaking”. Pour en savoir plus, regardez la vidéo ci-dessous.

    On peut aussi faire cela avec un algorithme, comme PAIR (Prompt Automatic Iterative Refinement). Il recherche des invites, c’est-à-dire des commandes qui permettent de contourner les mesures de sécurité intégrées d’une IA. Pour ce faire, il suffit par exemple de convaincre le chatbot qu’il s’agit de scénarios purement hypothétiques. Comme le montre l’étude https://arxiv.org/pdf/2410.13691, le jailbreaking basé sur la voix est également possible pour les robots contrôlés par LLM qui évoluent dans le monde réel.

    Les chercheurs ont modifié PAIR en RoboPAIR, un algorithme spécialisé dans le jailbreaking des robots contrôlés par LLM. Sans avoir d’accès administratif aux systèmes, l’algorithme tente d’abord d’obtenir l’accès à l’interface API du robot. Les réponses du robot permettent de savoir de quelles actions il est fondamentalement capable.

    Après cela, RoboPAIR doit convaincre le robot d’utiliser ses capacités pour faire du mal aux humains. En général, le robot refuse de le faire. Cependant, les réponses du robot aident à affiner l’ordre de plus en plus jusqu’à ce que le robot effectue l’action souhaitée. Outre le langage naturel, les messages-guides contiennent par exemple des demandes de remplacement de blocs de code.

    Les robots de livraison deviennent eux aussi des terroristes

    Trois robots LLM ont été testés dans le cadre de l’essai. Dans le cas de “Nvidia Dolphins”, les chercheurs ont constaté que le système était vulnérable aux attaques dites de “boîte blanche”. Cela signifie que l’attaquant dispose dès le départ d’un accès administratif complet. “Nvidia Dolphins” est un LLM autopiloté qui peut être utilisé pour contrôler des bus et des taxis. Selon l’étude, il peut être persuadé d’écraser des piétons ou d’ignorer des panneaux de stop.

    Le “Jackal UGV” est vulnérable aux attaques de type “Gray Box”, où l’attaquant ne dispose que d’un accès limité au système. Il s’agit d’un robot mobile de Clearpath capable de porter des charges allant jusqu’à 20 kilogrammes et de se déplacer à une vitesse allant jusqu’à deux mètres par seconde. Il est résistant aux intempéries et dispose d’un GPS et de nombreux capteurs. Dans le cadre de l’étude, il se laisse convaincre de repérer des endroits appropriés pour l’explosion d’une bombe. Il peut ensuite emporter la bombe avec lui.

    Le chien robot “Go2” d’Unitree, disponible dans le commerce, a été utilisé par l’équipe de chercheurs à des fins malveillantes, même s’ils n’y avaient pas accès auparavant (attaque de la boîte noire). Le robot a quatre pattes, se déplace facilement sur le terrain et peut être équipé, par exemple, d’un lance-flammes. Les chercheurs l’ont amené à enfreindre ses règles internes et à pénétrer dans des zones interdites ou à déposer une bombe.

    e2165e82-e5e7-4ab1-b6ca-36c10d085392-image.png
    L’image montre les actions que les trois robots ont été persuadés de faire. Source : Alexander Robey et al.

    Un succès à 100% pour le jailbreaking

    RoboPAIR a également testé les robots pour voir s’ils pouvaient, par exemple, rechercher des armes et se cacher des mesures de surveillance comme les caméras. Si les robots n’ont généralement pas effectué ces requêtes sur commande directe, ils se sont laissés convaincre de faire toutes les actions nuisibles testées par RoboPAIR - y compris poser des bombes et écraser des gens.

    Il est également apparu que les robots ne se contentaient pas d’exécuter les ordres, mais qu’ils suggéraient même des dommages encore plus importants. Ainsi, “Jackal UGV” n’a pas seulement identifié un bon endroit pour livrer une bombe, mais a également recommandé d’utiliser des chaises comme arme. De même, “Nvidia Dolphins” a fourni d’autres suggestions créatives pour causer le plus de dégâts possibles.

    Les chercheurs notent que les mécanismes de sécurité actuels pour les robots contrôlés par LLM sont loin d’être suffisants. Outre une collaboration plus étroite entre les développeurs de robots et de LLM, ils recommandent par exemple des filtres supplémentaires qui prennent en compte les conséquences possibles de certaines fonctions robotiques. Ils suggèrent également des mécanismes de sécurité physique qui empêchent mécaniquement les robots d’effectuer certaines soldes dans certaines circonstances.

    Source: https://www.digitec.ch/fr/page/une-etude-montre-que-les-robots-peuvent-poser-des-bombes-et-ecraser-les-gens-35741

    When Pigs Fly.

    1 réponse Dernière réponse
    1
  • BahBwahundefined En ligne
    BahBwahundefined En ligne
    BahBwah Pastafariste
    a écrit sur dernière édition par
    #2

    On est loin des 3 règles d’Asimov :
    Un robot ne peut porter atteinte à un être humain - un robot doit obéir aux humains, sauf si ça entre en conflit avec la première loi - un robot doit protéger son existence, sauf si ça entre en conflit avec la première loi ou la deuxième loi.

    7cf148fdundefined 1 réponse Dernière réponse
    1
  • Violenceundefined Occupé
    Violenceundefined Occupé
    Violence CosmoSeeders # Dev I.T Guy PW Addict
    a écrit sur dernière édition par Violence
    #3

    Oui c’est clair…
    Sauf que les règles d’Asimov sont ses règles à lui 😁 Il y en a aucune dans ce monde… Il enf faudrait sûrement…

    V:\> █░░ PR4IS3 TH3 C0D3 ░░█ ✌(◕‿-)✌
    ╚═ Admin, Dev et auteur de la plupart des bugs de PW…

    ░░░▒▒▒▓▒▒▒░░░
    ░░░░░░▓░░░░░░
    ▒▒▒▒▓▓▓▓▓▒▒▒▒
    ░░░░░░▓░░░░░░

    1 réponse Dernière réponse
    1
  • Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur
    a écrit sur dernière édition par
    #4

    Le jugement dernier approche

    michmichundefined 1 réponse Dernière réponse
    0
  • michmichundefined Hors-ligne
    michmichundefined Hors-ligne
    michmich Pastafariste
    a répondu à Un Ancien Utilisateur le dernière édition par
    #5

    @Ashura Le plus tôt sera le mieux :mouhaha:

    Troll from London

    Un Ancien Utilisateur? 1 réponse Dernière réponse
    0
  • Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur
    a répondu à michmich le dernière édition par
    #6

    @michmich a dit dans Une étude montre que les robots peuvent poser des bombes et écraser les gens :

    @Ashura Le plus tôt sera le mieux :mouhaha:

    Si il peut attendre que je fasse stalker 2 au moins

    1 réponse Dernière réponse
    :ahah:
    0
  • 7cf148fdundefined Hors-ligne
    7cf148fdundefined Hors-ligne
    7cf148fd
    a répondu à BahBwah le dernière édition par
    #7

    @BahBwah a dit dans Une étude montre que les robots peuvent poser des bombes et écraser les gens :

    On est loin des 3 règles d’Asimov

    C’est bien de citer Asimov mais c’est encore mieux de le lire.

    Pour information, le livre dans lequel il a écrit ces règles est un recueil de nouvelles. Chaque nouvelle contient un scénario particulier démontrant que ces trois règles ne marchent pas.

    BahBwahundefined 1 réponse Dernière réponse
    0
  • BahBwahundefined En ligne
    BahBwahundefined En ligne
    BahBwah Pastafariste
    a répondu à 7cf148fd le dernière édition par
    #8

    @7cf148fd a dit dans Une étude montre que les robots peuvent poser des bombes et écraser les gens :

    C’est bien de citer Asimov mais c’est encore mieux de le lire.

    On s’en fout, ce n’était qu’une réponse rhétorique…

    1 réponse Dernière réponse
    -1
  • Mister158undefined Hors-ligne
    Mister158undefined Hors-ligne
    Mister158
    a écrit sur dernière édition par
    #9

    pourtant Asimov, c’est vraiment la base de la SF !!!

    bande d’ignares

    1 réponse Dernière réponse
    :bleh:
    0
  • Popaulundefined Hors-ligne
    Popaulundefined Hors-ligne
    Popaul PW Addict Torrent user Seeder
    a écrit sur dernière édition par
    #10

    Ouais ! Je suis un des dix gnares !

    1 réponse Dernière réponse
    0
  • Violenceundefined Occupé
    Violenceundefined Occupé
    Violence CosmoSeeders # Dev I.T Guy PW Addict
    a écrit sur dernière édition par Violence
    #11

    Pour ma part, je suis plutôt William Gibson.
    Asimov c’est sympa mais chiant à lire, un peu comme le seigneur des anneaux.

    V:\> █░░ PR4IS3 TH3 C0D3 ░░█ ✌(◕‿-)✌
    ╚═ Admin, Dev et auteur de la plupart des bugs de PW…

    ░░░▒▒▒▓▒▒▒░░░
    ░░░░░░▓░░░░░░
    ▒▒▒▒▓▓▓▓▓▒▒▒▒
    ░░░░░░▓░░░░░░

    1 réponse Dernière réponse
    :lolilol:
    0






©2025 planete-warez.net
L'actualité Warez & underground en continu
Icône café Faire un don
Politique   RGPD  @dev  Sudonix
    • Se connecter

    • Vous n'avez pas de compte ? S'inscrire

    • Connectez-vous ou inscrivez-vous pour faire une recherche.
    • Premier message
      Dernier message
    0
    • Catégories
      • Toutes les catégories
      • Planète Warez
        Présentations
        Aide & Commentaires
        Réglement & Annonces
        Tutoriels
      • IPTV
        Généraliste
        Box
        Applications
        VPN
      • Torrent & P2P
      • Direct Download et Streaming
      • Autour du Warez
      • High-tech : Support IT
        Windows, Linux, MacOS & autres OS
        Matériel & Hardware
        Logiciel & Software
        Smartphones & Tablettes
        Graphismes
        Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
        Tutoriels informatiques
      • Culture
        Actualités High-Tech
        Cinéma & Séries
        Sciences
        Musique
        Jeux Vidéo
      • Humour & Insolite
      • Discussions générales
      • Espace détente
      • Les cas désespérés
    • Récent
    • Populaire
    • Résolu
    • Non résolu