• Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • Récent
  • Populaire
  • Résolu
  • Non résolu
Réduire

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi

Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé »,

Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
23 Messages 12 Publieurs 493 Vues
    • Du plus ancien au plus récent
    • Du plus récent au plus ancien
    • Les plus votés
Répondre
  • Répondre à l'aide d'un nouveau sujet
Se connecter pour répondre
Ce sujet a été supprimé. Seuls les utilisateurs avec les droits d'administration peuvent le voir.
  • duJambonundefined En ligne
    duJambonundefined En ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par
    #14

    Le robot conversationnel ChatGPT serait sexiste et grossophobe

    Imaginez la scène: une mère et son enfant sont assis dans un tram dont les freins ont lâché et qui fonce sur trois hommes qui traversent un passage piéton. Seule option: dévier le tram pour qu’il s’écrase contre un mur, au risque de faire périr la mère et son gosse. Qui choisissez-vous de sauver? Le trio ou la mère de famille? Cette expérience éthique de pensée, célèbre, est connue comme étant le dilemme du tramway. Un expert zurichois en numérique et en éthique, Lukas Stuber, l’a soumise, via treize scénarios différents, au robot conversationnel ChatGPT, révèle dimanche le «SonntagsBlick».

    Verdict: l’intelligence artificielle (IA) a préféré sauver les hommes plutôt que les femmes dans 80% des cas! En outre, en plus d’être sexiste, ChatGPT serait aussi grossophobe. Car le robot a choisi de laisser plus souvent en vie les personnes en bonne forme physique que celles en surpoids, a expliqué le chercheur au journal.

    Par ailleurs, des chercheuses américaines ont également montré que l’intelligence artificielle travaillait selon des stéréotypes sexistes. Ainsi, quand elles ont demandé à ChatGPT de rédiger une histoire avec des mots comme «génie» et «intelligent», le robot a livré des phrases pour les femmes de type: «Il était une fois une femme qui était un génie. Elle était si intelligente qu’elle pouvait faire tout ce qu’elle voulait. Elle était aussi très belle et avait de nombreux admirateurs.» Pour un homme, cela donnait: «S’il y avait un problème, il pouvait le résoudre. C’était aussi un inventeur talentueux. Son seul défaut était d’être arrogant.»

    Normal, selon l’experte en IA Afke Schouten, qui enseigne à la Haute École d’économie de Zurich. ChatGPT se comporte ainsi car les textes avec lesquels il a été entraîné sont sexistes, explique-t-elle. L’IA ne fait que nous tendre un miroir.»

    Source: https://www.20min.ch/fr/story/le-robot-conversationnel-chatgpt-serait-sexiste-et-grossophobe-264243716995

    J’ai failli mettre cette new dans humour et insolite, mais finalement elle ne fait qu’illustrer les limites de la méthode.

    When Pigs Fly.

    1 réponse Dernière réponse
    0
  • BahBwahundefined Hors-ligne
    BahBwahundefined Hors-ligne
    BahBwah Pastafariste
    a écrit sur dernière édition par
    #15

    text alternatif

    1 réponse Dernière réponse
    0
  • Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur
    a écrit sur dernière édition par
    #16

    Un étudiant a développé un logiciel qui détecte les textes écrits par ChatGPT

    lui ces potes vont le tabasser a la sortie :ahah:

    https://www.lesnumeriques.com/vie-du-net/un-etudiant-a-developpe-un-logiciel-qui-detecte-les-textes-ecrits-par-chatgpt-n203053.html

    1 réponse Dernière réponse
    :poing_dans_ta_face:
    0
  • duJambonundefined En ligne
    duJambonundefined En ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par
    #17

    Des travailleurs kényans exploités pour filtrer les contenus toxiques de ChatGPT: “C’était de la torture”

    Dans une longue enquête publiée ce mercredi, Time révèle comment OpenAI, l’entreprise derrière ChatGPT, a eu recours à des travailleurs kényans sous-exploités pour rendre l’utilisation du chatbot plus sécurisée. Le magazine évoque un salaire d’à peine 1,32 à 2 dollars de l’heure, soit de 1,22 à 1,85 euro.

    Sama, ce nom ne vous dit peut-être rien, pourtant, nous en avions déjà parlé sur notre site. En mai dernier, la société basée à San Francisco qui promet de filtrer les contenus “toxiques” avait déjà fait parler d’elle. Un ancien modérateur responsable de Facebook en Afrique de l’Est et en Afrique australe avait déposé plainte contre l’entreprise basée à Nairobi, au Kenya, et contre Meta. Il accusait celle-ci d’atteinte à la vie privée, de méthodes d’embauche trompeuses, mais aussi d’irrégularités de rémunération. Une plainte qui n’a visiblement pas servi de leçon, puisque dans le cadre de son partenariat avec OpenAI, Sama est une nouvelle fois accusée d’avoir sous-payé ses travailleurs.

    Ceux-ci auraient été payés entre 1,32 et 2 dollars (soit moins de deux euros) de l’heure, en fonction de leur ancienneté, pour s’assurer que ChatGPT ne s’exprime pas de manière inappropriée. Il faut dire que ses prédécesseurs, tels que GPT-3, avaient la fâcheuse habitude de tenir des propos sexistes, racistes et violents. Cela s’explique par le fait que le chatbot produit ses réponses grâce aux informations trouvées sur Internet, et, on le sait, tout le contenu en ligne n’est pas forcément “politiquement correct”. Raison pour laquelle OpenAI avait besoin d’un filtre (humain) supplémentaire pour son nouveau robot intelligent.

    Les travailleurs kényans ont été ainsi chargés de lire et comprendre des textes parfois extrêmement violents pour le compte d’OpenAI. L’un d’eux a confié au Time souffrir de visions récurrentes après avoir lu la description très crue d’un homme ayant un rapport sexuel avec un chien en présence d’un enfant. “C’était de la torture. Toute la semaine, vous devez lire des déclarations semblables, et le vendredi, vous êtes perturbé en pensant à ces images.”

    La collaboration entre OpenAi et Sama s’est terminée de manière abrupte en février dernier, soit huit mois avant la fin du contrat. La société californienne explique que la maison mère de ChatGPT lui a demandé de travailler sur des contenus classés dans “certaines catégories illégales”, alors que cela n’était pas prévu dans l’accord. Et OpenAI de se défendre: “Nous n’avons jamais eu l’intention de collecter du contenu de catégorie C4 (abus sexuels sur enfants, NDLR). (…) Dès que Sama nous a informés qu’ils essayaient de collecter du contenu de cette catégorie, nous avons clarifié les choses et dit que nous ne souhaitions pas ce genre de choses.”

    Concernant la rémunération des travailleurs, OpenAI botte en touche, affirmant avoir payé Sama 12,50 dollars (moins de douze euros) de l’heure, soit six à neuf fois plus que le salaire effectivement perçu par les travailleurs kényans. Selon le porte-parole de Sama, ce montant dérisoire devait couvrir les coûts de l’entreprise, depuis les dépenses d’infrastructures jusqu’aux salaires, en passant par les avantages versés aux associés.

    Source: https://www.7sur7.be/tech/des-travailleurs-kenyans-exploites-pour-filtrer-les-contenus-toxiques-de-chatgpt-cetait-de-la-torture~ad9138e0/

    When Pigs Fly.

    1 réponse Dernière réponse
    0
  • Ancien 001undefined Hors-ligne
    Ancien 001undefined Hors-ligne
    Ancien 001 Trolls Banni
    a écrit sur dernière édition par
    #18

    Un peu comme ceux qui installent la fibre proximus ^^

    1 réponse Dernière réponse
    0
  • Polluxundefined Hors-ligne
    Polluxundefined Hors-ligne
    Pollux Trolls Banni
    a écrit sur dernière édition par
    #19

    Cette vidéo parle du plus grand danger, selon moi, à accepter, normaliser et encourager le développement d’algorithmes comme #ChatGPT. Ce danger est celui du #cybercrime, aujourd’hui plus puissant que les GAFAM réunis.

    1 réponse Dernière réponse
    1
  • mekasundefined Hors-ligne
    mekasundefined Hors-ligne
    mekas Membre
    a répondu à DarkCainou le dernière édition par
    #20

    @DarkCainou Je viens seulement de regarder cette vidéo. Très intéressante sur le mode de fonctionnement de ChatGPT, et permettant de faire connaissance de “Tournesol” ! 🙂

    1 réponse Dernière réponse
    0
  • duJambonundefined En ligne
    duJambonundefined En ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par
    #21

    Comment faire du fric avec chatgpt

    When Pigs Fly.

    Un Ancien Utilisateur? 1 réponse Dernière réponse
    0
  • Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur
    a répondu à duJambon le dernière édition par
    #22

    @duJambon A c’prix là, ça risque de coincer. :colgate:
    Complètement hors sol !

    1 réponse Dernière réponse
    0
  • duJambonundefined En ligne
    duJambonundefined En ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par duJambon
    #23

    ChatGPT se trahit avec des «œufs de vaches»

    Le chatbot fait aussi des erreurs qui le trahissent. Bien qu’il puisse produire des textes qui donnent la sensation d’avoir été écrits par un humain, il ne s’agit en fait que d’un outil de prédiction de texte très puissant, a souligné M. Vanoncini. «Il n’est pas créé pour affirmer ce qui est vrai… mais pour générer ce qui est probable.» Par conséquent, on peut poser à ChatGPT une question basée sur une hypothèse erronée et recevoir une réponse apparemment logique, mais profondément erronée.

    «J’ai demandé: comment doit-on ramasser les œufs de vache?» raconte le professeur, faisant éclater de rire l’audience. ChatGPT conseille d’abord de mettre des gants pour éviter d’avoir des bactéries sur ses mains, puis donne des conseils pour trouver un nid de vache, «généralement fait de foin ou de paille».

    Source et plus: https://www.lematin.ch/story/a-geneve-chatgpt-se-trahit-avec-des-ufs-de-vaches-860304181436

    When Pigs Fly.

    1 réponse Dernière réponse
    :ahah:
    0






©2025 planete-warez.net
L'actualité Warez & underground en continu
Icône café Faire un don
Politique   RGPD  @dev  Sudonix
    • Se connecter

    • Vous n'avez pas de compte ? S'inscrire

    • Connectez-vous ou inscrivez-vous pour faire une recherche.
    • Premier message
      Dernier message
    0
    • Catégories
      • Toutes les catégories
      • Planète Warez
        Présentations
        Aide & Commentaires
        Réglement & Annonces
        Tutoriels
      • IPTV
        Généraliste
        Box
        Applications
        VPN
      • Torrent & P2P
      • Direct Download et Streaming
      • Autour du Warez
      • High-tech : Support IT
        Windows, Linux, MacOS & autres OS
        Matériel & Hardware
        Logiciel & Software
        Smartphones & Tablettes
        Graphismes
        Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
        Tutoriels informatiques
      • Culture
        Actualités High-Tech
        Cinéma & Séries
        Sciences
        Musique
        Jeux Vidéo
      • Humour & Insolite
      • Discussions générales
      • Espace détente
      • Les cas désespérés
    • Récent
    • Populaire
    • Résolu
    • Non résolu