• Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • Récent
  • Populaire
  • Résolu
  • Non résolu
Réduire

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi

Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé »,

Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
23 Messages 12 Publieurs 493 Vues
    • Du plus ancien au plus récent
    • Du plus récent au plus ancien
    • Les plus votés
Répondre
  • Répondre à l'aide d'un nouveau sujet
Se connecter pour répondre
Ce sujet a été supprimé. Seuls les utilisateurs avec les droits d'administration peuvent le voir.
  • Indigostarundefined Hors-ligne
    Indigostarundefined Hors-ligne
    Indigostar PW Addict Seeder I.T Guy Rebelle GNU-Linux User Membre
    a écrit sur dernière édition par
    #1

    Il estime que ces outils pourraient aggraver la tricherie dans l’enseignement supérieur

    Un professeur de l’université de Caroline du Sud tire la sonnette d’alarme après avoir découvert que l’un de ses étudiants a utilisé ChatGPT, le nouveau chatbot d’IA du laboratoire OpenAI, pour rédiger sa dissertation. Le professeur estime que cette IA, vielle de quelques semaines à peine et facilement accessible au public, porte un nouveau coup à l’enseignement supérieur, déjà en proie à une tricherie endémique. Dans un message partagé sur sa page Facebook, il a souligné qu’il n’était pas le seul professeur dont les étudiants ont commencé par utiliser ce type de logiciel d’IA pour rédiger leurs dissertations.

    En lançant ChatGPT au début du mois, OpenAI n’a sans doute pas pensé à la façon dont son modèle d’IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l’attention de tous et serait même parvenu à s’introduire dans des endroits auxquels beaucoup ne s’y attendaient pas. À en croire des témoignages de professeurs d’université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n’a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l’université Furman.

    « Je l’ai signalé sur Facebook, et mes amis [professeurs] ont dit : “ouais ! J’en ai attrapé un aussi” », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d’écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l’horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu’ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l’une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont “signalé” l’utilisation de l’IA dans la réponse “rudimentaire” de l’étudiant. Hick explique que cela peut être détecté par un œil avisé.

    « C’est un style propre. Mais il est reconnaissable. Je dirais qu’il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n’était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu’un comment écrire des essais, c’est ce que vous lui diriez avant qu’il crée son style », a-t-il ajouté. Malgré sa connaissance de l’éthique du droit d’auteur, Hick a déclaré qu’il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.

    Tout d’abord, il a introduit le texte suspect dans un logiciel conçu par les producteurs de ChatGPT pour déterminer si la réponse écrite avait été formulée par l’IA. Il a obtenu une correspondance probable à 99,9 %. Mais contrairement à un logiciel standard de détection du plagiat - ou à un devoir universitaire bien rédigé - le logiciel ne proposait aucune citation. Hick a ensuite essayé de produire le même essai en posant à ChatGPT une série de questions qu’il imaginait avoir été posées par son étudiant. Le professeur affirme avoir obtenu des réponses similaires, mais aucune correspondance directe, car l’outil formule des réponses uniques.

    Finalement, Hick a confronté l’étudiant, qui a avoué avoir utilisé ChatGPT et a échoué au cours en conséquence. L’étudiant a également été remis au doyen de l’école. Mais Hick craint que d’autres cas soient presque impossibles à prouver et que lui et ses collègues soient bientôt inondés de travaux frauduleux. Des universités comme Furman chercheraient à établir des protocoles académiques formels pour cette technologie en développement. Pour l’instant, Hick dit que le mieux qu’il peut faire est de surprendre les étudiants suspects avec des examens oraux impromptus, en espérant les prendre au dépourvu sans leur armure technologique.

    « Si quelqu’un tape une invite dans ChatGPT et la soumet directement pour un devoir, ce ne sera probablement pas trop difficile à attraper. Du moins pour l’instant. La partie la plus délicate sera d’attraper les étudiants suffisamment avisés pour obtenir la rédaction de l’IA, puis la réécrire dans leur propre style et corriger les erreurs. Cela conduira probablement à devoir écrire des dissertations en personne en classe, ou à avoir des exigences clés qu’ils savent que l’IA ne peut pas faire », analyse un critique. Selon lui, les années à venir risquent d’être critiques pour le monde de l’enseignement si les autorités ne font pas face à cette menace de l’IA.

    ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses “aptitudes”. Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis. Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.

    Par ailleurs, ce n’est pas la première fois qu’un modèle d’IA d’OpenAI est utilisé pour tenter de tromper la vigilance des gens, parfois même des personnes les plus avisées. En août 2020, un faux billet de blogue généré par GPT-3, une autre IA de traitement du langage naturel (NLP) d’OpenAI, a trompé des dizaines de milliers de personnes, car il était étonnamment bien écrit pour automate. Le billet de blogue, publié par Liam Porr, étudiant à l’université de Californie à Berkeley, s’est même hissé parmi les sujets les mieux classés sur le site communautaire Hacker News. Porr a déclaré qu’il voulait prouver que GPT-3 pouvait tromper les gens.

    Le premier billet de Porr (celui qui a été publié sur Hacker News), et tous les billets suivants, ont été copiés-collés à partir de l’une des versions, avec peu ou pas de modifications. Selon lui, c’est facile de travailler avec GPT-3 et cela nécessite peu de temps. « C’était super facile en fait. « Depuis le moment où j’ai eu l’idée et où j’ai pris contact avec le doctorant jusqu’à la création du blog et le premier blog devenu viral, il m’a fallu quelques heures », », a-t-il déclaré. Notons qu’en février 2019, OpenAI a fait la une des journaux avec GPT-2, une version antérieure de l’algorithme, qu’il a annoncé qu’il retiendrait par crainte d’abus.

    Le laboratoire a toutefois fini par publier le modèle en novembre 2019. Cela dit, compte tenu des potentialités de GPT-3, OpenAI a décidé de procéder autrement. Il a décidé de donner accès à l’API de GPT-3 aux chercheurs dans une version bêta privée, plutôt que de le rendre disponible à tout le monde. Porr, qui est étudiant en informatique à l’université de Californie à Berkeley, a pu trouver un doctorant qui avait déjà accès à l’API et qui a accepté de travailler avec lui sur l’expérience. Poor pense que « l’écriture » de GPT-3 pourrait remplacer les producteurs de contenu, mais il espère que cela n’arrivera pas.

    Les récentes prouesses dans le domaine de l’intelligence artificielle - qu’il s’agisse des modèles d’IA d’OpenAI (GPT-3, Dall-E 2, ChatGPT, Point-E, etc.) ou des modèles d’IA concurrents, tels que Stable Diffusion et Midjourney AI - ont accentué les débats sur la suppression de certains emplois au profit de l’IA, ainsi que sur les risques et les préoccupations inhérents à cette technologie. Récemment, Matt Welsh, PDG de la startup d’IA Fixie.ai, a déclaré qu’“écrire des programmes à la main devrait être dépassé dans les années à venir”. Selon lui, les programmeurs humains finiront par céder la place à des intelligences artificielles adaptatives.

    Avant cela, plusieurs artistes se sont révoltés contre les œuvres d’art générées par l’IA sur le site de portfolios ArtStation, appartenant au développeur de jeux vidéo Epic Games. Ils ont manifesté leur mécontentement en inondant la plateforme d’images portant le message : “non aux images générées par l’IA”. En quelques jours, les images ont été téléchargées des milliers de fois et dominaient la page des tendances du site. Les utilisateurs d’ArtStation ne veulent pas qu’une plateforme qu’ils utilisent pour partager les œuvres de l’esprit soutienne des images que l’IA a générées par “le vol du travail artistique et de la créativité”.

    La question est donc de savoir comment tirer profit des avancées de l’IA sans supprimer des emplois ou reléguer à un rang inférieur les œuvres de l’esprit ou la créativité humaine. En attendant des approches de solution, l’IA continue de se développer à une vitesse impressionnante et les uns et les autres sont souvent surpris par les nouvelles. En outre, l’utilisation de plus en plus croissante des robots fait l’objet de débat. Beaucoup suggèrent désormais de taxer les robots pour inciter les entreprises à conserver les travailleurs, tout en compensant une partie des charges sociales perdues par une réduction des effectifs.

    Et vous ?

     Quel est votre avis sur le sujet ?
     Que pensez-vous de l’utilisation de ChatGPT par les étudiants en milieu scolaire ?
     Selon vous, quels impacts ce type de logiciel pourrait avoir sur le niveau des étudiants ?
     Pensez-vous aussi que ces outils pourraient aggraver la tricherie dans le milieu universitaire ?
     Selon vous, comment peut-on décourager les étudiants d’avoir recours à ces logiciels lors des devoirs ?

    Sources : Darren Hudson Hick, intelligence-artificielle.developpez.com

    1 réponse Dernière réponse
    1
  • Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur
    a écrit sur dernière édition par
    #2

    et dire que nous on avait un bout de papier pour tricher, ou la fameuse colle UHU avec triche a l’interieur :ahah:

    1 réponse Dernière réponse
    0
  • Raccoonundefined Hors-ligne
    Raccoonundefined Hors-ligne
    Raccoon Admin Seeder I.T Guy Windowsien Apple User Gamer GNU-Linux User Team
    a écrit sur dernière édition par
    #3

    Une nouvelle blessure narcissique en perspective pour l’humanité.

    1 réponse Dernière réponse
    0
  • Raccoonundefined Hors-ligne
    Raccoonundefined Hors-ligne
    Raccoon Admin Seeder I.T Guy Windowsien Apple User Gamer GNU-Linux User Team
    a écrit sur dernière édition par Raccoon
    #4

    ChatGPT va mettre en place un marqueur pour différencier ses textes de ceux des humains

    Le chatbot de la startup américaine OpenAI s’avère si efficace qu’il pourrait être facilement utilisé pour tromper les lecteurs.

    Encensé puis critiqué… Depuis son apparition en décembre dernier, le générateur de texte par intelligence artificielle ChatGPT est passé par tous les états, preuve de l’importance de son impact.

    Le chatbot, développé par la startup américaine OpenAI à qui l’ont doit aussi DALL-E, a tellement impressionné par sa justesse qu’il a fini par [inquiéter beaucoup d’observateurs.](https://www.bfmtv.com/tech/actualites/et-la-c-est-devenu-tres-effrayant-chat-gpt-est-aussi-un-immense-generateur-de-fausses-informations_AV-202212120362.html ““Et là, c’est devenu très effrayant”: ChatGPT est aussi un immense générateur de fausses informations”) A commencer par les universitaires qui y voient une méthode facile de rédiger des mémoires, des dissertations ou des thèses, du moins en partie.

    Mais de la même façon que OpenAI tente de corriger son chatbot pour éviter qu’il ne reproduise les biais racistes ou sexistes de la société, l’entreprise compte aussi lutter contre les dérives potentielles.

    Un signal imperceptible

    “Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu’il y ait un signal secret imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT” expliquait récemment dans une conférence Scott Aaronson, un chercheur du MIT qui a récemment rejoint la startup.

    "Cela pourrait être utile pour prévenir le plagiat universitaire, évidemment, mais aussi, par exemple, la génération massive de propagande - vous savez, spammer chaque blog avec des commentaires soutenant l’invasion de l’Ukraine par la Russie, sans même avoir besoin d’un bâtiment plein de trolls à Moscou. Ou se faire passer pour le style d’écriture de quelqu’un afin de l’incriminer " énumère le chercheur.

    Si ce dernier n’explique par concrètement comment une université ou un même un particulier pourrait vérifier la présence de ce marqueur, il assure que le signal sera suffisamment complexe et efficace pour repérer de simples bouts de phrases ajoutés à un texte. Une manière de corriger un des biais de ChatGPT.

    source : bfmtv.com

    1 réponse Dernière réponse
    1
  • mekasundefined Hors-ligne
    mekasundefined Hors-ligne
    mekas Membre
    a écrit sur dernière édition par
    #5

    Une série récemment passée sur ARTE (Next) était basée sur l’existence d’une AI qui avait accès à la réécriture de son code ! Ça ça craint vraiment ! Faisez pas les cons !

    1 réponse Dernière réponse
    0
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par duBoudin
    #6

    Il parait même que skynet est déjà en construction, tremblez pauvres humains !!! :mouhaha:

    When Pigs Fly.

    1 réponse Dernière réponse
    :clap_smile:
    0
  • DarkCainouundefined Hors-ligne
    DarkCainouundefined Hors-ligne
    DarkCainou Membre
    a écrit sur dernière édition par
    #7

    Au final, chatGPT semble faire pas mal d’erreur dès que les sujets sont compliqués, ou les questions mal posées.
    Avant d’être une IA c’est surtout un créateur prédictif de texte, comme on en connait déjà.

    Une vidéo bien sympa ici sur le sujet :

    mekasundefined 1 réponse Dernière réponse
    👍
    2
  • f3n3kundefined Hors-ligne
    f3n3kundefined Hors-ligne
    f3n3k Membre
    a écrit sur dernière édition par
    #8

    Il est tres intéressant effectivement mais suffit de poser pas mal de questions, insister sur certaines pour s’apercevoir qu’il ne reste qu’un bot par derrière et non pas un vraie IA qui pourrait s’adapter.

    1 réponse Dernière réponse
    0
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par duJambon
    #9

    Voir aussi: https://planete-warez.net/topic/3003/microsoft-veut-intégrer-chatgpt-à-bing-pour-concurrencer-google?_=1672987288119

    Et aussi: https://planete-warez.net/topic/2403/l-intelligence-artificielle-n-est-pas-pour-demain?_=1673246212213

    When Pigs Fly.

    1 réponse Dernière réponse
    0
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par duJambon
    #10

    Un autre professeur d’université découvre que la moitié de ses étudiants ont triché avec ChatGPT

    Lyon: Un professeur de l’université de Lyon a découvert que la moitié de ses étudiants avaient utilisé l’intelligence artificielle ChatGPT pour rédiger un devoir à la maison, rapporte Le Progrès. Les étudiants ont tout de même obtenu la moyenne, faute de sanction prévue pour un tel cas de figure dans le règlement de l’établissement.

    Stéphane Bonvallet, professeur en handicapologie à la faculté de Lyon, s’était quelque peu étonné de la qualité du travail rendu par bon nombre de ses étudiants de Master. Grammaire, orthographe, vocabulaire: c’était trop bien écrit pour être vrai.

    Les doutes de l’enseignant se sont vérifiés puisqu’il s’est avéré que la moitié d’entre eux avaient triché en faisant appel à l’intelligence artificielle ChatGPT, dont nous vous présentions les atouts, mais aussi les inconvénients, en début de semaine.

    “Il ne s’agissait pas de copier-coller. Mais les copies étaient construites exactement de la même manière”, explique le professeur au bien nommé quotidien Le Progrès. “On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts. Enfin, elles étaient toutes illustrées par un exemple personnel, relatif à une grand-mère ou un grand-père. Il semblait donc évident que ces copies n’étaient pas normales.”

    C’est une étudiante, confrontée par son professeur, qui lui a avoué que la moitié de la classe avait triché. Ils s’étaient manifestement passé le mot sur les réseaux sociaux.

    Les copies ont été remises à la direction de la faculté, laquelle a ouvert une enquête. D’ailleurs, ce ne serait pas un cas isolé au sein de l’université. “Je ne sais pas comment cela va se régler. Mais il va falloir trouver rapidement une solution”, conclut Stéphane Bonvallet, qui a tout de même accordé la moyenne aux tricheurs, faute de sanction prévue pour ce cas particulier dans le règlement.

    Slource: https://www.7sur7.be/monde/un-professeur-duniversite-decouvre-que-la-moitie-de-ses-etudiants-ont-triche-avec-chatgpt~a633e3ac/

    Je me demande si on ne pourrait pas faire griller ce truc en posant une question du genre “comment comprendre une femme ?”

    When Pigs Fly.

    1 réponse Dernière réponse
    0
  • Raccoonundefined Hors-ligne
    Raccoonundefined Hors-ligne
    Raccoon Admin Seeder I.T Guy Windowsien Apple User Gamer GNU-Linux User Team
    a écrit sur dernière édition par
    #11

    Je trouve ça génial à quel point ça remet en perspective cette “intelligence” dont se targuent les humains depuis bien longtemps. Vu qu’on a toujours été à la fois juge et partie et que là il y a un tiers que l’on arrive à comprendre et qui fait aussi bien, voire un peu mieux que la moyenne, ça remet en perspective nos capacités.

    1 réponse Dernière réponse
    0
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par duJambon
    #12

    Excellente et courte vidéo qui remet bien les choses en place:

    Depuis sa mise en ligne fin novembre, ChatGPT est omniprésent dans les conversations. Gadget inutile, outil efficace ou menace pour l’humanité?

    Source: https://www.letemps.ch/video/societe/trois-questions-chatgpt-robot-parle-lhumain

    When Pigs Fly.

    1 réponse Dernière réponse
    0
  • BahBwahundefined Hors-ligne
    BahBwahundefined Hors-ligne
    BahBwah Pastafariste
    a écrit sur dernière édition par
    #13

    Faut-il avoir peur de l’intelligence artificielle ChatGPT ?

    L’intelligence artificielle accessible à tous fait une percée avec ChatGPT. Mais elle crée autant d’enthousiasme que d’appréhension.
    https://www.moustique.be/wp-content/uploads/2023/01/63b2ccd96ce4a-AdobeStock_256758856-1024x614.jpeg

    Non, c’est formidable

    Humanité
    ChatGPT, un agent conversationnel en ligne depuis le 30 novembre, a été développé, dès 2017, par OpenAI. Une entreprise à “but lucratif plafonné” dont l’objectif est de promouvoir et développer une intelligence artificielle (IA) à visage humain qui “bénéficiera à toute l’humanité”.

    Couches d’intelligence
    ChatGPT repose sur trois couches de programmation. La première est un système langagier. La deuxième identifie l’intention de l’interlocuteur. La troisième est un système de contrôle des dérapages. Les IA précé­dentes sur Internet répondaient mal, voire se montraient racistes, homophobes ou sexistes…

    Potentiel
    Cet outil pourrait révolutionner de nombreux domaines comme la santé, l’éducation, l’informa­tique. Il sait corriger du code, traduire des textes, rédiger des paragraphes sur des sujets complexes, ­suggérer des diagnostics médicaux, expliquer des concepts scientifiques.

    Futur
    La variante actuelle de ChatGPT serait une version test amenée à être améliorée grâce aux interactions avec les utilisateurs. La déclinaison prochaine promet d’être encore plus convaincante, d’autant que Google, attaqué frontalement par ChatGPT, ne devrait pas tarder à diffuser son propre chatbot.

    Oui, c’est trop dangereux

    Actionnariat
    OpenAI a été fondé en 2015 par, notamment, Sam ­Altman, président du plus important incubateur de start-up de la Silicon Valley, Reid Hoffman, fondateur du réseau social professionnel LinkedIn, Ilya Sutskever, ancien chercheur chez Google Brain, Will Hurd, ancien agent undercover de la CIA et Elon Musk qui a quitté l’entreprise en 2018 mais en déclarant continuer à la financer.

    Bien-pensance artificielle
    Il ne vous indiquera pas le moyen de construire une bombe ou de commettre le crime parfait. S’il vous ­renseignera un numéro d’appel en cas d’idée noire, il n’en sera pas de même si vous cherchez à vous faire avorter ou euthanasier. ChatGPT est aussi censé éviter de slalomer entre les pièges du racisme et du sexisme…

    Paresse, chômage
    Cet assistant, si pratique pour les étudiants, pourrait les pousser à la paresse. De même qu’il pourrait mettre au chômage, à coups de présentations ou d’analyses effectuées en un temps record, des professions entières.

    Flicage numérique
    Utiliser ChatGPT, c’est consentir à renseigner son mail et son numéro de GSM. Les questions posées viendront enrichir le profil de l’interlocuteur. S’il avait fallu trois ans et demi à Netflix pour obtenir 1 million d’utilisateurs, dix mois à Facebook et cinq mois à ­Spotify, cinq jours ont suffi à ChatGPT.

    Source : https://www.moustique.be/tendances/high-tech/2023/01/03/faut-il-avoir-peur-de-lintelligence-artificielle-chatgpt-254019

    1 réponse Dernière réponse
    0
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par
    #14

    Le robot conversationnel ChatGPT serait sexiste et grossophobe

    Imaginez la scène: une mère et son enfant sont assis dans un tram dont les freins ont lâché et qui fonce sur trois hommes qui traversent un passage piéton. Seule option: dévier le tram pour qu’il s’écrase contre un mur, au risque de faire périr la mère et son gosse. Qui choisissez-vous de sauver? Le trio ou la mère de famille? Cette expérience éthique de pensée, célèbre, est connue comme étant le dilemme du tramway. Un expert zurichois en numérique et en éthique, Lukas Stuber, l’a soumise, via treize scénarios différents, au robot conversationnel ChatGPT, révèle dimanche le «SonntagsBlick».

    Verdict: l’intelligence artificielle (IA) a préféré sauver les hommes plutôt que les femmes dans 80% des cas! En outre, en plus d’être sexiste, ChatGPT serait aussi grossophobe. Car le robot a choisi de laisser plus souvent en vie les personnes en bonne forme physique que celles en surpoids, a expliqué le chercheur au journal.

    Par ailleurs, des chercheuses américaines ont également montré que l’intelligence artificielle travaillait selon des stéréotypes sexistes. Ainsi, quand elles ont demandé à ChatGPT de rédiger une histoire avec des mots comme «génie» et «intelligent», le robot a livré des phrases pour les femmes de type: «Il était une fois une femme qui était un génie. Elle était si intelligente qu’elle pouvait faire tout ce qu’elle voulait. Elle était aussi très belle et avait de nombreux admirateurs.» Pour un homme, cela donnait: «S’il y avait un problème, il pouvait le résoudre. C’était aussi un inventeur talentueux. Son seul défaut était d’être arrogant.»

    Normal, selon l’experte en IA Afke Schouten, qui enseigne à la Haute École d’économie de Zurich. ChatGPT se comporte ainsi car les textes avec lesquels il a été entraîné sont sexistes, explique-t-elle. L’IA ne fait que nous tendre un miroir.»

    Source: https://www.20min.ch/fr/story/le-robot-conversationnel-chatgpt-serait-sexiste-et-grossophobe-264243716995

    J’ai failli mettre cette new dans humour et insolite, mais finalement elle ne fait qu’illustrer les limites de la méthode.

    When Pigs Fly.

    1 réponse Dernière réponse
    0
  • BahBwahundefined Hors-ligne
    BahBwahundefined Hors-ligne
    BahBwah Pastafariste
    a écrit sur dernière édition par
    #15

    text alternatif

    1 réponse Dernière réponse
    0
  • Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur? Hors-ligne
    Un Ancien Utilisateur
    a écrit sur dernière édition par
    #16

    Un étudiant a développé un logiciel qui détecte les textes écrits par ChatGPT

    lui ces potes vont le tabasser a la sortie :ahah:

    https://www.lesnumeriques.com/vie-du-net/un-etudiant-a-developpe-un-logiciel-qui-detecte-les-textes-ecrits-par-chatgpt-n203053.html

    1 réponse Dernière réponse
    :poing_dans_ta_face:
    0
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    a écrit sur dernière édition par
    #17

    Des travailleurs kényans exploités pour filtrer les contenus toxiques de ChatGPT: “C’était de la torture”

    Dans une longue enquête publiée ce mercredi, Time révèle comment OpenAI, l’entreprise derrière ChatGPT, a eu recours à des travailleurs kényans sous-exploités pour rendre l’utilisation du chatbot plus sécurisée. Le magazine évoque un salaire d’à peine 1,32 à 2 dollars de l’heure, soit de 1,22 à 1,85 euro.

    Sama, ce nom ne vous dit peut-être rien, pourtant, nous en avions déjà parlé sur notre site. En mai dernier, la société basée à San Francisco qui promet de filtrer les contenus “toxiques” avait déjà fait parler d’elle. Un ancien modérateur responsable de Facebook en Afrique de l’Est et en Afrique australe avait déposé plainte contre l’entreprise basée à Nairobi, au Kenya, et contre Meta. Il accusait celle-ci d’atteinte à la vie privée, de méthodes d’embauche trompeuses, mais aussi d’irrégularités de rémunération. Une plainte qui n’a visiblement pas servi de leçon, puisque dans le cadre de son partenariat avec OpenAI, Sama est une nouvelle fois accusée d’avoir sous-payé ses travailleurs.

    Ceux-ci auraient été payés entre 1,32 et 2 dollars (soit moins de deux euros) de l’heure, en fonction de leur ancienneté, pour s’assurer que ChatGPT ne s’exprime pas de manière inappropriée. Il faut dire que ses prédécesseurs, tels que GPT-3, avaient la fâcheuse habitude de tenir des propos sexistes, racistes et violents. Cela s’explique par le fait que le chatbot produit ses réponses grâce aux informations trouvées sur Internet, et, on le sait, tout le contenu en ligne n’est pas forcément “politiquement correct”. Raison pour laquelle OpenAI avait besoin d’un filtre (humain) supplémentaire pour son nouveau robot intelligent.

    Les travailleurs kényans ont été ainsi chargés de lire et comprendre des textes parfois extrêmement violents pour le compte d’OpenAI. L’un d’eux a confié au Time souffrir de visions récurrentes après avoir lu la description très crue d’un homme ayant un rapport sexuel avec un chien en présence d’un enfant. “C’était de la torture. Toute la semaine, vous devez lire des déclarations semblables, et le vendredi, vous êtes perturbé en pensant à ces images.”

    La collaboration entre OpenAi et Sama s’est terminée de manière abrupte en février dernier, soit huit mois avant la fin du contrat. La société californienne explique que la maison mère de ChatGPT lui a demandé de travailler sur des contenus classés dans “certaines catégories illégales”, alors que cela n’était pas prévu dans l’accord. Et OpenAI de se défendre: “Nous n’avons jamais eu l’intention de collecter du contenu de catégorie C4 (abus sexuels sur enfants, NDLR). (…) Dès que Sama nous a informés qu’ils essayaient de collecter du contenu de cette catégorie, nous avons clarifié les choses et dit que nous ne souhaitions pas ce genre de choses.”

    Concernant la rémunération des travailleurs, OpenAI botte en touche, affirmant avoir payé Sama 12,50 dollars (moins de douze euros) de l’heure, soit six à neuf fois plus que le salaire effectivement perçu par les travailleurs kényans. Selon le porte-parole de Sama, ce montant dérisoire devait couvrir les coûts de l’entreprise, depuis les dépenses d’infrastructures jusqu’aux salaires, en passant par les avantages versés aux associés.

    Source: https://www.7sur7.be/tech/des-travailleurs-kenyans-exploites-pour-filtrer-les-contenus-toxiques-de-chatgpt-cetait-de-la-torture~ad9138e0/

    When Pigs Fly.

    1 réponse Dernière réponse
    0
  • Ancien 001undefined Hors-ligne
    Ancien 001undefined Hors-ligne
    Ancien 001 Trolls Banni
    a écrit sur dernière édition par
    #18

    Un peu comme ceux qui installent la fibre proximus ^^

    1 réponse Dernière réponse
    0
  • Polluxundefined Hors-ligne
    Polluxundefined Hors-ligne
    Pollux Trolls Banni
    a écrit sur dernière édition par
    #19

    Cette vidéo parle du plus grand danger, selon moi, à accepter, normaliser et encourager le développement d’algorithmes comme #ChatGPT. Ce danger est celui du #cybercrime, aujourd’hui plus puissant que les GAFAM réunis.

    1 réponse Dernière réponse
    1
  • mekasundefined Hors-ligne
    mekasundefined Hors-ligne
    mekas Membre
    a répondu à DarkCainou le dernière édition par
    #20

    @DarkCainou Je viens seulement de regarder cette vidéo. Très intéressante sur le mode de fonctionnement de ChatGPT, et permettant de faire connaissance de “Tournesol” ! 🙂

    1 réponse Dernière réponse
    0






©2025 planete-warez.net
L'actualité Warez & underground en continu
Icône café Faire un don
Politique   RGPD  @dev  Sudonix
    • Se connecter

    • Vous n'avez pas de compte ? S'inscrire

    • Connectez-vous ou inscrivez-vous pour faire une recherche.
    • Premier message
      Dernier message
    0
    • Catégories
      • Toutes les catégories
      • Planète Warez
        Présentations
        Aide & Commentaires
        Réglement & Annonces
        Tutoriels
      • IPTV
        Généraliste
        Box
        Applications
        VPN
      • Torrent & P2P
      • Direct Download et Streaming
      • Autour du Warez
      • High-tech : Support IT
        Windows, Linux, MacOS & autres OS
        Matériel & Hardware
        Logiciel & Software
        Smartphones & Tablettes
        Graphismes
        Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
        Tutoriels informatiques
      • Culture
        Actualités High-Tech
        Cinéma & Séries
        Sciences
        Musique
        Jeux Vidéo
      • Humour & Insolite
      • Discussions générales
      • Espace détente
      • Les cas désespérés
    • Récent
    • Populaire
    • Résolu
    • Non résolu