• Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • Récent
  • Populaire
  • Résolu
  • Non résolu
Réduire

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi

Apple a renoncé à détecter les contenus pédocriminels pour éviter la surveillance de masse

Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
applesurveillancepédocriminalité
1 Messages 1 Publieurs 60 Vues
    • Du plus ancien au plus récent
    • Du plus récent au plus ancien
    • Les plus votés
Répondre
  • Répondre à l'aide d'un nouveau sujet
Se connecter pour répondre
Ce sujet a été supprimé. Seuls les utilisateurs avec les droits d'administration peuvent le voir.
  • Raccoonundefined En ligne
    Raccoonundefined En ligne
    Raccoon Admin Seeder I.T Guy Windowsien Apple User Gamer GNU-Linux User Team
    a écrit sur dernière édition par
    #1

    Alors qu’une ONG s’apprête à faire pression sur Apple afin qu’elle « détecte, signale et supprime » les contenus pédocriminels, la société explique pourquoi elle a renoncé à son projet décrié de surveillance du cloud chiffré.

    Dans un geste suffisamment rare pour être noté, soulignent Wired et le cryptographe

    , Apple vient d’expliquer pourquoi la société avait finalement décidé, en décembre dernier, de mettre un terme à son controversé projet de détection des contenus à caractère pédopornographique (child sexual abuse material, ou CSAM) sur iCloud.

    En réponse à un courrier de la Heat Initiative, une ONG qui lui demandait de « détecter, signaler et supprimer » les CSAM, Erik Neuenschwander, directeur de la protection de la vie privée des utilisateurs et de la sécurité des enfants chez Apple, explique en effet que « l’analyse des données iCloud privées de chaque utilisateur créerait de nouveaux vecteurs d’attaques que des pirates pourraient trouver et exploiter » :

    « Cela pourrait nous amener sur une pente glissante avec des conséquences imprévues. La recherche d’un type de contenu ouvre la porte à la surveillance en masse et pourrait donner l’envie de rechercher tout type de contenu dans d’autres systèmes de messagerie chiffrée. Nous avons conclu qu’il n’était pas possible de la mettre en œuvre sans mettre en péril la sécurité et la vie privée de nos utilisateurs. »

    • | Apple entre renonciations, reports et grogne des employés
    • | Pédopornographie : Apple s’explique, mais la colère et les craintes restent
    • | Apple va chercher des contenus pédopornographiques dans les iPhone américains

    Erik Neuenschwander précise être parvenu à cette conclusion après avoir consulté de nombreux chercheurs en matière de sécurité et de protection de la vie privée, des groupes de défense des droits numériques et de la sécurité des enfants.

    • Lettre d’Apple à la Heat Initiative

    « S’ils ne le peuvent pas, personne ne le peut »

    La Heat Initiative s’était déclarée déçue qu’Apple abandonne son projet, arguant qu’« Apple est l’une des entreprises les plus prospères au monde et dispose d’une armée d’ingénieurs de classe mondiale » :

    « Il est de leur responsabilité de concevoir un environnement sûr et respectueux de la vie privée qui permette de détecter les images et les vidéos d’abus sexuels d’enfants connus. Tant que les gens pourront partager et stocker dans iCloud une image connue d’un enfant en train de se faire violer, nous exigerons qu’ils fassent mieux. »

    « La déclaration d’Apple sonne le glas de l’idée selon laquelle il est possible de scanner les communications de chacun ET de préserver la confidentialité », a

    Meredith Whittaker, chercheuse spécialisée en éthique de l’intelligence artificielle et présidente de la Signal Foundation, qui chapeaute l’application éponyme :

    « Apple possède plusieurs des meilleurs cryptographes + ingénieurs en génie logiciel au monde + $ infinis. S’ils ne le peuvent pas, personne ne le peut. (Ils ne le peuvent pas. Personne ne le peut.) »

    Le manque d’intimité est aussi une menace pour la sécurité

    Le New York Times n’en relève pas moins que Heat Initiative a réussi à lever 2 millions de dollars afin de lancer une « campagne publicitaire nationale » sur des sites web populaires auprès des décideurs politiques à Washington, tels que Politico, arguant que 90 % des États-Uniens estiment qu’Apple doit « détecter, signaler et supprimer » les CSAM.

    Ce chiffre émane d’un sondage d’opinion (.pdf) effectué par le Bellwether Research auprès d’un échantillon représentatif de 2 041 adultes, en ligne. Bien que 79 % des répondants reconnaissent ne pas être familiers avec les technologies utilisées pour détecter les images et vidéos d’abus pédosexuels, 83 % pensent qu’il est possible d’identifier, signaler et supprimer les contenus pédopornographiques sur les plateformes tout en protégeant la vie privée des utilisateurs « en même temps », et 86 % approuvent le fait qu’ « Apple prenne des mesures pour mieux protéger les enfants contre les abus sexuels, même si cela implique de renoncer à une partie de ma propre vie privée ».

    Heat Initiative

    Heat Initiative

    Ce qui fait

    Joseph Menn, journaliste cyber du Washington Post, qui appelle les journalistes à ne pas tomber dans cette « simplification excessive », et à ne pas opposer sécurité et confidentialité, au motif que « le manque d’intimité est AUSSI une menace pour la sécurité » et que « la plupart des gens qui ne comprennent toujours pas cela ont tendance à ne pas vivre dans des pays autoritaires et n’ont jamais couru le risque d’être harcelés, peut-être parce qu’ils sont des hommes et ne sont pas célèbres. Mais une fois qu’une technologie est en panne pour certains, elle est en panne pour tous. »

    Apple n’a fait que 234 signalements, Facebook 22 millions

    La Heat Initiative a programmé sa campagne en prévision de la présentation annuelle de l’iPhone par Apple, le 12 septembre. La campagne est dirigée par Sarah Gardner, auparavant vice-présidente des affaires extérieures de Thorn (une organisation à but non lucratif fondée par Demi Moore et son ex-mari Ashton Kutcher pour lutter contre les abus sexuels commis sur des enfants en ligne) et qui précise que « l’objectif est de poursuivre les tactiques jusqu’à ce qu’Apple change sa politique ».

    La Heat Initiative souligne qu’aux États-Unis, Apple n’a effectué que 160 signalements en 2021 (.pdf) au National Center for Missing and Exploited Children (NCMEC), alors que Google en a fait 875 783, et Facebook 22 millions :

    « En 2022, la CyberTipline du NCMEC a reçu un nombre impressionnant de 32 millions de signalements, dont près de 90 % provenaient de quatre fournisseurs de services électroniques seulement : Facebook, Instagram, WhatsApp et Google. Ces géants de la technologie ont signalé et retiré plus de 29 millions d’images et de vidéos montrant des abus sexuels commis sur des enfants, ce qui montre l’impact considérable que peuvent avoir les entreprises qui s’engagent à protéger les enfants sur leurs plateformes.

    En revanche, la contribution d’Apple n’a consisté qu’en 234 signalements, ce qui souligne la nécessité pour toutes les entreprises technologiques de s’engager activement à assurer la sécurité des enfants en ligne. »

    Un groupe de deux douzaines d’investisseurs gérant près de 1 000 milliards de dollars d’actifs aurait également demandé à Apple de rendre public le nombre d’images abusives détectées sur ses appareils et ses services, rapporte le NYT :

    « Deux investisseurs – Degroof Petercam, un gestionnaire d’actifs belge, et Christian Brothers Investment Services, une société d’investissement catholique – soumettront ce mois-ci une proposition d’actionnaire qui exigerait qu’Apple fournisse un rapport détaillé sur l’efficacité de ses outils de sécurité pour protéger les enfants. »

    Le NYT relève cela dit que « ces signalements ne reflètent pas toujours des contenus réellement abusifs : certains parents ont vu leur compte Google suspendu et ont été signalés à la police pour des images de leurs enfants qui n’étaient pas de nature criminelle », comme nous l’avions d’ailleurs relaté.

    • | Accusés à tort de pédophilie pour des photos faites à la demande de médecins
    1 réponse Dernière réponse
    1






©2025 planete-warez.net
L'actualité Warez & underground en continu
Icône café Faire un don
Politique   RGPD  @dev  Sudonix
    • Se connecter

    • Vous n'avez pas de compte ? S'inscrire

    • Connectez-vous ou inscrivez-vous pour faire une recherche.
    • Premier message
      Dernier message
    0
    • Catégories
      • Toutes les catégories
      • Planète Warez
        Présentations
        Aide & Commentaires
        Réglement & Annonces
        Tutoriels
      • IPTV
        Généraliste
        Box
        Applications
        VPN
      • Torrent & P2P
      • Direct Download et Streaming
      • Autour du Warez
      • High-tech : Support IT
        Windows, Linux, MacOS & autres OS
        Matériel & Hardware
        Logiciel & Software
        Smartphones & Tablettes
        Graphismes
        Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
        Tutoriels informatiques
      • Culture
        Actualités High-Tech
        Cinéma & Séries
        Sciences
        Musique
        Jeux Vidéo
      • Humour & Insolite
      • Discussions générales
      • Espace détente
      • Les cas désespérés
    • Récent
    • Populaire
    • Résolu
    • Non résolu