IOS

Employés d’Apple exprimant des inquiétudes internes concernant les plans de détection CSAM

Le 13 août 2021 - 4 minutes de lecture

 

Les employés d’Apple se joignent maintenant au chœur d’individus faisant part de leurs inquiétudes concernant les projets d’Apple de scanner les photothèques des utilisateurs d’iPhone à la recherche de CSAM ou de matériel pédopornographique, s’exprimant prétendument en interne sur ce à quoi pourrait ressembler la technologie. contenu, selon un rapport de Reuters.

drone parc apple 2 juin 2018
Selon Reuters, un nombre indéterminé d’employés d’Apple a accédé aux canaux internes de Slack pour poser des questions sur la détection CSAM. Plus précisément, les responsables craignent que les gouvernements ne forcent Apple à utiliser la technologie à des fins de censure, en trouvant un contenu autre que CSAM. Certains employés craignent qu’Apple ne porte atteinte à sa réputation de leader du secteur en matière de confidentialité.

Les employés d’Apple ont inondé un canal interne d’Apple sur Slack avec plus de 800 messages sur le plan annoncé il y a une semaine, ont déclaré à Reuters des travailleurs qui ont demandé à ne pas être identifiés. Beaucoup se sont dits préoccupés par le fait que la ressource pourrait être exploitée par des gouvernements répressifs à la recherche d’autres documents pour la censure ou les arrestations, selon des travailleurs qui ont vu le sujet pendant plusieurs jours.

Les précédents changements de sécurité chez Apple ont également suscité l’inquiétude des employés, mais le volume et la durée du nouveau débat sont surprenants, ont déclaré les travailleurs. Certaines affiches craignent qu’Apple ne porte atteinte à sa réputation de leader en matière de protection de la vie privée.

Les employés d’Apple occupant des postes liés à la sécurité des utilisateurs n’auraient pas dû participer à la manifestation interne, selon le rapport.

Depuis son annonce la semaine dernière, Apple a été bombardé de critiques concernant ses plans de détection CSAM, qui n’ont pas encore été publiés avec iOS 15 et iPadOS 15 cet automne. Les inquiétudes tournent principalement autour de la façon dont la technologie pourrait représenter une pente glissante vers de futures mises en œuvre par des gouvernements et des régimes oppressifs.

Apple a fermement rejeté l’idée que la technologie de l’appareil utilisé pour détecter le matériel CSAM puisse être utilisée à d’autres fins. Dans une FAQ publiée, la société a déclaré qu’elle refuserait avec véhémence une telle demande des gouvernements.

Les gouvernements peuvent-ils forcer Apple à ajouter des images non CSAM à la liste de hachage ?
Apple refusera de telles demandes. La capacité de détection CSAM d’Apple est spécialement conçue pour détecter les images CSAM connues stockées dans des photos iCloud qui ont été identifiées par des experts du NCMEC et d’autres groupes de sécurité des enfants. Nous avons déjà été confrontés à des demandes de création et de mise en œuvre de changements imposés par le gouvernement qui dégradent la vie privée des utilisateurs, et nous rejetons fermement ces demandes. Nous continuerons à les refuser à l’avenir. Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous ne nous conformerons à aucune demande de prolongation du gouvernement. De plus, Apple effectue un examen humain avant de signaler au NCMEC. Dans le cas où le système signalerait les photos qui ne correspondent pas aux images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait déposé dans le NCMEC.

Une lettre ouverte critiquant Apple et exhortant l’entreprise à interrompre immédiatement son plan de déploiement de la détection CSAM a recueilli plus de 7 000 signatures au moment de la rédaction. Le patron de WhatsApp aussi pesé dans le débat.

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.