La surveillance de l’iPhone pour CSAM est trop risquée, selon des groupes de défense des droits civiques
Plus de 90 groupes de défense des droits civiques du monde entier ont signé une lettre ouverte s’opposant à ce qu’ils appellent les capacités de surveillance de l’iPhone, exhortant Apple à abandonner ses plans d’analyse CSAM.
En outre, ils aimeraient également que le fabricant de l’iPhone annule les plans de détection de la nudité d’iMessage, car cela pourrait mettre en danger les jeunes homosexuels.
Les signataires de la charte sont l’American Civil Liberties Union (ACLU), l’Association canadienne des libertés civiles, Digital Rights Watch en Australie, Liberty au Royaume-Uni et Privacy International dans le monde.
La lettre met en évidence le principal risque que beaucoup ont évoqué, d’abus par des gouvernements répressifs.
Une fois que cette capacité sera intégrée aux produits d’Apple, la société et ses concurrents seront confrontés à une pression énorme – et potentiellement à des exigences légales – de la part des gouvernements du monde entier pour numériser des photos non seulement pour CSAM, mais également pour d’autres images qu’un gouvernement juge répréhensibles. .
Ces images peuvent être des violations des droits humains, des manifestations politiques, des images que les entreprises ont qualifiées de contenu « terroriste » ou extrémiste violent, ou même des images peu flatteuses des mêmes politiciens qui feront pression sur l’entreprise pour qu’elle numérise.
Et cette pression peut s’étendre à toutes les images stockées sur l’appareil, pas seulement à celles chargées dans iCloud. Ainsi, Apple aura jeté les bases de la censure, de la surveillance et du harcèlement à l’échelle mondiale.
Mais il indique également que l’analyse séparée des comptes iMessage des enfants pour les nus, une autre forme de surveillance de l’iPhone, pourrait mettre les enfants en danger.
Le système développé par Apple suppose que les comptes « parent » et « enfant » concernés appartiennent en réalité à un adulte parent d’un enfant et que ces personnes entretiennent une relation saine. Ce n’est peut-être pas toujours le cas ; un adulte violent peut être l’organisateur du compte et les conséquences de la notification parentale peuvent menacer la sécurité et le bien-être de l’enfant. Les jeunes LGBTQ+ sur des comptes familiaux avec des parents odieux sont particulièrement à risque.
Il dit que les organisations respectent l’intention d’Apple, mais l’entreprise doit respecter ses valeurs de confidentialité.
Nous soutenons les efforts visant à protéger les enfants et nous nous opposons fermement à la prolifération des CSAM. Mais les changements annoncés par Apple mettent les enfants et leurs autres utilisateurs en danger maintenant et à l’avenir. Nous exhortons Apple à abandonner ces changements et à réaffirmer l’engagement de l’entreprise à protéger ses utilisateurs avec un cryptage de bout en bout. Nous exhortons également Apple à consulter plus régulièrement les groupes de la société civile et les communautés vulnérables qui peuvent être affectées de manière disproportionnée par les modifications apportées à ses produits et services.
Il s’ensuit que le parlement allemand a écrit une lettre similaire à Apple il y a quelques jours.
FTC : Nous utilisons des liens d’affiliation pour les automobiles génératrices de revenus. Suite.
Découvrez . sur YouTube pour plus d’actualités Apple :
Commentaires
Laisser un commentaire