ÉTATS-UNIS

Apple va scanner les iPhones à la recherche d’images illégales d’abus d’enfants, suscitant un débat sur la vie privée

août 11, 2021 8:42, Last Updated: août 11, 2021 8:42
By

Apple a annoncé jeudi qu’elle prévoyait de scanner tous les iPhones aux États-Unis à la recherche d’images d’abus d’enfants, ce qui a alarmé les experts en sécurité qui ont déclaré que le plan pourrait permettre à la société de surveiller des dizaines de millions d’appareils personnels pour des raisons sans rapport.

Dans un message publié sur un blog, la société a confirmé les informations selon lesquelles la nouvelle technologie de balayage fait partie d’une série de programmes de protection de l’enfance qui « évoluent et s’étendent ». Elle sera déployée dans le cadre d’iOS 15, dont la sortie est prévue dans le courant du mois d’août.

Apple, qui s’est souvent présentée comme une entreprise qui promet de sauvegarder le droit à la vie privée des utilisateurs, a semblé essayer de devancer les préoccupations en la matière en affirmant que le logiciel renforcera ces protections en évitant d’avoir à effectuer un balayage généralisé des images sur ses serveurs cloud.

« Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au [Centre national pour les enfants disparus et exploités] et aux forces de l’ordre concernant la prolifération des CSAM connus », a déclaré l’entreprise, en référence à l’acronyme anglais « child sexual abuse material » (CSAM, ou contenu relatif aux abus sexuels sur les enfants). « Et ce, tout en offrant des avantages considérables en matière de protection de la vie privée par rapport aux techniques existantes, car Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos. Même dans ces cas, Apple ne prend connaissance que des images qui correspondent à des CSAM connus. »

Le géant de la technologie basé à Cupertino, en Californie, a déclaré que le système utilisera une technologie de cryptographie révolutionnaire et l’intelligence artificielle pour trouver le contenu abusif lorsqu’il est stocké dans iCloud Photos, a indiqué la firme dans son message de blog. Les images seront comparées à une base de données connue d’images illégales, a indiqué la société, ajoutant que si un certain nombre de ces images sont téléchargées sur iCloud Photos, la société les examinera.

Ces images, si elles sont jugées illégales, seront signalées au Centre national pour les enfants disparus et exploités. Le logiciel ne sera pas appliqué aux vidéos, a ajouté Apple.

« L’extension de la protection des enfants par Apple change la donne », a déclaré John Clark, président et directeur général du Centre national pour les enfants disparus et exploités, dans un communiqué publié jeudi au sujet de cette initiative. « La réalité est que la vie privée et la protection des enfants peuvent coexister. »

Mais certains experts et chercheurs en sécurité, qui ont souligné qu’ils soutenaient les efforts de lutte contre la maltraitance des enfants, ont déclaré que le programme pourrait présenter d’importants problèmes de confidentialité.

Ross Anderson, professeur d’ingénierie de la sécurité à l’Université de Cambridge, a décrit le système proposé par Apple comme « une idée absolument épouvantable », selon le Financial Times. « Il va conduire à une surveillance de masse distribuée de […] nos téléphones et ordinateurs portables », a-t-il fait remarquer.

Lorsque la proposition a été annoncée mercredi soir, Matthew Green, professeur à l’université John Hopkins et cryptographe, a fait écho à ces préoccupations.

« Ce genre d’outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens », a écrit M. Green sur Twitter. « Mais imaginez ce qu’il pourrait faire entre les mains d’un gouvernement autoritaire ? »

M. Green a déclaré que « si vous croyez qu’Apple ne permettra pas à ces outils d’être utilisés à mauvais escient [emoji doigts croisés], il y a encore beaucoup de choses à craindre », notant que de tels « systèmes reposent sur une base de données de ‘hachages de médias problématiques’ que vous, en tant que consommateur, ne pouvez pas examiner ».

L’expert a déclaré à The Associated Press qu’il craignait qu’Apple ne soit poussé par d’autres gouvernements plus autoritaires à rechercher d’autres types d’informations.

Microsoft a créé PhotoDNA pour aider les entreprises à identifier les images d’abus sexuels d’enfants sur Internet, tandis que Facebook et Google ont mis en place des systèmes pour signaler et examiner les contenus potentiellement illégaux.

Epoch Times a contacté Apple pour un commentaire.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.

Voir sur epochtimes.fr
PARTAGER