Posted in

Apple abandonne son projet de numérisation de contenus CSAM ; le régulateur s’exprime


Le projet d’Apple de lutter contre l’exploitation sexuelle des enfants a peut-être été abandonné, mais la controverse n’en est pas pour autant terminée. Un régulateur australien a accusé la société de Cupertino de fermer les yeux sur l’exploitation sexuelle des enfants.

Elle a déclaré qu’Apple et Microsoft ne prennent aucune mesure pour protéger « les plus vulnérables des plus prédateurs »…

Arrière-plan

La détection de contenus pédopornographiques est généralement effectuée par des services cloud comme Google Photos qui analysent les photos téléchargées et les comparent à une base de données d’images pédopornographiques connues. Cette base de données est fournie par le NCMEC et des organisations similaires dans le monde entier.

Le processus de mise en correspondance réel utilise ce que l’on appelle un hachage ou une empreinte digitale numérique. Celui-ci est dérivé des éléments clés de l’image et est volontairement flou afin de continuer à fonctionner lorsque les images sont redimensionnées, recadrées ou traitées d’une autre manière. Cela signifie qu’il y aura parfois des faux positifs : une image innocente dont le hachage se trouve être suffisamment proche d’une image CSAM.

Apple avait prévu une approche plus respectueuse de la vie privée, dans laquelle l’analyse aurait lieu sur l’iPhone de l’utilisateur, plutôt que dans le cloud – mais les experts en cybersécurité, les organisations de défense des droits de l’homme, les gouvernements et les propres employés d’Apple ont tous soulevé quatre préoccupations concernant ces plans.

Bien qu’Apple ait semblé surpris par cette réaction, nous avions souligné à l’époque que cela était tout à fait prévisible étant donné le message constant de l’entreprise basé sur la confidentialité selon lequel « ce qui se passe sur l’iPhone reste sur l’iPhone ».

L’entreprise a installé d’énormes panneaux d’affichage. Elle a diffusé des publicités amusantes. un microsite de confidentialité completSon PDG parle de confidentialité dans chaque interview et chaque apparition publique. L’entreprise attaque d’autres géants de la technologie au sujet de la confidentialité. Elle s’est battue contre l’ensemble du secteur de la publicité au sujet d’une nouvelle fonctionnalité de confidentialité.

Après avoir initialement déclaré qu’elle suspendrait le déploiement afin de prendre en compte les inquiétudes soulevées et de mettre en place des mesures de protection de la vie privée supplémentaires, l’entreprise a discrètement supprimé toute référence à cette fonctionnalité. Interrogée, Apple a déclaré que la fonctionnalité avait été retardée et non annulée. Cependant, cela a changé la semaine dernière.

Le jour même où Apple a annoncé la mise en place d’une protection avancée des données avec chiffrement de bout en bout pour toutes les données iCloud, elle a également mis fin à l’analyse CSAM, qui n’avait jamais été rendue publique. La nouvelle a été confirmée par Craig Federighi, vice-président de l’ingénierie logicielle d’Apple, dans une interview avec Joanna Stern du WSJ.

Le régulateur australien accuse Apple de fermer les yeux

Reuters Selon des rapports, le commissaire australien à la sécurité électronique a accusé Apple et Microsoft de ne pas avoir joué leur rôle dans la prévention du partage de contenus CSAM.

Le commissaire à la sécurité électronique, un bureau créé pour protéger les utilisateurs d’Internet, a déclaré qu’après avoir envoyé des demandes légales d’informations à certaines des plus grandes entreprises Internet du monde, les réponses ont montré qu’Apple et Microsoft n’avaient pas vérifié de manière proactive le matériel d’abus d’enfants dans leurs services de stockage, iCloud et OneDrive.

L’annonce faite par Apple il y a une semaine selon laquelle elle cesserait de scanner les comptes iCloud à la recherche d’abus sur mineurs, suite à la pression des défenseurs de la vie privée, a été « un grand pas en arrière par rapport à leurs responsabilités de contribuer à la sécurité des enfants », a déclaré Inman Grant.

L’incapacité des deux entreprises à détecter les abus diffusés en direct revient à « certaines des plus grandes et des plus riches entreprises technologiques du monde qui ferment les yeux et ne prennent pas les mesures appropriées pour protéger les plus vulnérables des plus prédateurs », a-t-elle ajouté.

Il reste à voir si Apple sera en mesure de maintenir sa nouvelle position. L’entreprise pourrait à l’avenir être confrontée à une obligation légale de détecter les contenus d’abus sexuels sur mineurs.

Photo: Priscilla Du Preez/Unsplash

FTC : Nous utilisons des liens d’affiliation automatiques générant des revenus. Plus.