Réponse aux critiques de la nouvelle fonction de vérification des photos de l'iPhone
Miscellanea / / August 09, 2021
Les utilisateurs sont priés de ne pas s'inquiéter.
La semaine dernière Apple annoncé une nouvelle fonctionnalité dans iOS et iPadOS 15. Les smartphones vérifieront automatiquement les images pour les cas de maltraitance d'enfants. Si le système détecte un tel contenu, les photos seront envoyées pour vérification aux employés qui examineront chaque cas et rendront un verdict.
Cette annonce a suscité de nombreuses critiques de la part des utilisateurs ordinaires et des experts. Surtout, les gens s'inquiètent des fuites de données possibles et des changements dans les paramètres de vérification. Apple a répondu à ces problèmes en FAQ officielle sur la nouvelle fonction.
Ainsi, Matthew Green, professeur de cryptographie à l'Université Johns Hopkins, craintesqu'Apple autorisera les gouvernements à utiliser le système pour détecter non seulement le contenu illégal avec des enfants, mais à d'autres fins - en particulier, pour contrôler l'opposition politique. Apple a expliqué qu'il n'ajoutera pas de marqueurs de maltraitance d'enfants au système à la demande de représentants du gouvernement :
Apple refusera de telles demandes. Le nouveau système est uniquement conçu pour détecter les images d'abus d'enfants dans les photos iCloud. Nous avons déjà répondu à des demandes de lancement de nouvelles fonctionnalités qui affecteraient négativement la confidentialité des utilisateurs et avons refusé sans condition de les mettre en œuvre. Et nous continuerons à refuser davantage.
Pomme
Une autre préoccupation commune est que les appareils devront être télécharger des exemples à des fins de comparaison - ce qui signifie qu'en théorie ces données peuvent être déchiffrées et vue. Mais Apple affirme que seuls les hachages illisibles seront disponibles sur l'appareil, pas les images elles-mêmes.
Les hachages sont des chaînes de nombres qui représentent des images à comparer, mais elles ne peuvent pas être lues ou reconverties en images d'origine. Grâce à la cryptographie, Apple peut utiliser ces hachages pour récupérer des informations uniquement sur les comptes iCloud qui stockent une série de photographies correspondant à ces échantillons et ne voir que des photographies potentiellement illégales sans accès à aucun autre des photos.
Pomme
Après confirmation de la présence de maltraitance d'enfants sur la photo, les informations seront transférées à un organisme non commercial organisation "Centre national pour les enfants disparus et exploités", qui est soutenu par policiers américains.
Si, après avoir examiné les photos par un employé d'Apple, ils ne trouvent pas de cas de maltraitance d'enfants, ces images ne seront pas transférées aux services et le tag du compte suspect sera supprimé.
Les scientifiques parlent de dizaines de symptômes du COVID-19 qui peuvent persister plus de 6 mois
Les scientifiques ont nommé les symptômes caractéristiques de la souche delta du coronavirus. Ils sont différents des COVID-19 habituels