THEPOWERGAME
Η National Society for the Prevention of Cruelty to Children (NSPCC), μια φιλανθρωπική οργάνωση για την προστασία των παιδιών στο Ηνωμένο Βασίλειο, κατηγόρησε την Apple ότι υποεκτιμά την ύπαρξη υλικού σεξουαλικής κακοποίησης ανηλίκων. Σύμφωνα με το engadget, η Apple ανέφερε πέρυσι μόλις 267 παγκόσμιες περιπτώσεις ύποπτων CSAM στο National Center for Missing & Exploited Children (NCMEC). Αυτό έρχεται σε αντίθεση με τα 1,47 εκατομμύρια πιθανές περιπτώσεις που ανέφερε η Google και τις 30,6 εκατομμύρια αναφορές της Meta.
Άλλες πλατφόρμες που ανέφεραν περισσότερες πιθανές περιπτώσεις CSAM από την Apple το 2023 περιλαμβάνουν τις TikTok (590.376), X (597.087), Snapchat (713.055), Xbox (1.537) και PlayStation/Sony Interactive Entertainment (3.974). Κάθε τεχνολογική εταιρεία με έδρα τις ΗΠΑ υποχρεούται να διαβιβάζει κάθε πιθανή περίπτωση CSAM που εντοπίζεται στις πλατφόρμες της στο NCMEC, το οποίο κατευθύνει τις υποθέσεις στις αρμόδιες υπηρεσίες επιβολής του νόμου παγκοσμίως.
Η NSPCC δήλωσε επίσης ότι η Apple εμπλέκεται σε περισσότερες περιπτώσεις CSAM (337) στην Αγγλία και την Ουαλία μεταξύ Απριλίου 2022 και Μαρτίου 2023 απ’ όσες ανέφερε παγκοσμίως σε ένα έτος. Η φιλανθρωπική οργάνωση χρησιμοποίησε αιτήματα ελευθερίας των πληροφοριών για να συγκεντρώσει τα εν λόγω δεδομένα από τις αστυνομικές αρχές.
Το πρόβλημα με την Apple
Όπως επισημαίνει ο Guardian, ο οποίος πρώτος αναφέρθηκε στον ισχυρισμό της NSPCC, οι υπηρεσίες της Apple, όπως το iMessage, το FaceTime και το iCloud, διαθέτουν κρυπτογράφηση από άκρο σε άκρο, η οποία εμποδίζει την εταιρεία να βλέπει το περιεχόμενο όσων μοιράζονται οι χρήστες σε αυτές. Ωστόσο, το WhatsApp διαθέτει επίσης κρυπτογράφηση από άκρη σε άκρη και η εν λόγω υπηρεσία ανέφερε σχεδόν 1,4 εκατομμύρια περιπτώσεις ύποπτων CSAM στο NCMEC το 2023.
«Υπάρχει μια ανησυχητική ασυμφωνία μεταξύ του αριθμού των εικόνων κακοποίησης παιδιών στο Ηνωμένο Βασίλειο που λαμβάνουν χώρα στις υπηρεσίες της Apple και του σχεδόν αμελητέου αριθμού των παγκόσμιων αναφορών για περιεχόμενο κακοποίησης που κάνουν στις αρχές» δήλωσε ο Ρίτσαρντ Κόλαρντ, επικεφαλής της πολιτικής για την ασφάλεια των παιδιών στο διαδίκτυο της NSPCC. Και πρόσθεσε: «Η Apple είναι σαφώς πίσω από πολλούς “συναδέλφους” της στην αντιμετώπιση της σεξουαλικής κακοποίησης παιδιών, όταν όλες οι εταιρείες τεχνολογίας θα έπρεπε να επενδύουν στην ασφάλεια και να προετοιμάζονται για την εφαρμογή του νόμου για την ασφάλεια στο διαδίκτυο στο Ηνωμένο Βασίλειο».
Το σχέδιο της Apple για το CSAM που έμεινε στα χαρτιά
Το 2021 η Apple ανακοίνωσε ότι σχεδιάζει να αναπτύξει ένα σύστημα που θα σαρώνει τις εικόνες πριν από τη μεταφόρτωσή τους στο iCloud και θα τις συγκρίνει με μια βάση δεδομένων με γνωστές εικόνες CSAM από το NCMEC και άλλους οργανισμούς. Όμως, μετά από αντιδράσεις από τους υποστηρικτές της ιδιωτικής ζωής και των ψηφιακών δικαιωμάτων, η Apple καθυστέρησε την ανάπτυξη των εργαλείων ανίχνευσης CSAM πριν τελικά τερματίσει το έργο το 2022.
Η Apple αρνήθηκε να σχολιάσει την κατηγορία της NSPCC, αλλά παρέπεμψε τον Guardian σε δήλωση που έκανε όταν απέσυρε το σχέδιο σάρωσης CSAM. Η Apple δήλωσε ότι επέλεξε μια διαφορετική στρατηγική που «δίνει προτεραιότητα στην ασφάλεια και την ιδιωτικότητα των χρηστών της». Ο τεχνολογικός κολοσσός είχε δηλώσει στο Wired τον Αύγουστο του 2022 ότι «τα παιδιά μπορούν να προστατευτούν χωρίς εταιρείες που χτενίζουν τα προσωπικά δεδομένα».
Διαβάστε επίσης
Ben & Jerry’s: Η συνταγή της επιτυχίας και το διαζύγιο με Unilever
Οι ”τρανταχτές” διαφορές μεταξύ Καμάλα Χάρις και Τραμπ
Κυκλική οικονομία: Βιώσιμα προϊόντα και ψηφιακά διαβατήρια στην αγορά της ΕΕ