Tokie skaitytojai kaip jūs padeda palaikyti MUO. Kai perkate naudodami nuorodas mūsų svetainėje, galime uždirbti filialų komisinius. Skaityti daugiau.

2021 m. rugpjūtį „Apple“ paskelbė apie planus nuskaityti jūsų „iCloud“ turinį dėl seksualinės prievartos prieš vaikus medžiagos (CSAM), kad apsaugotų vaikus nuo plėšrūnų prievartos.

Bendrovė planavo paleisti naują CSAM aptikimo funkciją „iCloud Photos“, kuri nuskaitytų tokį turinį ir praneštų apie atitinkančius vaizdus „Apple“, išlaikant vartotojo privatumą.

Tačiau naujoji funkcija sulaukė prieštaringų reakcijų. Praėjus daugiau nei metams nuo pradinio pranešimo, „Apple“ oficialiai atsisako plano nuskaityti „iCloud Photos“ CSAM.

„Apple“ atsisako plano nuskaityti „iCloud“ dėl vaikų išnaudojimo medžiagos

Remiantis ataskaita, kurią pateikė LAIDINIS, „Apple“ atsisako plano nuskaityti jūsų „iCloud“, ar nėra prievartos prieš vaikus turinį. Įrankis nuskaitys „iCloud“ saugomas nuotraukas, kad surastų tas, kurios atitinka žinomus CSAM vaizdus, ​​​​kaip nustatė vaikų saugos organizacijos. Tada ji galėtų pranešti apie šiuos vaizdus, ​​nes daugelyje jurisdikcijų, įskaitant JAV, CSAM vaizdų turėjimas yra neteisėtas.

instagram viewer

Kodėl „Apple“ atšaukė savo planą nuskaityti „iCloud“ nuotraukas

Po pirminio pranešimo 2021 m. „Apple“ susidūrė su klientų, grupių ir asmenų, pasisakančių už skaitmeninį privatumą ir saugumą visame pasaulyje, pasipriešinimą. „iPhone“ paprastai siūlo daugiau saugumo nei „Android“ įrenginiai, ir daugelis tai vertino kaip žingsnį atgal. Nors tai buvo vaikų saugos organizacijų laimėjimas, vėliau tą patį mėnesį daugiau nei 90 politikos grupių parašė atvirą laišką „Apple“, ragindamos įmonei atšaukti planą.

Laiške buvo teigiama, kad nors įrankis ketina apsaugoti vaikus nuo prievartos, jis gali būti panaudotas siekiant cenzūruoti žodžio laisvę ir kelti grėsmę vartotojų privatumui ir saugumui. Dėl didėjančio spaudimo „Apple“ sustabdė savo planus rinkti atsiliepimus ir atlikti reikiamus funkcijos pakeitimus. Tačiau atsiliepimai nebuvo palankūs „Apple“ planui nuskaityti „iCloud Photos“, todėl bendrovė oficialiai atsisako planų visam laikui.

Pareiškime WIRED bendrovė sakė:

"Mes turime... nusprendė nesinaudoti anksčiau pasiūlytu CSAM aptikimo įrankiu, skirtu „iCloud Photos“. Vaikai gali būti apsaugoti įmonėms neperimant asmens duomenų, todėl mes ir toliau dirbsime su vyriausybėmis, vaikų gynėjais ir kitos įmonės, kurios padėtų apsaugoti jaunus žmones, išsaugoti jų teisę į privatumą ir padaryti internetą saugesne vieta vaikams ir mums visi“.

„Apple“ naujas planas apsaugoti vaikus

„Apple“ nukreipia savo pastangas tobulinti ryšių saugos funkcijas, paskelbtas 2021 m. rugpjūtį ir pristatytas tų pačių metų gruodį.

Ryšio sauga yra neprivaloma, ją gali naudoti tėvai ir globėjai, norėdami apsaugoti vaikus nuo seksualinio pobūdžio vaizdų siuntimo ir gavimo sistemoje „iMessage“. Ši funkcija automatiškai sulieja tokias nuotraukas, o vaikas bus įspėtas apie galimus pavojus. Ji taip pat įspėja visus, jei jie bando ieškoti CSAM „Apple“ įrenginiuose.

Atšaukus planus paleisti CSAM aptikimo įrankį, bendrovė tikisi toliau tobulinti šią funkciją ir išplėsti ją į daugiau komunikacijos programų.