2021 m. Rugpjūčio mėn. „Apple“ atskleidė savo planus nuskaityti „iPhone“, ar nėra seksualinės prievartos prieš vaikus vaizdų. Šis žingsnis sulaukė vaikų apsaugos grupių plojimų, tačiau sukėlė privatumo ir saugumo ekspertų susirūpinimą, kad ši funkcija gali būti netinkamai naudojama.

„Apple“ iš pradžių planavo į „iOS 15“ įtraukti Vaikų seksualinės prievartos medžiagos (CSAM) nuskaitymo technologiją; vietoj to ji neribotą laiką atidėjo funkcijos išleidimą, kad gautų atsiliepimų prieš visišką jos išleidimą.

Taigi kodėl CSAM aptikimo funkcija tapo karštų diskusijų objektu ir kas privertė „Apple“ atidėti jos diegimą?

Ką veikia „Apple“ nuotraukų nuskaitymo funkcija?

„Apple“ paskelbė įgyvendinanti nuotraukų nuskaitymo funkciją, tikėdamasi kovoti su seksualine prievarta prieš vaikus. Visos „Apple“ naudotojų įrenginiuose esančios nuotraukos bus nuskaitytos, ar nėra pedofilinio turinio, naudojant „Apple“ sukurtą „NueralHash“ algoritmą.

Be to, visi „Apple“ įrenginiai, kuriuos naudoja vaikai, turėtų saugos funkciją, kuri automatiškai įsijungs neryškios suaugusiųjų nuotraukos, jei jas gauna vaikas, o vartotojas du kartus bus įspėtas, jei bandys atidaryti juos.

instagram viewer

Be to, kad būtų sumažintas suaugusiųjų turinio poveikis, jei tėvai registruoja savo vaikams priklausančius įrenginius papildomą saugumą, tėvai būtų informuoti, jei vaikas iš bet kurio asmens gautų aiškų turinį prisijungęs.

Skaityti daugiau: Ką reikia žinoti apie „Apple“ vaikų apsaugos priemones

Kalbant apie suaugusiuosius, kurie naudojasi „Siri“ ieškodami visko, kas seksualizuoja vaikus, „Siri“ neatliks šios paieškos ir nesiūlys kitų alternatyvų.

Duomenys iš bet kurio įrenginio, kuriame yra 10 ar daugiau algoritmų įtartinų nuotraukų, bus iššifruoti ir bus peržiūrimi žmonėms.

Jei tos nuotraukos ar bet kuri kita įrenginyje pasirodo atitinkanti ką nors iš pateiktos duomenų bazės Nacionalinis dingusių ir išnaudojamų vaikų centras, apie tai bus pranešta institucijoms ir vartotojo paskyra bus laikinai sustabdyta.

Pagrindiniai rūpesčiai dėl nuotraukų nuskaitymo funkcijos

CSAM aptikimo funkcija būtų pradėta naudoti pradėjus „iOS 15“ 2021 m. Rugsėjo mėn sulaukęs didelio pasipiktinimo, „Apple“ nusprendė skirti daugiau laiko atsiliepimams rinkti ir patobulinti ypatybė. Čia yra Visas „Apple“ pareiškimas dėl vėlavimo:

„Praėjusį mėnesį paskelbėme funkcijų planus, kurie padės apsaugoti vaikus nuo plėšrūnų naudokitės komunikacijos priemonėmis, kad jas verbuotumėte ir išnaudotumėte, ir ribotumėte seksualinės prievartos prieš vaikus plitimą Medžiaga.

Remdamiesi klientų, advokatų grupių, tyrėjų ir kitų atsiliepimais, nusprendėme skirti daugiau laiko ateinančiais mėnesiais rinkti informaciją ir patobulinti prieš išleidžiant šį itin svarbų vaikų saugumą funkcijos".

Beveik pusė rūpesčių, susijusių su „Apple“ nuotraukų nuskaitymo funkcija, yra susiję su privatumu; likusieji argumentai apima galimą algoritmų netikslumą ir galimą netinkamą sistemos ar jos spragų naudojimą.

Padalinkime jį į keturias dalis.

Galimas netinkamas naudojimas

Žinant, kad bet kokia medžiaga, atitinkanti vaikų pornografiją ar žinomi seksualinės prievartos prieš vaikus vaizdai, įtaisą pateks į „įtartiną“ sąrašą, gali paskatinti kibernetinius nusikaltėlius.

Jie gali tyčia bombarduoti asmenį netinkamu turiniu per „iMessage“, „WhatsApp“ ar bet kokias kitas priemones ir sustabdyti to asmens paskyrą.

„Apple“ patikino, kad vartotojai gali pateikti apeliaciją, jei jų paskyros buvo sustabdytos dėl nesusipratimo.

Piktnaudžiavimas viešai neatskleista informacija

Nors ši funkcija sukurta geranoriškiems tikslams, ji gali tapti visiška nelaimė tam tikriems žmonėms, jei jų įrenginiai yra įregistruoti sistemoje, jiems žinant arba be jų, artimieji, norintys stebėti jų bendravimą.

Net jei taip neatsitiks, „Apple“ sukūrė užpakalines duris, kad naudotojų duomenys būtų prieinami dienos pabaigoje. Dabar tai yra žmonių motyvacijos ir ryžto reikalas pasiekti kitų žmonių asmeninę informaciją.

Susijęs: Kas yra užpakalinės durys ir ką jos daro?

Tai ne tik palengvina esminį privatumo pažeidimą, bet ir atveria kelią piktnaudžiavimui, toksiškumui ar kontrolei artimiesiems, globėjams, draugams, įsimylėjėliams, prižiūrėtojams ir buvusiems asmenims, siekiant toliau įsibrauti į kažkieno asmeninę erdvę arba apriboti jų laisvė.

Viena vertus, ji skirta kovai su seksualine prievarta prieš vaikus; kita vertus, jis gali būti naudojamas toliau įamžinti kitų rūšių piktnaudžiavimą.

Vyriausybės priežiūra

„Apple“ visada garsėjo kaip labiau privatus prekės ženklas nei konkurentai. Bet dabar gali būti, kad įžengsite į slidų šlaitą ir turėsite tenkinti nesibaigiančius skaidrumo reikalavimus vartotojų duomenis vyriausybės.

Sistema, kurią ji sukūrė pedofilijos turiniui aptikti, gali būti naudojama aptikti bet kokį turinį telefonuose. Tai reiškia, kad vyriausybės, turinčios kultinį mentalitetą, gali asmeniškiau stebėti vartotojus, jei tik į tai įeina.

Slegiantis ar ne, vyriausybės dalyvavimas jūsų kasdieniame ir asmeniniame gyvenime gali kelti nerimą ir kištis į jūsų privatumą. Mintis, kad jums reikia nerimauti dėl tokių invazijų tik tada, kai padarėte kažką ne taip, yra klaidingas mąstymas ir nemato anksčiau minėto slidaus šlaito.

Klaidingi aliarmai

Vienas iš didžiausių rūpesčių naudojant algoritmus, kad nuotraukos būtų suderintos su duomenų baze, yra klaidingi aliarmai. Maišymo algoritmai gali klaidingai identifikuoti dvi nuotraukas kaip atitiktis, net jei jos nėra vienodos. Šios klaidos, vadinamos „susidūrimais“, yra ypač nerimą keliančios turinio dėl seksualinės prievartos prieš vaikus kontekste.

Tyrėjai aptiko kelis susidūrimus „NeuralHash“ po to, kai „Apple“ paskelbė, kad naudos vaizdų nuskaitymo algoritmą. „Apple“ atsakė į klausimus apie melagingus pavojaus signalus nurodydama, kad galų gale žmogus peržiūrės rezultatą, todėl žmonėms dėl to nereikia jaudintis.

Ar „Apple“ CSAM pauzė yra nuolatinė?

„Apple“ siūloma funkcija turi daug privalumų ir trūkumų. Kiekvienas iš jų yra tikras ir turi svorį. Vis dar neaišku, kokius konkrečius pakeitimus „Apple“ galėtų įvesti į CSAM nuskaitymo funkciją, kad patenkintų savo kritikus.

Tai galėtų apriboti nuskaitymą tik bendrinamuose „iCloud“ albumuose, o ne įtraukti naudotojų įrenginius. Labai mažai tikėtina, kad „Apple“ visiškai atsisakys šių planų, nes bendrovė paprastai nėra linkusi pasiduoti savo planams.

Tačiau iš plačiai paplitusių reakcijų ir „Apple“ nesilaikant savo planų aišku, kad bendrovės turėtų įtraukti mokslinių tyrimų bendruomenę nuo pat pradžių, ypač neišbandytoms technologija.

Dalintis„Tweet“Paštu
Sauga internete: daugiau nei 50 patarimų, kaip apsaugoti savo vaikus internete

Vaikai yra pagrindinis internetinių plėšrūnų ir kibernetinių patyčių taikinys. Šie patogūs patarimai gali išmokyti tėvus saugoti juos internete.

Skaityti toliau

Susijusios temos
  • Saugumas
  • „IPhone“
  • Išmaniųjų telefonų privatumas
  • „Apple“
  • Privatumas internete
  • Stebėjimas
Apie autorių
Fawad Ali (Paskelbta 19 straipsnių)

Fawadas yra IT ir komunikacijos inžinierius, trokštantis verslininkas ir rašytojas. Jis įėjo į turinio rašymo areną 2017 m. Ir nuo to laiko dirbo su dviem skaitmeninės rinkodaros agentūromis ir daugybe B2B ir B2C klientų. Jis rašo apie saugumą ir techniką MUO, siekdamas šviesti, linksminti ir įtraukti auditoriją.

Daugiau iš Fawad Ali

Prenumeruokite mūsų naujienlaiškį

Prisijunkite prie mūsų naujienlaiškio, kad gautumėte techninių patarimų, apžvalgų, nemokamų el. Knygų ir išskirtinių pasiūlymų!

Norėdami užsiprenumeruoti, spustelėkite čia