Zašto je Apple odustao od svog plana skeniranja vaših iCloud fotografija

Zašto je Apple odustao od svog plana skeniranja vaših iCloud fotografija
Čitatelji poput vas podržavaju MUO. Kada kupite putem poveznica na našoj stranici, možemo zaraditi partnersku proviziju. Čitaj više.

Apple je u kolovozu 2021. najavio planove za skeniranje vašeg iCloud sadržaja u potrazi za materijalom o seksualnom zlostavljanju djece (CSAM) kako bi zaštitio djecu od zlostavljanja od strane predatora.





kako riješiti varijablu u excelu

Tvrtka je planirala pokrenuti novu značajku otkrivanja CSAM-a u iCloud Photos koja bi skenirala takav sadržaj i prijavila podudarne slike Appleu, a pritom zadržala privatnost korisnika.





MAKEUSEOF VIDEO DANA

Međutim, nova značajka naišla je na različite reakcije. Više od godinu dana od prve objave, Apple službeno odustaje od svog plana skeniranja iCloud fotografija za CSAM.





Apple odustaje od svog plana skeniranja iClouda u potrazi za materijalom o zlostavljanju djece

Prema izvješću od ŽIČAN , Apple odustaje od svog plana da skenira vaš iCloud u potrazi za sadržajem zlostavljanja djece. Alat bi skenirao fotografije pohranjene na iCloudu kako bi pronašao one koje odgovaraju poznatim slikama CSAM-a koje su identificirale organizacije za sigurnost djece. Tada bi mogao prijaviti te slike jer je posjedovanje CSAM slika protuzakonito u većini jurisdikcija, uključujući SAD.

Zašto je Apple otkazao svoj plan skeniranja iCloud fotografija

Nakon prve objave 2021., Apple se suočio s protivljenjem kupaca, grupa i pojedinaca koji su zagovarali digitalnu privatnost i sigurnost diljem svijeta. iPhone obično nudi veću sigurnost od Android uređaja , a mnogi su to doživjeli kao korak unatrag. Iako je to bila pobjeda za organizacije za sigurnost djece, više od 90 političkih grupa napisalo je otvoreno pismo Appleu kasnije istog mjeseca, govoreći tvrtki da otkaže plan.



 Prednji dio Apple Storea

Pismo je tvrdilo da, dok alat namjerava zaštititi djecu od zlostavljanja , mogao bi se iskoristiti za cenzuru slobode govora i ugroziti privatnost i sigurnost korisnika. Zbog sve većeg pritiska, Apple je zaustavio svoje planove za lansiranje kako bi prikupio povratne informacije i izvršio potrebne prilagodbe značajke. Međutim, povratne informacije nisu bile u prilog Appleovom planu skeniranja iCloud fotografija, tako da tvrtka službeno zauvijek odustaje od planova.

U izjavi za WIRED, tvrtka je rekla:





'Odlučili smo... odustati od našeg prethodno predloženog alata za otkrivanje CSAM-a za iCloud fotografije. Djeca se mogu zaštititi bez tvrtki koje pretražuju osobne podatke, a mi ćemo nastaviti raditi s vladama, zagovornicima djece i drugim tvrtkama kako bismo pomogli u zaštiti mladi, čuvajte svoje pravo na privatnost i učinite internet sigurnijim mjestom za djecu i za sve nas.'

Appleov novi plan za zaštitu djece

Apple preusmjerava svoje napore na poboljšanje značajki komunikacijske sigurnosti najavljenih u kolovozu 2021. i pokrenutih u prosincu iste godine.





Sigurnost komunikacije nije obavezna i mogu je koristiti roditelji i skrbnici za zaštitu djece od slanja i primanja seksualno eksplicitnih slika u iMessageu. Značajka automatski zamućuje takve fotografije, a dijete će biti upozoreno na opasnosti koje prijete. Također upozorava svakoga ako pokuša tražiti CSAM na Apple uređajima.

Budući da su otkazani planovi za pokretanje alata za otkrivanje CSAM-a, tvrtka se veseli daljnjem poboljšanju značajke i njezinom proširenju na više komunikacijskih aplikacija.