Apple zařadil zpátečku, kontroverzní skenování fotografií prozatím odkládá

aktualizováno
Apple zařadil zpátečku, kontroverzní skenování fotografií prozatím odkládá
Fotografie: Charles Deluvio, unsplash.com
  • Apple představil nové bezpečnostní funkce pro ochranu dětí
  • Bude například hlídat, aby jim nikdo neposílal sexuální obsah
  • Daleko větší kontroverzi ale vzbuzuje hlídání obsahu nahrávaného na iCloud

Aktualizováno 3. 9. 2021

Po bouřlivých reakcích na kontroverzní opatření Applu, které mělo v rámci CSAM (detekce materiálů zachycující sexuální zneužívání dětí) vyhodnocovat soukromé fotografie uživatelů, Apple přehodnotil postoj a pro 9to5Mac uvedl, že si na základě zpětné vazby ponechá více času na vylepšení funkce před tím, než ji vypustí mezi zákazníky. Odklad by měl trvat minimálně několik měsíců.

Původní informace z 6. 8. 2021

Apple představil skupinu funkcí, která se má postarat o větší bezpečí dětí, které do kyberprostoru přistupují z jeho zařízení. Jako první zmiňuje jeho zpráva ochranu při zasílání zpráv. Dětské účty, které ji budou mít aktivní, budou mít „cenzurované“ zprávy. Algoritmus zasáhne, pokud dítěti pošle někdo nějaký nevhodný obrazový materiál, ať už jde o násilí nebo sex. Jestliže se něco takového stane, fotografie bude rozmazána a dítě namísto ní dostane informaci, proč je takový obsah nevhodný. O situaci mohou být informováni rodiče a stejný stupeň ochrany bude aplikován i na odchozí fotografie, například pokud se dítě pokusí odeslat sexuálně explicitní obsah.

Daleko větší pozornost však na sebe strhl odstaven nazvaný CSAM detekce. Jedná se o materiály zachycující sexuální zneužívání dětí (Child Sexual Abuse Material). Apple se vůči němu rozhodl aktivně bojovat pomocí Národního centra pro pohřešované a zneužívané děti. To společně s dalšími podobnými organizacemi poskytlo Applu databázi takových snímků, ze kterých Apple udělal nečitelné hashe.

Před uložením snímku do služby iCloud Photos se v zařízení provede porovnání snímku. Tento proces porovnávání je založen na kryptografické technologii nazývané průnik soukromých množin, která určuje, zda existuje shoda, aniž by byl výsledek odhalen. Zařízení vytvoří kryptografický bezpečnostní voucher, který zakóduje výsledek shody spolu s dalšími šifrovanými údaji o obrázku. Pomocí další technologie nazvané prahové sdílení tajemství systém zajišťuje, že obsah bezpečnostních voucherů nemůže být společností Apple interpretován, pokud účet iCloud Photos nepřekročí práh známého obsahu CSAM. Prahová hodnota je nastavena tak, aby poskytovala extrémně vysokou úroveň přesnosti a zajišťovala šanci na nesprávné označení daného účtu menší než jedna ku miliardě za rok.

Teprve po dosažení této hodnoty Apple ručně prozkoumá obsah daného účtu a svá zjištění ohlásí příslušným orgánům. Jinými slovy: systém by neměl falešně vyhodnotit fotografii dětí v bazénu, naopak je zaměřen na ty, kteří ve velkém skladují nebo šíří dětskou pornografii, která je již úřadům známa. Naproti tomu systém na filtrování zpráv je založen na učícím se algoritmu, takže zde lze očekávat jisté přešlapy.

Daleko větší pochybnosti však vzbuzuje už samotný fakt, že Apple vyvíjí nástroje na hodnocení soukromého obsahu. Podle kritiků opatření by tato snaha mohla být rozšířena například na boj proti terorismu, a to i za pomocí zákonného opatření. Vládě pak teoreticky nestojí nic v cestě, aby vyhledávala a stíhala jakýkoli obsah, který sama považuje za závadný.

Související články
Diskuze ke článku
Martin Jeřábek
Martin Jeřábek
Apple šmiráci 😂 a iOvce tleskají..
Porydge Covername
Porydge Covername
A mně způsobují psychickou újmu ti jejich úchylní emoji.
Tomas Pilcer
Tomas Pilcer
Ty vole... Jednou si natočíš se starou video a za půl hodiny ti zavolá borec z Applu, že má na ten tvůj problém iMastičku 😂

Načíst všechny komentáře

Přidat názor

Nejživější diskuze