Vyhledávač macOS neskenuje vaše obrázky a nehledá nelegální materiál.

AppleInsider může získat přidruženou provizi za nákupy uskutečněné prostřednictvím odkazů na našich stránkách.
Apple nekontroluje obrázky zobrazené v macOS Finder na obsah CSAM, jak zjistilo vyšetřování macOS Ventura, přičemž analýza ukazuje, že Visual Lookup Apple pro tento konkrétní účel nepoužívá.
V prosinci Apple oznámil, že se vzdal plánů skenovat fotografie z iPhonu nahrané na iCloud kvůli materiálu o sexuálním zneužívání dětí (CSAM), po značném odporu kritiků. Zvěsti však zjevně přetrvávaly o tvrzení, že Apple stále provádí kontroly v macOS Ventura 13.1, což vyvolalo vyšetřování ze strany vývojáře.
Podle Howarda Oakleyho z Společnost Electric Light Co. v příspěvku na blogu z 18. ledna se začalo šířit tvrzení, že Apple automaticky zasílá „identifikátory obrázků“, které si uživatel prohlížel ve Finderu, a činil tak „bez souhlasu nebo vědomí tohoto uživatele“.
Plán skenování CSAM by zahrnoval místní kontrolu obrázků na zařízení na potenciální obsah CSAM pomocí hashovacího systému. Hash obrázku by pak byl odeslán a porovnán se seznamem známých souborů CSAM.
Zatímco myšlenku skenování obrázků a vytváření neurálního hashe, který má být odeslán do Applu k popisu charakteristik obrázku, by bylo možné použít pro skenování CSAM, testování Oakley ukazuje, že se tímto způsobem aktivně nepoužívá. Místo toho se zdá, že systém Visual Lookup společnosti Apple, který umožňuje macOS a iOS identifikovat lidi a objekty na obrázku a také v textu, by mohl být mylně považován za chování tohoto druhu.
Žádný důkaz v testech
V rámci testování byl macOS 13.1 spuštěn v rámci virtuálního stroje a aplikace Mints byla použita ke skenování jednotného protokolu aktivit na instanci VM. Na virtuálním počítači byla sbírka obrázků zobrazena po dobu jedné minuty v zobrazení galerie Finderu, přičemž bylo zachyceno a uloženo více než 40 000 záznamů protokolu.
Pokud by byl systém použit pro analýzu CSAM, došlo by u každého obrázku k opakovaným odchozím spojením z „analýzy médií“ na server Apple. Mediaanalysisisd odkazuje na prvek používaný ve Visual Lookup, kde Fotografie a další nástroje mohou zobrazovat informace o detekovaných položkách v obrázku, jako je „kočka“ nebo názvy objektů.
Protokoly místo toho ukázaly, že nebyly vůbec žádné záznamy spojené s analýzou médií. Bylo zjištěno, že další výpis protokolu je velmi podobný Visual Lookup, jak se objevil v macOS 12.3, v tom, že se systém od tohoto vydání podstatně nezměnil.
Mediaanalysisd obvykle nekontaktuje servery Apple až do velmi pozdního procesu samotného, protože vyžaduje neurální hashe předem generované analýzou obrazu. Po odeslání a obdržení odpovědi ze serverů Apple jsou přijatá data použita k identifikaci uživatelských prvků v obrázku.
Další pokusy zjistily, že došlo k dalším pokusům o odeslání dat k analýze, ale pro umožnění fungování živého textu.
Ve svém závěru Oakley píše, že „neexistuje žádný důkaz, že by místní obrázky na Macu měly identifikátory vypočítané a nahrané na servery společnosti Apple při prohlížení v oknech Finderu“.
Zatímco obrázky prohlížené v aplikacích s podporou Visual Lookup mají vytvořené neurální hashe, které lze odeslat na servery společnosti Apple k analýze. Až na to, že pokus o získání neurálních hashů pro detekci CSAM „by byl z mnoha důvodů odsouzen k neúspěchu“.
Místní obrázky v náhledu QuickLook také procházejí běžnou analýzou pro živý text, ale „negenerují se identifikátory, které by bylo možné nahrát na servery společnosti Apple“.
Vizuální vyhledávání lze navíc zakázat vypnutím Návrhů Siri. Externí vyhledávání v analýze médií lze také zablokovat pomocí softwarového firewallu nakonfigurovaného tak, aby blokoval port 443, ačkoli „to může zakázat další funkce macOS“.
Oakley uzavírá článek varováním, že „tvrzení, že jednání uživatele má za následek kontroverzní účinky, vyžaduje plnou demonstraci celého řetězce příčinných souvislostí. Zakládat tvrzení na závěru, že dvě události mohou být propojeny, aniž bychom chápali povahu jedné z nich, je lehkomyslné, pokud není zlomyslný.“
CSAM je stále problém
I když Apple opustil myšlenku provádění místního zpracování detekce CSAM, zákonodárci se stále domnívají, že Apple s tímto problémem nedělá dost.
V prosinci australský komisař pro e-Safety napadl Apple a Google kvůli „zjevně nedostatečnému a nekonzistentnímu používání široce dostupné technologie k odhalování materiálů zneužívání dětí a groomingu“.
Spíše než přímo skenovat existující obsah, což by bylo z velké části neúčinné, protože Apple používá plně šifrované úložiště a zálohy fotografií, Apple se zdá, že chce zvolit jiný přístup. Konkrétně takový, který dokáže detekovat nahotu obsaženou ve fotkách odeslaných přes iMessage.
Zdroj: appleinsider.com