Apple's CSAM System gouf täuscht, awer d'Firma huet zwee Sécherheetsmoossnamen

Update: Apple huet eng zweet Inspektioun vum Server ernimmt, an eng professionell Computervisiounsfirma huet eng Méiglechkeet beschriwwen wat dëst an "Wéi déi zweet Inspektioun kéint funktionéieren" hei ënnen beschriwwe ginn.
Nodeems d'Entwéckler Deeler dovun ëmgedréit hunn, ass déi fréi Versioun vum Apple CSAM System effektiv tricked fir en onschëlleg Bild ze markéieren.Wéi och ëmmer, Apple sot datt et zousätzlech Sécherheetsmoossnamen huet fir ze verhënneren datt dëst am richtege Liewen geschitt.
Déi lescht Entwécklung ass geschitt nodeems den NeuralHash Algorithmus op der Open Source Entwéckler Websäit GitHub publizéiert gouf, jidderee kann domat experimentéieren ...
All CSAM Systemer funktionnéieren duerch Import vun enger Datebank vu bekannte sexuellem Mëssbrauchsmaterialien fir Kanner vun Organisatiounen wéi den National Center for Missing and Exploited Children (NCMEC).D'Datebank gëtt a Form vun Hashes oder digitale Fangerofdréck vu Biller geliwwert.
Och wann déi meescht Technologiegiganten Fotoen, déi an der Wollek eropgelueden sinn, scannen, benotzt Apple den NeuralHash Algorithmus um iPhone vum Client fir en Hash-Wäert vun der gespäicherter Foto ze generéieren, a vergläicht et dann mat der erofgeluede Kopie vum CSAM Hash-Wäert.
Gëschter huet en Entwéckler behaapt den Apple Algorithmus ëmgedréint ze hunn an de Code op GitHub verëffentlecht - dës Fuerderung gouf effektiv vun Apple bestätegt.
Bannent e puer Stonnen nodeems GitHib verëffentlecht gouf, hunn d'Fuerscher den Algorithmus erfollegräich benotzt fir en intentional falsch Positiv ze kreéieren - zwee komplett verschidde Biller déi deeselwechten Hash-Wäert generéiert hunn.Dëst gëtt eng Kollisioun genannt.
Fir esou Systemer besteet ëmmer e Risiko vu Kollisiounen, well den Hash ass natierlech eng immens vereinfacht Duerstellung vum Bild, awer et ass iwwerraschend datt een d'Bild esou séier generéiere kann.
Déi bewosst Kollisioun hei ass just e Beweis vum Konzept.D'Entwéckler hunn keen Zougang zu der CSAM-Hash-Datebank, déi d'Schafung vu falschen Positiven am Echtzäitsystem erfuerdert, awer et beweist datt Kollisiounsattacken am Prinzip relativ einfach sinn.
Apple huet effektiv bestätegt datt den Algorithmus d'Basis vu sengem eegene System ass, awer huet dem Motherboard gesot datt dëst net déi definitiv Versioun ass.D'Firma huet och gesot datt et ni virgesi war et vertraulech ze halen.
Apple huet dem Motherboard an enger E-Mail gesot datt d'Versioun, déi vum Benotzer op GitHub analyséiert gëtt, eng generesch Versioun ass, net déi lescht Versioun, déi fir iCloud Photo CSAM Detektioun benotzt gëtt.Apple sot et huet och den Algorithmus opgedeckt.
"Den NeuralHash Algorithmus [...] ass Deel vum ënnerschriwwene Betribssystem Code [a] Sécherheetsfuerscher kënnen verifizéieren datt säi Verhalen der Beschreiwung entsprécht", schreift en Apple Dokument.
D'Firma huet weider gesot datt et zwee méi Schrëtt sinn: e Secondaire (geheime) passende System op hiren eegene Server lafen, a manuell Iwwerpréiwung.
Apple huet och gesot datt nodeems d'Benotzer d'30-Match-Schwell passéieren, en zweeten net-ëffentlechen Algorithmus, deen op Apple's Server leeft, d'Resultater iwwerpréift.
"Dësen onofhängege Hash gouf gewielt fir d'Méiglechkeet ze refuséieren datt de falschen NeuralHash mat der verschlësselter CSAM-Datebank op dem Apparat entsprécht wéinst adversarial Interferenz vun net-CSAM-Biller an iwwerschreift de passende Schwell."
De Brad Dwyer vu Roboflow huet e Wee fonnt fir einfach tëscht den zwee Biller ze ënnerscheeden, déi als Beweis vum Konzept fir eng Kollisiounsattack gepost goufen.
Ech si gespaant wéi dës Biller am CLIP vun engem ähnlechen awer aneren neurale Feature Extractor OpenAI ausgesinn.CLIP funktionnéiert ähnlech wéi NeuralHash;et hëlt e Bild a benotzt en neuralt Netzwierk fir eng Rei vu Featurevektoren ze generéieren déi op den Inhalt vum Bild mapen.
Awer dem OpenAI säi Netzwierk ass anescht.Et ass en allgemenge Modell deen tëscht Biller an Text ka mapen.Dëst bedeit datt mir et benotze kënne fir mënschlech verständlech Bildinformatioun ze extrahieren.
Ech hunn déi zwee Kollisiounsbiller hei uewen duerch CLIP gelaf fir ze kucken ob et och narréiert gouf.Déi kuerz Äntwert ass: nee.Dëst bedeit datt Apple fäeg ass en zweet Feature Extractor-Netzwierk (wéi CLIP) op déi detektéiert CSAM-Biller z'applizéieren fir ze bestëmmen ob se real oder gefälscht sinn.Et ass vill méi schwéier Biller ze generéieren déi zwee Netzwierker zur selwechter Zäit täuschen.
Endlech, wéi virdru scho gesot, ginn d'Biller manuell iwwerpréift fir ze bestätegen datt se CSAM sinn.
E Sécherheetsfuerscher sot datt deen eenzege reelle Risiko ass datt jiddereen deen Apple wëll nerven, falsch Positiver fir mënschlech Rezensiounen liwweren.
"Apple huet tatsächlech dëse System entworf, sou datt d'Hash Funktioun net geheim gehale muss ginn, well dat eenzegt wat Dir maache kënnt mat 'non-CSAM als CSAM' ass d'Apple Äntwert Team mat e puer Junk Biller ze nerven bis se Filteren implementéieren fir ze eliminéieren Analyse Déi Gerempels an der Pipeline si falsch Positiver ", sot den Nicholas Weaver, e Senior Fuerscher am Institut fir International Computer Science op der University of California, Berkeley, dem Motherboard an engem Online Chat.
Privatsphär ass en Thema vun ëmmer méi Suergen an der heiteger Welt.Follegt all Berichter am Zesummenhang mat Privatsphär, Sécherheet, etc. an eise Richtlinnen.
De Ben Lovejoy ass e briteschen technesche Schrëftsteller an EU Editor fir 9to5Mac.Hien ass bekannt fir seng Kolonnen an Tagebuchartikelen, seng Erfarung mat Apple Produkter iwwer Zäit ze exploréieren fir méi ëmfaassend Bewäertungen ze kréien.Hie schreift och Romaner, et ginn zwee technesch Thriller, e puer kuerz Science Fiction Filmer an eng Rom-Com!


Post Zäit: Aug-20-2021