עפּל ס CSAM סיסטעם איז פארפירט, אָבער די פירמע האט צוויי סייפגאַרדז

אַפּדייט: עפּל דערמאנט אַ צווייט דורכקוק פון די סערווער, און אַ פאַכמאַן קאָמפּיוטער זעאונג פירמע אַוטליינד אַ מעגלעכקייט פון וואָס דאָס קען זיין דיסקרייבד אין "ווי די רגע דורכקוק קען אַרבעטן" אונטן.
נאָך די דעוועלאָפּערס פאַרקערט ענדזשאַנירד פּאַרץ פון עס, די פרי ווערסיע פון ​​די עפּל CSAM סיסטעם איז יפעקטיוולי טריקט צו צייכן אַן אומשולדיק בילד.אָבער, עפּל סטייטיד אַז עס האט נאָך סייפגאַרדז צו פאַרמייַדן דעם פון געשעעניש אין פאַקטיש לעבן.
די לעצטע אַנטוויקלונג איז פארגעקומען נאָך די נעוראַלהאַש אַלגערידאַם איז ארויס צו די אָפֿן מקור דעוועלאָפּער וועבזייטל GitHub, ווער עס יז קענען עקספּערימענט מיט עס ...
אַלע CSAM סיסטעמען אַרבעט דורך ימפּאָרטינג אַ דאַטאַבייס פון באקאנט קינד סעקסואַל זידלען מאַטעריאַלס פון אָרגאַנאַזיישאַנז אַזאַ ווי די נאַשאַנאַל צענטער פֿאַר פעלנדיק און עקספּלאָיטעד קינדער (NCMEC).די דאַטאַבייס איז צוגעשטעלט אין די פאָרעם פון האַשעס אָדער דיגיטאַל פינגגערפּרינץ פון בילדער.
כאָטש רובֿ טעכנאָלאָגיע דזשייאַנץ יבערקוקן פאָטאָס ופּלאָאַדעד אין די וואָלקן, עפּל ניצט די נעוראַלהאַש אַלגערידאַם אויף דער קונה ס iPhone צו דזשענערייט אַ האַש ווערט פון די סטאָרד פאָטאָ, און דעמאָלט קאַמפּערז עס מיט די דאַונלאָודיד קאָפּיע פון ​​​​די CSAM האַש ווערט.
נעכטן, אַ דעוועלאָפּער קליימד צו האָבן פאַרקערט ענדזשאַנירד עפּל ס אַלגערידאַם און באפרייט די קאָד צו GitHub - די פאָדערן איז יפעקטיוולי באשטעטיקט דורך עפּל.
ין אַ ביסל שעה נאָך GitHib איז באפרייט, די ריסערטשערז הצלחה געוויינט דעם אַלגערידאַם צו שאַפֿן אַ ינטענטשאַנאַל פאַלש positive - צוויי גאָר פאַרשידענע בילדער וואָס דזשענערייטאַד די זעלבע האַש ווערט.דאס איז גערופן אַ צונויפשטויס.
פֿאַר אַזעלכע סיסטעמען איז שטענדיק אַ ריזיקירן פון קאַליזשאַנז, ווייַל די האַש איז פון קורס אַ זייער סימפּלאַפייד פאַרטרעטונג פון די בילד, אָבער עס איז חידוש אַז עמעצער קענען דזשענערייט די בילד אַזוי געשווינד.
די דיליבראַט צונויפשטויס דאָ איז נאָר אַ דערווייַז פון באַגריף.דעוועלאָפּערס טאָן ניט האָבן אַקסעס צו די CSAM האַש דאַטאַבייס, וואָס וואָלט דאַרפן די שאַפונג פון פאַלש פּאַזאַטיווז אין די פאַקטיש-צייט סיסטעם, אָבער דאָס באַווייַזן אַז צונויפשטויס אנפאלן זענען לעפיערעך גרינג אין פּרינציפּ.
עפּל יפעקטיוולי באשטעטיקט אַז די אַלגערידאַם איז די יקער פון זיין אייגענע סיסטעם, אָבער דערציילט די מאָטהערבאָאַרד אַז דאָס איז נישט די לעצט ווערסיע.די פירמע האט אויך געזאגט אַז עס קיינמאָל בדעה צו האַלטן עס קאַנפאַדענשאַל.
עפּל האָט געזאָגט צו מאָטהערבאָאַרד אין אַן E- בריוו אַז די ווערסיע אַנאַלייזד דורך די באַניצער אויף GitHub איז אַ דזשאַנעריק ווערסיע, נישט די לעצט ווערסיע געניצט פֿאַר iCloud Photo CSAM דיטעקשאַן.עפל האָט געזאָגט אז עס האָט אויך ארויסגעגעבן דעם אלגאריטם.
"די נעוראַלהאַש אַלגערידאַם [...] איז טייל פון די געחתמעט אָפּערייטינג סיסטעם קאָד [און] זיכערהייט ריסערטשערז קענען באַשטעטיקן אַז זייַן נאַטור קאַנפאָרמז צו די באַשרייַבונג," געשריבן אַן עפּל דאָקומענט.
די פירמע האָט געזאָגט אַז עס זענען נאָך צוויי סטעפּס: לויפן אַ צווייטיק (סוד) וואָס ריכטן סיסטעם אויף זיין אייגענע סערווער און מאַנואַל אָפּשאַצונג.
עפל האט אויך געזאגט אז נאכדעם וואס די באנוצער האבן דורכגעגאנגען די 30 שוועל, וועט א צווייטער נישט-פובליק אלגאריטם וועלכע לויפן אויף עפל'ס סערווערס טשעק די רעזולטאטן.
"דער אומאָפּהענגיק האַש איז אויסדערוויילט צו אָפּוואַרפן די מעגלעכקייט אַז די טעות נעוראַלהאַש גלייַכן די ינקריפּטיד CSAM דאַטאַבייס אויף די מיטל רעכט צו אַדווערסאַרי ינטערפיראַנס פון ניט-CSAM בילדער און יקסיד די וואָס ריכטן שוועל."
בראַד דוויער פון ראָבאָפלאָוו געפונען אַ וועג צו לייכט ויסטיילן צווישן די צוויי בילדער פּאָסטעד ווי אַ דערווייַז פון באַגריף פֿאַר אַ צונויפשטויס באַפאַלן.
איך בין טשיקאַווע ווי די בילדער קוקן אין CLIP פון אַ ענלעך אָבער אַנדערש נעוראַל שטריך עקסטראַקטאָר OpenAI.CLIP אַרבעט סימאַלערלי צו נעוראַלהאַש;עס נעמט אַ בילד און ניצט אַ נעוראַל נעץ צו דזשענערייט אַ סכום פון שטריך וועקטאָרס וואָס מאַפּע צו די אינהאַלט פון די בילד.
אָבער די נעץ פון OpenAI איז אַנדערש.עס איז אַ גענעראַל מאָדעל וואָס קענען מאַפּע צווישן בילדער און טעקסט.דעם מיטל אַז מיר קענען נוצן עס צו עקסטראַקט מענטש-פאַרשטיייק בילד אינפֿאָרמאַציע.
איך געלאפן די צוויי צונויפשטויס בילדער אויבן דורך CLIP צו זען אויב עס איז אויך פולד.דער קורץ ענטפער איז: ניין.דעם מיטל אַז עפּל זאָל קענען צו צולייגן אַ צווייטע שטריך עקסטראַקטאָר נעץ (אַזאַ ווי CLIP) צו די דיטעקטאַד CSAM בילדער צו באַשליסן צי זיי זענען פאַקטיש אָדער שווינדל.עס איז פיל מער שווער צו דזשענערייט בילדער וואָס נאַרן צוויי נעטוואָרקס אין דער זעלביקער צייט.
צום סוף, ווי דערמאנט פריער, די בילדער זענען מאַניואַלי ריוויוד צו באַשטעטיקן אַז זיי זענען CSAM.
א זיכערהייט פאָרשער האָט געזאָגט אז דער איינציקער אמתער ריזיקירן איז אז ווער עס יז וואס וויל טשעפען עפל קען צושטעלן פאלשע פאזיטיוון פאר מענטשליכע רעצענזערס.
"עפּל אַקטשאַוואַלי דיזיינד דעם סיסטעם, אַזוי די האַש פונקציע דאַרף ניט זיין געהיים, ווייַל די בלויז זאַך איר קענען טאָן מיט 'ניט-CSAM ווי CSAM' איז צו טשעפּענ זיך עפּל ס ענטפער מאַנשאַפֿט מיט עטלעכע אָפּפאַל בילדער ביז זיי ינסטרומענט פילטערס צו עלימינירן פילטערס. אַנאַליסיס די מיסט אין די רערנ - ליניע זענען פאַלש פּאַזאַטיווז, "ניקאָלאַס וויווער, אַ עלטער פאָרשער אין דעם אינסטיטוט פון אינטערנאציאנאלע קאמפיוטער וויסנשאַפֿט אין אוניווערסיטעט פון קאַליפאָרניאַ, בערקלי, דערציילט מאָטהערבאָאַרד אין אַן אָנליין שמועסן.
פּריוואַטקייט איז אַן אַרויסגעבן פון ינקריסינג דייַגע אין הייַנט ס וועלט.גיי אַלע ריפּאָרץ שייַכות צו פּריוואַטקייט, זיכערהייט, אאז"ו ו אין אונדזער גיידליינז.
Ben Lovejoy איז אַ בריטיש טעכניש שרייַבער און אי.יו. רעדאַקטאָר פֿאַר 9to5Mac.ער איז באַוווסט פֿאַר זיין שפאלטן און טאָגבוך אַרטיקלען, ויספאָרשן זיין דערפאַרונג מיט עפּל פּראָדוקטן איבער צייַט צו באַקומען מער פולשטענדיק באריכטן.ער שרייבט אויך ראָמאַנז, עס זענען צוויי טעכניש טהרילערז, אַ ביסל קורץ וויסנשאַפֿט פיקשאַן פילמס און אַ ראָם-קאָם!


פּאָסטן צייט: אויגוסט 20-2021