Apple защищает технологию обработки изображений с жестоким обращением с детьми после заявлений о “ хэш-коллизиях ''

appleзащищаеттехнологиюобработкиизображенийсжестокимобращениемсдетьмипослезаявленийо8220хэшколлизиях3939

Screen Shot 2021-02-24 at 3

Взлом. Дезинформация. Наблюдение. CYBER – это подкаст Motherboard, посвященный темным изнанкам Интернета.

Исследователи утверждают, что они исследовали определенную часть новой системы Apple, чтобы обнаружить и пометить материалы сексуального насилия над детьми, или CSAM, и смогли обманом заставить его сказать два изображения, которые были явно разными, имели один и тот же криптографический отпечаток. Но Apple заявляет, что эта часть ее системы не должна быть секретной, что вся система предназначена для учета этого в целом, и что проанализированный код не является окончательной реализацией, которая будет использоваться с самой системой CSAM и вместо этого является универсальной версией.

В среду пользователь GitHub AsuharietYgvar опубликованные подробности того, что они утверждают, является реализацией NeuralHash , технология хеширования в системе защиты от CSAM анонсирован Apple в начале августа . Через несколько часов кто-то другой заявил, что смог создать столкновение , что означает, что он обманом заставил систему дать двум разным изображениям один и тот же хэш. Обычно хеш-коллизии означают, что один файл может показаться системе другим. Например, вредоносная программа может иметь общий хэш с безобидным файлом, поэтому антивирусная система помечает банальный файл, полагая, что он представляет угрозу для пользователя.

В белая бумага Apple объяснила, что ее технология обнаружения CSAM будет работать на устройстве пользователя, а не в облаке компании, как это делают другие компании, такие как Google и Microsoft. Система основана на базе данных хэшей – криптографических представлений изображений – известных фотографий CSAM, предоставленных Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC) и другими организациями по защите детей. Система Apple будет сканировать фотографии, которые пользователь загружает в iCloud, чтобы увидеть, совпадают ли какие-либо с хеш-кодами, и если их больше 57, он помечает пользователя перед командой Apple, которая просматривает изображения. Если Apple обнаружит, что это CSAM, она сообщит об этом пользователю в правоохранительные органы.

В документе с описанием новой системы , Apple заявляет: «Технология хеширования, называемая NeuralHash, анализирует изображение и преобразует его в уникальный номер, соответствующий этому изображению».

Однако Apple сообщила материнской плате в электронном письме, что эта версия, проанализированная пользователями на GitHub, является общей версией, а не единственной окончательной версией. который будет использоваться для обнаружения CSAM iCloud Photos. Apple заявила, что также опубликовала алгоритм.

“Алгоритм NeuralHash включенный как часть кода подписанной операционной системы [and], исследователи безопасности могут проверить, что она ведет себя, как описано, “один из В документации Apple указано . Apple также сказал, что после того, как пользователь преодолеет порог соответствия 57, второй закрытый алгоритм, который работает на серверах Apple, проверит результаты.

«Этот независимый хэш выбран, чтобы исключить маловероятную возможность того, что порог соответствия был превышен из-за не-CSAM-изображений, которые были злонамеренно нарушены, чтобы вызвать ложные совпадения NeuralHash с включенным база данных CSAM, зашифрованная устройством “, – говорится в документации.

«Если существуют коллизии для этой функции, я ожидаю, что они будут существовать в системе, которую Apple в конечном итоге активирует», – сказал Motherboard в онлайн-чате Мэтью Грин, преподающий криптографию в Университете Джона Хопкинса. Конечно, возможно, что они повторно раскрутят хэш-функцию перед развертыванием. Но в качестве доказательства концепции это определенно верно “, – добавил он, имея в виду исследование на GitHub.

Новая система Apple, однако, не только техническая. Люди также будут просматривать изображения, когда система помечает устройство как подозрительное после определения определенного порога оскорбительных изображений. Эти люди будут проверять, действительно ли изображения содержат CSAM.

«Apple действительно разработала эта система, поэтому хеш-функция не должна оставаться в секрете, так как единственное, что вы можете сделать с ‘не-CSAM, который хеширует как CSAM’, – это раздражать команду реагирования Apple некоторыми изображениями мусора, пока они не внедрили фильтр для устранения этого мусора false положительные результаты их анализа “, – сказал в онлайн-чате компании Motherboard Николас Уивер, старший научный сотрудник Международного института компьютерных наук в Калифорнийском университете в Беркли.

Райан Дафф, режиссер Эктор киберпродуктов в SIXGEN и исследователь, который много лет занимался iPhone, сказал, что похоже, что алгоритм Apple «довольно чувствителен к атакам с использованием прообраза».

«Вы можете поспорить, насколько это рискованно. Это означает, что шансы любого из ваших изображений, соответствующих CSAM, по существу равны нулю, – сказал Дафф в онлайн-чате. – Но кто-то может отправить вам изображение, которое регистрируется как CSAM в соответствии с алгоритмом NeuralHash »

Поскольку Apple объявила о своем новом – Эксперты по системе CSAM, конфиденциальности и безопасности, а также широкая общественность выразили обеспокоенность по поводу того, как можно злоупотреблять системой. Компания попыталась решить эти проблемы, опубликовав несколько технических официальных документов и организовав телефонные переговоры с журналистами, но исследователи обратили внимание на Получил сегодня, показывает, что все еще есть большой интерес к пониманию того, как будет работать система.

Подпишитесь на наш подкаст о кибербезопасности, CYBER .

ОРИГИНАЛЬНЫЙ ОТЧЕТ ПО ВСЕМУ, ЧТО ВАЖНО В ВАШЕМ ЯЩИКЕ.

Подписываясь на информационный бюллетень VICE, вы соглашаетесь получать электронные сообщения от VICE, которые иногда могут включать в себя рекламу или спонсируемый контент.

Leave a comment

Your email address will not be published. Required fields are marked *

five × three =