Когда Гарри Поттер получает плащ-невидимку в качестве рождественского подарка, он использует его, чтобы спрятаться от учителей Хогвартса и мерзкого смотрителя Аргуса Филча. Теперь исследователи из Facebook AI и Университета Мэриленда представили версию 21-го века - толстовки, напечатанные с примерами противоборства, которые делают пользователя незаметным для детекторов объектов на базе искусственного интеллекта в современных системах общественного наблюдения.

Ян Гудфеллоу, известный ученый, который первым создал генеративные состязательные сети (GAN), описывает состязательные примеры как входные данные для моделей машинного обучения, которые злоумышленник намеренно разработал, чтобы заставить модель сделать ошибку. В новом исследовании исследователи напечатали состязательные примеры на толстовках и других предметах, чтобы атаковать детекторы объектов и заставить их не распознавать свои цели по изображениям или видео.

Обмануть детекторы объектов намного сложнее, чем обмануть классификаторы. Как объясняют исследователи: «Эффект объединения тысяч различных априорных точек в сочетании со сложной текстурой, освещением и искажениями измерений в реальном мире делает детекторы естественной надежностью».

В апреле этого года Synced сообщила об исследовании, проведенном бельгийским университетом KU Leuven, которое продемонстрировало, как состязательная атака с использованием красочного печатного патча размером 40 кв. См может значительно снизить точность детекторов объектов. А в августе мы рассказали об исследовании Московского государственного университета имени М.В. Ломоносова и Московского исследовательского центра Huawei, в котором была предложена носимая карта, предназначенная для сокрытия личности человека от систем распознавания лиц. Обе эти попытки были ограничены 2D-печатными заплатами, в то время как новое исследование расширяет метод до более практичной, но сложной области одежды и 3D-объектов.

Исследователи «обучили» свои патчи атаки, используя случайное подмножество из 10 000 изображений, содержащих людей из огромного набора данных COCO. Сначала они оценили исправления в цифровых смоделированных настройках: атаки белого ящика (веса детекторов, используемые для обучения исправлений) и атаки черного ящика (исправления, созданные на основе суррогатной модели и протестированные на модели жертвы с различными параметрами). Все обученные патчи доказали свою высокую эффективность в цифровом моделировании.

Затем исследователи перешли к атакам на физический мир, применив свои состязательные примеры к плакатам, бумажным куклам (сложенные распечатки тестовых изображений в разных масштабах) и толстовкам. Носимые атаки значительно ухудшили производительность детекторов объектов SOTA в различных средах.

Эксперименты показывают, что такие цифровые атаки могут передаваться между моделями, классами и наборами данных, а также в реальный мир, хотя и с меньшей надежностью, чем атаки на простые классификаторы.

Статья Создание мантии-невидимки: состязательные атаки на детекторы объектов в реальном мире находится на arXiv.

Автор: Юйцин Ли | Редактор: Майкл Саразен

Мы знаем, что вы не хотите пропустить ни одной истории. Подпишитесь на наш популярный Synced Global AI Weekly , чтобы получать еженедельные обновления AI.

Нужен всесторонний обзор прошлого, настоящего и будущего современных исследований в области искусственного интеллекта? Отчет Тенденции развития технологий искусственного интеллекта вышел!

Вышел Отчет об адаптивности AI для публичной компании Fortune Global 500 за 2018 год!
Приобретите отчет в формате Kindle на Amazon.
Подайте заявку на участие в Партнерской программе Insight, чтобы получить бесплатный полный отчет в формате PDF.