Аннотация:Статья посвящена состязательным атакам на модели машинного обучения. Под такими атаками понимается сознательное манипулирование данными на разных этапах конвейера машинного обучения, призванное либо воспрепятствовать правильной работе модели, либо добиться от нее желаемого результата. В данном случае рассматривались физические атаки уклонения, то есть модифицировались сами объекты, используемые в модели. В статье рассматривается использование камуфлированных изображений для обмана системы распознавания. Эксперименты проводились с моделью машинного обучения, которая распознает изображения автомобилей. Были использованы два типа камуфляжных рисунков – классический камуфляж и нанесение изображения другого автомобиля. Практически, такие манипуляции могут быть осуществлены с помощью аэрографии. В работе подтверждено успешное осуществление таких атак, получены метрики, характеризующие эффективность атак, а также возможности противодействия им с помощью состязательных тренировок. Все результаты открыто опубликованы, что дает возможность использовать их как программный стенд для отработки других атак и методов защиты.