Новый метод позволяет обходить системы распознавания лиц и выдавать себя за другого

искусственный интеллект система распознавания лиц атака Adversa AI
Новая атака отличается от других состязательных атак тем, что только маскирует изображенного на фото человека, а не превращает его в кого-то другого.

Новый метод позволяет обходить системы распознавания лиц и выдавать себя за другого

Специалисты израильской компании Adversa AI, занимающейся разработкой технологий искусственного интеллекта (ИИ), представили
новый метод обмана систем распознавания лиц путем добавления на фотографии так называемого шума. Этот шум представляет собой крошечные частички данных, которые невозможно увидеть невооруженным глазом, но которых вполне достаточно для того, чтобы заставить систему распознавания лиц поверить, будто на фото изображен другой человек. В частности, исследователи продемонстрировали, как им удалось заставить систему распознавания лиц PimEyes принять руководителя Adversa AI Алекса Полякова за Илона Маска.
Состязательные атаки (adversarial attacks) совершенствуются с каждым годом, равно как и способы защиты от них. Однако представленная Adversa AI атака под названием «Состязательный осьминог» (Adversarial Octopus) отличается от них по ряду причин.
Во-первых, Adversarial Octopus только маскирует изображенного на фото человека, а не превращает его в кого-то другого. Во-вторых, вместо добавления шума к данным изображения, на котором обучаются модели ИИ (так называемая атака отравления), новый метод предполагает внесение изменений в изображение, которое будет вводиться в систему распознавания лиц, и не требует внутренних знаний о том, как обучалась эта система.
Авторы Adversarial Octopus пока еще не опубликовала научную статью с полным объяснением атаки. Исследователи представят подробности о ней только по завершении процесса ответственного раскрытия уязвимости разработчикам систем распознавания лиц.

SECURITYLAB.RU

Источник