Перейти к основному разделу

В ходе эксперимента с участием 50 добровольцев и одного робота, использующего привычные человеческие каналы коммуникации для взаимодействия с людьми (речь и невербальные сигналы), выяснилось, что почти все участники исследования пренебрегли элементарными правилами безопасности и доверились роботу, в частности выдали ему конфиденциальную информацию. Во всём этом был один нюанс: по условиям эксперимента робот изначально контролировался оператором.

Эксперимент начался с того, что социального робота разместили в здании в центре бельгийского Гента рядом с входом в помещение, для доступа в которое требуется идентификация личности – то есть человек должен приложить пропуск к считывающему устройству, чтобы открыть дверь. По сценарию робот просил всех участников эксперимента пропустить его вслед за собой в это контролируемое помещение. Согласились это сделать в итоге 40% испытуемых. Однако когда робота замаскировали под доставщика пиццы от известного ресторана, люди с большей охотой пускали его в закрытое помещение и меньше задавались вопросом, зачем он хочет туда попасть.

Во второй части эксперимента робот вовлекал людей в дружескую беседу. Исследователи хотели понять, удастся ли ему выманить у участников эксперимента персональную информацию, зная которую можно менять пароли и настройки учётных записей (например, дату рождения, любимый цвет, марку первого автомобиля и т.п.). В результате в процессе разговора с роботом все испытуемые, кроме одного, выдавали те или иные личные данные с частотой раз в минуту. 

Комментируя результаты эксперимента, антивирусный эксперт «Лаборатории Касперского» Дмитрий Галов уточнил: «Сейчас большинство подобных роботов проходят стадию тестирования и используются очень ограниченно, но в ближайшем будущем они несомненно станут частью повседневной жизни. И проведённый нами и нашими коллегами из Гентского университета эксперимент подтверждает, что пренебрежение вопросами кибербезопасности роботов потенциально может оказать негативное влияние на людей. Ведь, если к системе такого устройства получит доступ злоумышленник, неизвестно, чем это может обернуться для людей вокруг. Мы надеемся, что подобные эксперименты и исследования заставят общественность и IT-сообщество пересмотреть своё отношение к роботам и заблаговременно предусмотреть технические возможности для обеспечения их защищённости».

В свою очередь, профессор Гентского университета и специалист в области искусственного интеллекта и робототехники Тони Белпаем (Tony Belpaeme) добавил: «Научная литература подтверждает, что люди склонны доверять роботам, особенно социальным роботам-помощникам, и это доверие может быть использовано, чтобы убедить людей предпринять какие-либо действия или раскрыть информацию. В целом чем более антропоморфным выглядит робот, тем больше он способен убеждать людей. Наш эксперимент показал, что это обстоятельство может создать существенные риски: люди забывают о правилах безопасности, предполагая, что робот изначально безобиден. Однако это избыточное доверие открывает возможность проведения атак, и результаты нашего эксперимента демонстрируют лишь малую часть тех рисков, которые стоит учитывать при взаимодействии с социальными роботами. Вот почему так важно уже сегодня объединить усилия, чтобы понять и устранить эти риски и уязвимости».

Ознакомиться с копией отчёта по результатам эксперимента «Лаборатории Касперского» и Гентского университета “The potential of social robots for persuasion and manipulation: a proof of concept study” можно здесь: https://securelist.com/robots-social-impact/94431/.

«Лаборатория Касперского» выяснила, чем может обернуться беспечное доверие к роботам

Совместное исследование «Лаборатории Касперского» и Гентского университета (Universiteit Gent) показало, что люди склонны доверять социальным роботам больше, чем следовало бы.
Kaspersky Logo