
Мошенники могут использовать искусственный интеллект для клонирования голосов родственников или программу “дипфейк” для подделки изображения собеседника.
В Роскачестве рассказали, как мошенники используют нейросеть с машинным обучением на основе искусственного интеллекта. Первые отчеты о применении технологии ИИ в схемах обмана по телефону западные эксперты начали получать с 2022 года.
Благодаря имеющимся технологиям хакерам достаточно получить 20-секундный фрагмент с разговором, взятым, к примеру, из социальной сети, для того, чтобы создать клон голоса любого человека. После этого
ИИ звонит близким или знакомым владельца “клонированного” голоса и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги.
В таких случаях рекомендуется не вестись на эмоции, а самим перезвонить нуждающемуся в помощи человеку, чтобы убедиться в произошедшем. Еще одним способом обезопасить себя от мошенников – придумать кодовое слово, для своих. Прямо как в банке. И таким образом, вы будете знать, что звонят действительно родные и близки, а не мошенники с нейросетью.
Также мошенники способны подделать не только голос, но и образ. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные. Распознать дипфейк (подделку изображения) можно по неестественной мимике — движению губ, не попадающему в такт с произносимыми словами, выражению глаз, отсутствию смены эмоций, низкому разрешению, пикселизации или нечеткости изображения, особенно в областях с активной мимикой — бровей, уголков рта. Также поддельное изображение выдает звук, опережающий картинку, или не успевающий за движениями персонажа.
В целом, для обычного пользователя лучший способ защититься от мошенников — быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.